poniedziałek, 16 marca, 2026
Strona główna Wywiady Łabuz i Małecki dla Karne24.com: Deepfakes stały się game changerem w obszarze pornografii. AI trzeba uregulować

Łabuz i Małecki dla Karne24.com: Deepfakes stały się game changerem w obszarze pornografii. AI trzeba uregulować

przez Redakcja

Nie dajmy sobie wmówić, że technologii o innowacyjnym potencjale nie da się regulować, zwłaszcza w przestrzeni karnej. Taką narrację chętnie suflują zwolennicy niczym nieskrępowanego rozwoju, który nie bierze pod uwagę konsekwencji społecznych – mówią dla Karne24.com dr Mateusz Łabuz i prof. UJ Mikołaj Małecki, współautorzy opracowania o deep fake’ach z dziecięcą pornografią.

Maciej Wójcik: Przeglądając tak zwane rolki czy shorty w mediach społecznościowych widzimy coraz więcej obrazów czy filmików wygenerowanych przez sztuczną inteligencję. Potencjał deep fakes wykorzystywany jest obecnie do szerzenia dezinformacji, dyskredytacji, propagowania mowy nienawiści czy wpływania na procesy wyborcze. W jakim stopniu deep fakes stosuje się do tworzenia treści pornograficznych – szczególnie z udziałem małoletnich? Dane, o których Państwo wspominają w artykule są wręcz przerażające.

Mateusz Łabuz: Zagrożenia związane z deep fake’ami przez wiele lat były postrzegane głównie przez pryzmat dezinformacji o charakterze politycznym. Sądziliśmy, że staną się idealnym narzędziem do manipulacji okołowyborczych. Mimo że pojawiają się właściwie w każdej kampanii, nie były dotąd game changerem, nie wywróciły wyników żadnego głosowania do góry nogami. Prawdziwym game changerem okazały się w obszarze pornografii, także tej dotyczącej osób małoletnich.

Dziś stworzenie nieodróżnialnego od rzeczywistego zdjęcia czy wideo jest możliwe z wykorzystaniem darmowego i łatwego w obsłudze oprogramowania.

Mieliśmy niedawno dwie głośne sprawy. Najpierw, jesienią 2025 roku, polskiej nastolatki – rówieśnicy z podstawówki cyfrowo rozebrali jej zdjęcia i wrzucili do mediów społecznościowych. Policja i prokuratura nie dostrzegły w tym szkody osobistej, co samo w sobie było kuriozalne. Potem sprawa Groka i rozbierania fotek dziesiątek tysięcy internautek – to kobiety są głównym celem tego typu ataków.

Na to wszystko nakłada się łatwość, z jaką tworzone są syntetyczne treści pedofilskie. Biegli sądowi już mają pełne ręce pracy z analizą materiałów dowodowych i odróżnianiem tego, co prawdziwe od tego, co wygenerowane przy pomocy sztucznej inteligencji. To kolosalne problemy, a prawo w wielu krajach, w tym w Polsce, zwyczajnie nie nadąża za rozwojem technologii.

Mikołaj Małecki: Te przykłady jasno pokazują, że sposób prawniczego myślenia o pornografii musi ulec zmianie. Na czym polega pokrzywdzenie w przypadku deepfake’a? To nie tylko krzywda osobista, ale też zagrożenie dla przestrzeni publicznej jako takiej.

MW: Właściwie już od dawna występuje proces przenoszenia się przestępczości ze świata rzeczywistego do, ogólnie rzecz ujmując, przestrzeni internetowej. Jednak wydaje się, że sztuczna inteligencja generuje niespotykane wcześniej narzędzia dla rozwoju przestępczości.

MM: Odróżnijmy dwie kwestie. Rozwój AI i Internetu ułatwił popełnianie klasycznych przestępstw, np. oszustw czy kradzieży. Takie przestępstwa da się ścigać używając przepisów, które już istnieją. Ale powstały też zupełnie nowe zjawiska, nieznane wcześniej prawu karnemu. Dobrym przykładem jest patostreaming, ale też wszystko, co wiąże się z deepfake’ami.

MŁ: Deep fake’i to w wielu wypadkach narzędzie do wyniesienia znanych przestępstw na nowy poziom zaawansowania technologicznego. Znaczną część “nowych” przestępstw moglibyśmy typizować, dostosowując “stare” przepisy.

Przestępcy zawsze byli niezwykle kreatywni w wykorzystywaniu postępów technologicznych, prawnicy powinni szukać odpowiedzi, a nie wymówek.

MW: W jaki sposób polskie prawo karne odnosi się obecnie do zjawiska deep fakes z udziałem małoletnich? Czy przepisy obowiązujące już dziś pozwalają na adekwatną prawnokarną reakcję na te zachowania?

MM: Art. 202 § 4b k.k. mówi o przetworzonych lub wytworzonych wizerunkach małoletniego. Przepis został wprowadzony jakiś czas temu do kodeksu karnego właśnie z powodu rozwoju nowych technologii. Jednak postęp technologiczny jest tak szybki, że dzisiaj ten przepis zaczyna chwytać nieporównywalne sytuacje, np. prymitywny kolaż wykonany w programie Paint i doskonały deepfake wygenerowany przez AI.

MŁ: W teorii wspomniany artykuł można podciągnąć pod dziecięcą pornografię w formie deep fake’ów. Nie ma przeszkód interpretacyjnych. Problem w tym, że rozjeżdżają nam się wówczas społeczna szkodliwość i kodeksowe sankcje. Czym różni się prawdziwa pornografia dziecięca od syntetycznej z perspektywy jej konsumenta, który nie jest w stanie odróżnić jednej od drugiej?

MW: Zwracają Państwo uwagę na ciekawy kazus sprawcy, który chce obejrzeć materiał z udziałem prawdziwego dziecka, a nieświadomie trafia na doskonały deep fake. Na pierwszy rzut oka jego zachowanie przypomina znaną nam konstrukcję usiłowania nieudolnego. Czy to poprawna kwalifikacja?

MM: Klasycznie byłoby to usiłowanie nieudolne posiadania treści z udziałem małoletniego do lat 15. Skoro to deepfake, nie jest możliwe dokonanie przestępstwa polegającego na posiadaniu filmu z rzeczywistym dzieckiem. Ale sprawca sądzi, że obcuje z treścią przedstawiającą rzeczywiste dziecko.

Sądzimy, że taki prawniczy opis tej sytuacji – klasycznie poprawny – nie jest już adekwatny. Argumentujemy, że nieodróżnialna, perfekcyjna podróbka wygenerowana przez AI powinna być uznana za treść z udziałem dziecka. Liczy się charakter treści, którą ktoś ogląda, a nie to, czy pokazuje ona rzeczywiste zdarzenie.

Przepis mówi o treści z udziałem małoletniego, a nie zdarzeniu z udziałem małoletniego, które jest zarejestrowane.

MŁ: Kluczowa będzie w tym wypadku analiza społecznej szkodliwości. Ustawodawca postanowił przecież napiętnować sam fakt posiadania określonych materiałów.

MW: Widząc te ogromne zagrożenia na myśl przychodzi wręcz od razu pytanie- czy AI powinniśmy kodyfikować? Tworzyć nowe typy czynów zabronionych? A może powinniśmy w pewnych przypadkach zakazywać korzystania ze sztucznej inteligencji? Czy w przyszłości możemy wyobrazić sobie np. środek karny w postaci zakazu korzystania z AI?

MŁ: To bardzo ciekawa koncepcja, choć zapewne byłaby trudna do egzekwowania w praktyce. AI absolutnie należy kodyfikować, i to szybciej niż później. W niektórych wypadkach wystarczą kosmetyczne zmiany lub dopisanie przepisów rozszerzających zakres tych już obowiązujących.

Nie dajmy sobie wmówić, że technologii o innowacyjnym potencjale nie da się regulować, zwłaszcza w przestrzeni karnej.

Taką narrację chętnie suflują zwolennicy niczym nieskrępowanego rozwoju, który nie bierze pod uwagę konsekwencji społecznych. Tymczasem w centrum zmian należy postawić człowieka i społeczeństwo. Brak adekwatnych przepisów lub problemy z wykładnią, jak choćby w przypadku art. 191a k.k. sprawiają, że ofiary niekonsensualnych syntetycznych treści o charakterze intymnym nie mają dziś zagwarantowanej adekwatnej ochrony, a sprawcy mają poczucie bezkarności.

MM: Wyobrażam sobie, że konkretny sprawca mógłby mieć orzeczony zakaz korzystania z AI, to znaczy używania programów, by generować określone treści. Pojawi się problem egzekucji, o którym wspomniał Mateusz.

Z pewnością pierwszym krokiem powinna być prawna regulacja wymuszająca oznaczanie treści stworzonych przez AI, które mogą wprowadzać w błąd. Tak by nie było dla nikogo wątpliwości, czy to, co oglądamy, przedstawia rzeczywiste sytuacje i ludzi, czy jedynie sztuczne podróbki. Nie ukrywajmy: filmy generowane przez AI i publikowane bez oznaczenia to dezinformacja. Takie treści realnie wprowadzają w błąd wielu ludzi, a to jest społecznie szkodliwe.


Rozmawiał: Maciej Wójcik- student prawa na Wydziale Prawa i Administracji Uniwersytetu Jagiellońskiego

Zdjęcie: Mateusz Łabuz i Mikołaj Małecki


Projekt dofinansowany ze środków budżetu państwa, przyznanych przez Ministra Nauki w ramach Programu Społeczna odpowiedzialność nauki II.

Czytaj więcej

Projekt dofinansowany ze środków budżetu państwa, przyznanych przez Ministra Nauki w ramach programu Społeczna odpowiedzialność nauki II.

Copyright © 2017-2026 by Krakowski Instytut Prawa Karnego Fundacja / ISSN: 2544-9052