Strona główna Nauka XIX Bielańskie Kolokwium Karnistyczne: Prawo karne a nowe technologie (Warszawa, 26 listopada 2025 r.)

XIX Bielańskie Kolokwium Karnistyczne: Prawo karne a nowe technologie (Warszawa, 26 listopada 2025 r.)

przez Mateusz Wiktorek
99 wyświetleń

26 listopada 2025 r. odbywa się Ogólnopolska Konferencja Naukowa pt. „Prawo karne a nowe technologie” w ramach XIX Bielańskiego Kolokwium Karnistycznego. Obrady mają miejsce na Wydziale Prawa i Administracji Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie.

Konferencję otworzył prof. dr hab. Jarosław Majewski z Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie. Bielańskie Kolokwia Karnistyczne wracają po 4 latach przerwy. Następnie głos został przekazany sędziemu Sądu Najwyższego w stanie spoczynku Stanisławowi Zabłockiemu, moderatorowi konferencji.

Referaty

Pierwszy referat, pt. „Przypisanie sprawstwa w obliczu nowych technologii – programista, deweloper, sprzedawca oprogramowania czy użytkownik końcowy?”, wygłosił prof. dr hab. Piotr Kardas z Uniwersytetu Jagiellońskiego w Krakowie.

Profesor zwrócił uwagę na trzy istotne aspekty sztucznej inteligencji, która może być narzędziem w rękach człowieka, przedmiotem czynności wykonawczej lub podmiotem odpowiedzialności karnej per se. Podkreślił, że odpowiedzialności karnej może podlegać podmiot zdolny do moralnego wartościowania i posiadający świadomość, któremu można przypisać winę za popełnienie czynu zabronionego. Jakiekolwiek byty konwencjonalne, w tym sztuczna inteligencja – przynajmniej dotychczas – nie spełniają tych wymogów.

Status sztucznej inteligencji możliwy jest do rozwiązania poprzez nadanie jej osobowości prawnej lub quasi osobowości prawnej.

Nie ma jednak możliwości, aby sztuczną inteligencję wtłoczyć w formy przestępnego współdziałania lub przyjąć sprawstwo pośrednie. Profesor podsumował, że przy przestępstwach formalnych posłużenie się regułami postępowania z dobrem prawnym mogłoby pozwolić określić, co dany podmiot tak naprawdę robi w kontekście ostatecznego rezultatu. W przypadku przestępstw materialnych bardzo istotne są negatywne kryteria obiektywnej przypisywalności. Na koniec wskazał, że nie można stosować klasycznych koncepcji do sztucznej inteligencji.

Drugi referat, pt. „Prawne, organizacyjne oraz techniczne wyzwania zabezpieczania danych i dowodów elektronicznych”, wygłosiła dr hab. Agnieszka Gryszczyńska, prof. UKSW.

Profesor na początku zwróciła uwagę na problem skali cyberprzestępczości. Podała przykład sprawcy, który miał „wiele tożsamości”, w tym 105 kont bankowych. Palącym problemem technicznym i prawnym są tzw. SIM-boxy. Wskazała, że rejestracja kart SIM w praktyce nie działa, ponieważ zarejestrowany właściciel numeru telefonu często nie jest faktycznym sprawcą przestępstwa. Z problemem skali wiąże się problem czasu, a także problem różnorodności, ponieważ przestępstwa są popełniane np. za pomocą odkurzacza czy elektronicznej kuwety dla kota.

Prokurator zwróciła uwagę, że praktycy borykają się z problemem transgraniczności w przypadku dowodów elektronicznych.

Podsumowująca wskazała, że brakuje logicznych i spójnych przepisów prawa karnego materialnego, które mogłyby pomóc walczyć z cyberprzestępczością.

Trzeci referat, pt. „Rozwój sztucznej inteligencji a reinterpretacja znamion typów czynów zabronionych opisanych w części szczególnej prawa karnego”, wygłosił prof. dr hab. Marek Kulik z Uniwersytetu Marii Curie-Skłodowskiej w Lublinie.

Profesor odwołał się do ustawy o prawach autorskich i prawach pokrewnych, zastanawiając się, czy można mówić o przywłaszczeniu cudzego utworu wytworzonego przez sztuczną inteligencję lub wprowadzeniu w błąd co do autorstwa. Następnie podawał przykłady sytuacji na styku przestępstw z art. 286 k.k. i art. 287 k.k. Według niego problematyczny jest wypadek spowodowany przez pojazd autonomiczny, ponieważ w Polsce wymagany jest czynnik ludzki kontrolujący pojazd, co skłania do przyjęcia kwalifikacji prawnej przestępstwa oszustwa z art. 286 k.k.

Podsumował, że rozwój sztucznej inteligencji wymaga reintepretacji znamion, aby reagować na różnorodne sytuacje pojawiające się w praktyce życia.

Czwarty referat, pt. „Ochrona informacji a potrzeba zmian w części szczególnej prawa karnego (wybrane zagadnienia)”, wygłosili prof. dr hab. Jarosław Majewski i dr Piotr Zakrzewski z Uniwersytetu Kardynała Wyszyńskiego w Warszawie.

Profesor Majewski rozpoczął od tego, że nowe technologie zwiększają transfer informacji, jednak niosą za sobą różne niebezpieczeństwa i nawiązał do art. 265 k.k. i art. 266 k.k. Sprzeniewierzenie się obowiązkowi zachowania tajemnicy bankowej jest zagrożone większą sankcją niż przestępstwo z art. 266 § 1 k.k., co według niego wydaje się nieuzasadnione. Zwrócił uwagę, że w przypadku jednego przestępstwa kara może wynosić aż 5 mln zł, co w przeliczeniu na stawki dzienne grzywny (przyjmując maksymalną stawkę w wysokości 2 tys. zł) na gruncie Kodeksu karnego daje w przeliczeniu kilka lat pozbawienia wolności w przypadku kary zastępczej, co również ocenił krytycznie.

Następnie Doktor Zakrzewski podał przykład posłużenia się cudzym hasłem lub PIN i skomentował, że w jego opinii jest to w kontekście art. 267 § 1 k.k. przełamanie zabezpieczenia, a nie, jak uważa dr Adam Behan – dostęp do systemu, czy ominięcie zabezpieczeń – zdaniem dr. Filipa Radoniewicza.

Piąty referat, pt. „Ochrona małoletnich a rozwój socjalmediów w perspektywie części szczególnej prawa karnego”, wygłosiła prof. dr hab. Magdalena Budyn-Kulik z Uniwersytetu Marii Curie-Skłodowskiej w Lublinie.

Profesor wskazała na główne zagrożenia dla małoletnich w social mediach, tj. hejt, patostreaming, seks i samobójstwa. Podkreśliła, że Internet dla młodych osób jest obecnie naturalnym środowiskiem, a nie takim, do którego się wchodzi z zewnątrz. To zaś zmienia optykę na ochronę małoletnich w perspektywie prawa karnego.

Hejt może być uznany za znieważenie z art. 216 k.k., zniesławienie z art. 212 k.k., groźbę bezprawną z art. 190 k.k., nękanie z art. 190a k.k., ale także naruszenie nietykalności cielesnej z art. 217 k.k.

Nowy typ czynu zabronionego musiałby być przepisem kazuistycznym lub kauczukowym, dlatego w jej opinii nie jest możliwe wprowadzenie odpowiedzialności karnej za hejt. Rozwiązaniem mogą być izolowanie małoletnich od treści hejterskich, a także oddziaływania wychowawcze poprzez prezentowanie pozytywnych postaw. Do zwalczania patostremingu mogą posłużyć środki prawa administracyjnego, cywilnego oraz karnego.

Profesor odniosła się do propozycji nowelizacji Kodeksu karnego (druk nr 1613, Sejm X kadencji) w postaci dodania art. 255b k.k., a także podnoszonej w doktrynie propozycji dodania typu czynu zabronionego polegającego na demoralizacji małoletniego. Na zakończenie wskazała na model prawa karnego „lawy” i model prawa karnego „bursztynu” i zwróciła uwagę, że trzeba zdecydować się, w kierunku którego modelu chcemy podążać.

Szósty referat, pt. „Skuteczność ścigania za zbrodnie prawa międzynarodowego związane z użyciem broni autonomicznej”, wygłosił prof. dr hab. Paweł Wiliński z Uniwersytetu im. Adama Mickiewicza w Poznaniu.

Profesor na początku podał różne przykłady broni autonomicznej, w tym roje dronów czy żołnierze-roboty. W kontekście prawa karnego międzynarodowego zwrócił na trzy poziomy broni autonomicznej: 1. w której człowiek jest czynnikiem decydującym o użyciu, 2. nadzorowanej przez człowieka i 3. w pełni autonomicznej. Orzecznictwo Międzynarodowego Trybunału Karnego utrudnia interpretowanie definicji zbrodni wojennych w kontekście broni autonomicznej. Możliwe w kontekście prawa karnego jest przyjęcie doktryny pośredniego sprawstwa lub odpowiedzialności podmiotów zbiorowych – w kontekście broni autonomicznej problematyczny pozostaje brak świadomości, czynnika humanitarnego, między zamiarem a działaniem.

Siódmy referat, pt. „Big data, algorytmy i sztuczna inteligencja a orzekanie o środkach probacyjnych w postępowaniu rozpoznawczym i wykonawczym”, wygłosił dr hab. Tomasz Kalisz, prof. UWr.

Profesor wskazał, że prawo karne wykonawcze, mimo tego, że mało się o nim mówi, jest niezbędne dla zapewnienia efektywności prawa karnego materialnego czy procesowego. Algorytmy sztucznej inteligencji mogą być przydatne chociażby w szacowaniu ryzyka recydywy. Zwrócił również uwagę na ryzyko potencjalnej dyskryminacji społeczeństwa w przypadku błędnie wyuczonej, uprzedzonej do niektórych kategorii osób, sztucznej inteligencji.

Automatyzacja decyzji procesowych w wymiarze sprawiedliwości jest już w fazie testów.

Możliwe są trzy opcje: pełna automatyzacja, całkowite zastąpienie człowieka – decyzja automatyczna jest decyzją ostateczną lub semi-automatyzacja oparta na sugestii (może prowadzić do zbyt dużego zaufania sztucznej inteligencji) lub konfrontacji (dopiero po podjęciu decyzji sztuczna inteligencja dostarcza innych argumentów). Przykładem może być narzędzie PSORR-PL (Program Systemowej Oceny Ryzyka Recydywy i Planowania Resocjalizacji), jednak profesor podkreślił, że nie można być zbyt optymistycznie nastawionym, aby nie zatracić czynnika ludzkiego i etycznego w wymiarze sprawiedliwości.

Ósmy referat pt. „Kryptoaktywa w perspektywie części szczególnej prawa karnego” wygłosił dr Adam Behan z Uniwersytetu Jagiellońskiego w Krakowie.

Prelegent zwrócił uwagę, że handel narkotykami, lekami na receptę czy podrobionymi dokumentami odbywa się choćby na forum „Cebulka”, z wykorzystaniem kryptowaluty Monero i dedykowanego modelu płatności typu escrow, przy czym same dostawy realizowane są za pomocą paczkomatów. Zaznaczył także, że pomimo tego, iż mamy do czynienia z sektorem, którego kapitalizacja przekracza 3 biliony dolarów, a ponad 18% naszych obywateli inwestuje w kryptowaluty, nadal brakuje klarownych ram prawnych, które odpowiadałyby na tak fundamentalne pytanie, czym jest BTC na gruncie części szczególnej prawa karnego.

O ile fundamentem regulacyjnym na gruncie prawa unijnego była piąta dyrektywa AML, implementowana w Polsce ustawą z 1 marca 2018 r. o przeciwdziałaniu praniu pieniędzy oraz finansowaniu terroryzmu, o tyle krajobraz prawny istotnie zmieniło pojawienie się rozporządzenia MiCA, które wprowadza pojęcie kryptoaktywów, częściowo pokrywające się zakresowo z pojęciem waluty wirtualnej. Może to rodzić ogromne problemy z kwalifikowaniem czynów, których przedmiotem będą szeroko rozumiane krypto‑instrumenty i tokeny – problemów, którym bez interwencji ustawodawcy i odpowiedniej nowelizacji Kodeksu karnego niezwykle trudno będzie sprostać.

Dyskusja

Moderatorem dyskusji był prof. dr hab. Piotr Kardas z Uniwersytetu Jagiellońskiego w Krakowie.

Jako pierwsza zabrała głos dr Katarzyna Witkowska-Malinowska, która zwróciła uwagę, że sztuczna inteligencja mogłaby być użyteczna w sprawach aresztowych, aby ułatwić sędziemu zapoznanie się – często z co najmniej kilkudziesięcioma- tomami akt w ograniczonym czasie 24h.

Profesor Kardas zaproponował model, w którym sztuczna inteligencja to mechanizm weryfikacyjny z uwagi na dysponowanie wielkimi bazami danych, a człowiek stanowi czynnik zatwierdzający.

Kolejny głos zabrał dr Amadeusz Małolepszy i wskazał, że tylko raz w ciągu całej konferencji padło stwierdzenie „prawo do obrony”, o którym nie można zapominać. Według niego sąd powinien w uzasadnieniach orzeczeń wskazywać, czy korzystał ze sztucznej inteligencji. Do tej kwestii odniósł się profesor Kardas, zdaniem którego wyjaśnienie powinno obejmować, w jakim zakresie sąd skorzystał ze sztucznej inteligencji, ale powinno dotyczyć to również drugiej strony – obrońcy.

Profesor Tomasz Kalisz w kolejnym głosie podkreślił, że zapomina się o możliwości popełnienia błędu ludzkiego w kontekście funkcjonowania sztucznej inteligencji. Człowiek również nie jest nieomylny. Kolejny z uczestników dyskusji wskazał, że rozmawia się szeroko o sprawowaniu wymiaru sprawiedliwości przez sztuczną inteligencję, oddawaniu władzy sądowniczej „w cudze ręce”, a jest tak już aktualnie w przypadku opinii biegłych, którym często zawierza się rozstrzygnięcie sprawy.

Sędzia Stanisław Zabłocki tłumaczył, że mimo szerokiego zakresu konferencji, uwaga została skupiona na referacie prof. Kalisza. W kontekście interpretacji przepisów Kodeksu karnego uważa, że zasada nullum crimen sine lege sctricta nie stoi na przeszkodzie dokonywania takiej wykładni, która nie wynika wprost z „liter”, ale kryje się pod nimi, w lekkiej opozycji do referatu dr. Behana, z którego wynikł postulat wąskiej interpretacji znamion. Dodał, że sztuczna inteligencja może pomoc w wyselekcjonowaniu, a nawet zwartościowaniu materiału dowodowego, jednak aktualnie nie zastępuje sędziowskiej swobodnej oceny dowodów z którą łączy się doświadczenie sędziowskie, dlatego nie jest podmiotem, który może decydować o odpowiedzialności karnej człowieka.

Kolejno zabrał głos Profesor Jarosław Majewski, który wskazał, że w Polsce jest systemowy problem ze stosowaniem tymczasowego aresztowania, dlatego lepszym byłby system w pełni zautomatyzowanego stosowania tego środka zapobiegawczego, zdolny do analizy całości materiału dowodowego. Wciąż ponad 90% wniosków o tymczasowe aresztowanie jest uwzględnionych.

„Nakarmienie” systemu błędnie rozstrzygniętymi sprawami spowoduje, że sztuczna inteligencja będzie utwierdzać w przekonaniu o prawidłowości tego typu – jednoznacznie złej – praktyki sądowej.

Doktor Piotr Zakrzewski wyjaśnił, że sztuczna inteligencja mogłaby być przydatna do weryfikowania wniosków o kontrolę operacyjną.

Na koniec głos zabrał dr Adam Behan, który podsumował, że można stosować wykładnię adaptacyjną, ale przy miliardowych stratach w wyniku przestępstwa komputerowego nie ma odpowiedniej reakcji – pozostają bardzo niskie ustawowe zagrożenia karą w przepisach typizujących, np. do 2 lat pozbawienia wolności.

Konferencję podsumował Profesor Jarosław Majewski i podziękował wszystkim referentom, a także uczestnikom za dyskusję. Na koniec Profesor Piotr Kardas podziękował przedmówcy za reaktywację Bielańskich Kolokwiów Karnistycznych, wybór tematu i dobór referentów oraz zachęcił wszystkich dyskutujących do przygotowania rozdziału do monografii pokonferencyjnej.


Autor: Mateusz Wiktorek – Szkoła Doktorska Nauk Społecznych, Katedra Prawa Karnego, Wydział Prawa i Administracji Uniwersytetu Jagiellońskiego; Krakowski Instytut Prawa Karnego Fundacja

Zdjęcie: Mateusz Wiktorek


Relacja była przygotowywana na żywo, w trakcie trwania konferencji, i stanowi zbiór najważniejszych tez osób wypowiadających się. Autor dołożył wszelkich starań, aby wiernie oddać sens wypowiedzi, jednak nie ponosi odpowiedzialności za ewentualne ich błędne interpretacje.

Czytaj więcej

Projekt dofinansowany ze środków budżetu państwa, w ramach programu Ministra Nauki i Szkolnictwa Wyższego pod nazwą Społeczna Odpowiedzialność Nauki II.

Copyright © 2017-2025 by Krakowski Instytut Prawa Karnego Fundacja / ISSN: 2544-9052