<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>sztuczna inteligencja - Karne24.com</title>
	<atom:link href="https://karne24.com/tag/sztuczna-inteligencja/feed/" rel="self" type="application/rss+xml" />
	<link>https://karne24.com/tag/sztuczna-inteligencja/</link>
	<description>Portal prawa karnego</description>
	<lastBuildDate>Tue, 07 Apr 2026 11:10:55 +0000</lastBuildDate>
	<language>pl-PL</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>http://karne24.com/wp-content/uploads/2017/04/favicon_16x16_karne24.com_.png</url>
	<title>sztuczna inteligencja - Karne24.com</title>
	<link>https://karne24.com/tag/sztuczna-inteligencja/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>XIX Bielańskie Kolokwium Karnistyczne: Prawo karne a nowe technologie (Warszawa, 26 listopada 2025 r.)</title>
		<link>https://karne24.com/xix-bielanskie-kolokwium-karnistyczne-prawo-karne-a-nowe-technologie/</link>
					<comments>https://karne24.com/xix-bielanskie-kolokwium-karnistyczne-prawo-karne-a-nowe-technologie/#respond</comments>
		
		<dc:creator><![CDATA[Redakcja]]></dc:creator>
		<pubDate>Wed, 26 Nov 2025 09:00:00 +0000</pubDate>
				<category><![CDATA[Nauka]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Bielańskie Kolokwium Karnistyczne]]></category>
		<category><![CDATA[Internet]]></category>
		<category><![CDATA[konferencja]]></category>
		<category><![CDATA[rewolucja cyfrowa]]></category>
		<category><![CDATA[sztuczna inteligencja]]></category>
		<guid isPermaLink="false">https://karne24.com/?p=5083</guid>

					<description><![CDATA[<p>26 listopada 2025 r. odbywa się Ogólnopolska Konferencja Naukowa pt. &#8222;Prawo karne a nowe technologie&#8221; w ramach XIX Bielańskiego Kolokwium Karnistycznego. Obrady mają miejsce na Wydziale Prawa i Administracji Uniwersytetu&#8230;</p>
<p>Artykuł <a href="https://karne24.com/xix-bielanskie-kolokwium-karnistyczne-prawo-karne-a-nowe-technologie/">XIX Bielańskie Kolokwium Karnistyczne: Prawo karne a nowe technologie (Warszawa, 26 listopada 2025 r.)</a> pochodzi z serwisu <a href="https://karne24.com">Karne24.com</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><strong>26 listopada 2025 r. odbywa się Ogólnopolska Konferencja Naukowa pt. &#8222;Prawo karne a nowe technologie&#8221; w ramach XIX Bielańskiego Kolokwium Karnistycznego. Obrady mają miejsce na Wydziale Prawa i Administracji Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie.</strong></p>



<p>Konferencję otworzył prof. dr hab. Jarosław Majewski z Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie. Bielańskie Kolokwia Karnistyczne wracają po 4 latach przerwy. Następnie głos został przekazany sędziemu Sądu Najwyższego w stanie spoczynku Stanisławowi Zabłockiemu, moderatorowi konferencji.</p>



<h2 class="wp-block-heading">Referaty</h2>



<p><strong>Pierwszy referat, pt. &#8222;Przypisanie sprawstwa w obliczu nowych technologii – programista, deweloper, sprzedawca oprogramowania czy użytkownik końcowy?&#8221;, wygłosił prof. dr hab. Piotr Kardas z Uniwersytetu Jagiellońskiego w Krakowie. </strong></p>



<p>Profesor zwrócił uwagę na trzy istotne aspekty sztucznej inteligencji, która może być narzędziem w rękach człowieka, przedmiotem czynności wykonawczej lub podmiotem odpowiedzialności karnej <em>per se</em>. Podkreślił, że odpowiedzialności karnej może podlegać podmiot zdolny do moralnego wartościowania i posiadający świadomość, któremu można przypisać winę za popełnienie czynu zabronionego. Jakiekolwiek byty konwencjonalne, w tym sztuczna inteligencja &#8211; przynajmniej dotychczas &#8211; nie spełniają tych wymogów. </p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Status sztucznej inteligencji możliwy jest do rozwiązania poprzez nadanie jej osobowości prawnej lub <em>quasi</em> osobowości prawnej. </p>
</blockquote>



<p>Nie ma jednak możliwości, aby sztuczną inteligencję wtłoczyć w formy przestępnego współdziałania lub przyjąć sprawstwo pośrednie. Profesor podsumował, że przy przestępstwach formalnych posłużenie się regułami postępowania z dobrem prawnym mogłoby pozwolić określić, co dany podmiot tak naprawdę robi w kontekście ostatecznego rezultatu. W przypadku przestępstw materialnych bardzo istotne są negatywne kryteria obiektywnej przypisywalności. Na koniec wskazał, że nie można stosować klasycznych koncepcji do sztucznej inteligencji.</p>



<p><strong>Drugi referat, pt. &#8222;Prawne, organizacyjne oraz techniczne wyzwania zabezpieczania danych i dowodów elektronicznych&#8221;, wygłosiła dr hab. Agnieszka Gryszczyńska, prof. UKSW. </strong></p>



<p>Profesor na początku zwróciła uwagę na problem skali cyberprzestępczości. Podała przykład sprawcy, który miał &#8222;wiele tożsamości&#8221;, w tym 105 kont bankowych. Palącym problemem technicznym i prawnym są tzw. SIM-boxy. Wskazała, że rejestracja kart SIM w praktyce nie działa, ponieważ zarejestrowany właściciel numeru telefonu często nie jest faktycznym sprawcą przestępstwa. Z problemem skali wiąże się problem czasu, a także problem różnorodności, ponieważ przestępstwa są popełniane np. za pomocą odkurzacza czy elektronicznej kuwety dla kota. </p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Prokurator zwróciła uwagę, że praktycy borykają się z problemem transgraniczności w przypadku dowodów elektronicznych. </p>
</blockquote>



<p>Podsumowująca wskazała, że brakuje logicznych i spójnych przepisów prawa karnego materialnego, które mogłyby pomóc walczyć z cyberprzestępczością.</p>



<p><strong>Trzeci referat, pt. &#8222;Rozwój sztucznej inteligencji a reinterpretacja znamion typów czynów zabronionych opisanych w części szczególnej prawa karnego&#8221;, wygłosił prof. dr hab. Marek Kulik z Uniwersytetu Marii Curie-Skłodowskiej w Lublinie.</strong> </p>



<p>Profesor odwołał się do ustawy o prawach autorskich i prawach pokrewnych, zastanawiając się, czy można mówić o przywłaszczeniu cudzego utworu wytworzonego przez sztuczną inteligencję lub wprowadzeniu w błąd co do autorstwa. Następnie podawał przykłady sytuacji na styku przestępstw z art. 286 k.k. i art. 287 k.k. Według niego problematyczny jest wypadek spowodowany przez pojazd autonomiczny, ponieważ w Polsce wymagany jest czynnik ludzki kontrolujący pojazd, co skłania do przyjęcia kwalifikacji prawnej przestępstwa oszustwa z art. 286 k.k. </p>



<p>Podsumował, że rozwój sztucznej inteligencji wymaga reintepretacji znamion, aby reagować na różnorodne sytuacje pojawiające się w praktyce życia.</p>



<p><strong>Czwarty referat, pt. &#8222;Ochrona informacji a potrzeba zmian w części szczególnej prawa karnego (wybrane zagadnienia)&#8221;, wygłosili prof. dr hab. Jarosław Majewski i dr Piotr Zakrzewski z Uniwersytetu Kardynała Wyszyńskiego w Warszawie. </strong></p>



<p>Profesor Majewski rozpoczął od tego, że nowe technologie zwiększają transfer informacji, jednak niosą za sobą różne niebezpieczeństwa i nawiązał do art. 265 k.k. i art. 266 k.k. Sprzeniewierzenie się obowiązkowi zachowania tajemnicy bankowej jest zagrożone większą sankcją niż przestępstwo z art. 266 § 1 k.k., co według niego wydaje się nieuzasadnione. Zwrócił uwagę, że w przypadku jednego przestępstwa kara może wynosić aż 5 mln zł, co w przeliczeniu na stawki dzienne grzywny (przyjmując maksymalną stawkę w wysokości 2 tys. zł) na gruncie Kodeksu karnego daje w przeliczeniu kilka lat pozbawienia wolności w przypadku kary zastępczej, co również ocenił krytycznie. </p>



<p>Następnie Doktor Zakrzewski podał przykład posłużenia się cudzym hasłem lub PIN i skomentował, że w jego opinii jest to w kontekście art. 267 § 1 k.k. przełamanie zabezpieczenia, a nie, jak uważa dr Adam Behan &#8211; dostęp do systemu, czy ominięcie zabezpieczeń &#8211; zdaniem dr. Filipa Radoniewicza.</p>



<p><strong>Piąty referat, pt. &#8222;Ochrona małoletnich a rozwój socjalmediów w perspektywie części szczególnej prawa karnego&#8221;, wygłosiła prof. dr hab. Magdalena Budyn-Kulik z Uniwersytetu Marii Curie-Skłodowskiej w Lublinie. </strong></p>



<p>Profesor wskazała na główne zagrożenia dla małoletnich w social mediach, tj. hejt, patostreaming, seks i samobójstwa. Podkreśliła, że Internet dla młodych osób jest obecnie naturalnym środowiskiem, a nie takim, do którego się wchodzi z zewnątrz. To zaś zmienia optykę na ochronę małoletnich w perspektywie prawa karnego. </p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Hejt może być uznany za znieważenie z art. 216 k.k., zniesławienie z art. 212 k.k., groźbę bezprawną z art. 190 k.k., nękanie z art. 190a k.k., ale także naruszenie nietykalności cielesnej z art. 217 k.k. </p>
</blockquote>



<p>Nowy typ czynu zabronionego musiałby być przepisem kazuistycznym lub kauczukowym, dlatego w jej opinii nie jest możliwe wprowadzenie odpowiedzialności karnej za hejt. Rozwiązaniem mogą być izolowanie małoletnich od treści hejterskich, a także oddziaływania wychowawcze poprzez prezentowanie pozytywnych postaw. Do zwalczania patostremingu mogą posłużyć środki prawa administracyjnego, cywilnego oraz karnego. </p>



<p>Profesor odniosła się do propozycji nowelizacji Kodeksu karnego (druk nr 1613, Sejm X kadencji) w postaci dodania art. 255b k.k., a także podnoszonej w doktrynie propozycji dodania typu czynu zabronionego polegającego na demoralizacji małoletniego. Na zakończenie wskazała na model prawa karnego &#8222;lawy&#8221; i model prawa karnego &#8222;bursztynu&#8221; i zwróciła uwagę, że trzeba zdecydować się, w kierunku którego modelu chcemy podążać.</p>



<p><strong>Szósty referat, pt. &#8222;Skuteczność ścigania za zbrodnie prawa międzynarodowego związane z użyciem broni autonomicznej&#8221;, wygłosił prof. dr hab. Paweł Wiliński z Uniwersytetu im. Adama Mickiewicza w Poznaniu. </strong></p>



<p>Profesor na początku podał różne przykłady broni autonomicznej, w tym roje dronów czy żołnierze-roboty. W kontekście prawa karnego międzynarodowego zwrócił na trzy poziomy broni autonomicznej: 1. w której człowiek jest czynnikiem decydującym o użyciu, 2. nadzorowanej przez człowieka i 3. w pełni autonomicznej. Orzecznictwo Międzynarodowego Trybunału Karnego utrudnia interpretowanie definicji zbrodni wojennych w kontekście broni autonomicznej. Możliwe w kontekście prawa karnego jest przyjęcie doktryny pośredniego sprawstwa lub odpowiedzialności podmiotów zbiorowych &#8211; w kontekście broni autonomicznej problematyczny pozostaje brak świadomości, czynnika humanitarnego, między zamiarem a działaniem.</p>



<p><strong>Siódmy referat, pt. &#8222;Big data, algorytmy i sztuczna inteligencja a orzekanie o środkach probacyjnych w postępowaniu rozpoznawczym i wykonawczym&#8221;, wygłosił dr hab. Tomasz Kalisz, prof. UWr. </strong></p>



<p>Profesor wskazał, że prawo karne wykonawcze, mimo tego, że mało się o nim mówi, jest niezbędne dla zapewnienia efektywności prawa karnego materialnego czy procesowego. Algorytmy sztucznej inteligencji mogą być przydatne chociażby w szacowaniu ryzyka recydywy. Zwrócił również uwagę na ryzyko potencjalnej dyskryminacji społeczeństwa w przypadku błędnie wyuczonej, uprzedzonej do niektórych kategorii osób, sztucznej inteligencji. </p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Automatyzacja decyzji procesowych w wymiarze sprawiedliwości jest już w fazie testów. </p>
</blockquote>



<p>Możliwe są trzy opcje: <strong>pełna automatyzacja</strong>, całkowite zastąpienie człowieka &#8211; decyzja automatyczna jest decyzją ostateczną lub <strong>semi-automatyzacja</strong> oparta na <strong>sugestii </strong>(może prowadzić do zbyt dużego zaufania sztucznej inteligencji) lub <strong>konfrontacji </strong>(dopiero po podjęciu decyzji sztuczna inteligencja dostarcza innych argumentów). Przykładem może być narzędzie PSORR-PL (Program Systemowej Oceny Ryzyka Recydywy i Planowania Resocjalizacji), jednak profesor podkreślił, że nie można być zbyt optymistycznie nastawionym, aby nie zatracić czynnika ludzkiego i etycznego w wymiarze sprawiedliwości.</p>



<p><strong>Ósmy referat pt. „Kryptoaktywa w perspektywie części szczególnej prawa karnego” wygłosił dr Adam Behan z Uniwersytetu Jagiellońskiego w Krakowie. </strong></p>



<p>Prelegent zwrócił uwagę, że handel narkotykami, lekami na receptę czy podrobionymi dokumentami odbywa się choćby na forum „Cebulka”, z wykorzystaniem kryptowaluty Monero i dedykowanego modelu płatności typu escrow, przy czym same dostawy realizowane są za pomocą paczkomatów. Zaznaczył także, że pomimo tego, iż mamy do czynienia z sektorem, którego kapitalizacja przekracza 3 biliony dolarów, a ponad 18% naszych obywateli inwestuje w kryptowaluty, nadal brakuje klarownych ram prawnych, które odpowiadałyby na tak fundamentalne pytanie, czym jest BTC na gruncie części szczególnej prawa karnego. </p>



<p>O ile fundamentem regulacyjnym na gruncie prawa unijnego była piąta dyrektywa AML, implementowana w Polsce ustawą z 1 marca 2018 r. o przeciwdziałaniu praniu pieniędzy oraz finansowaniu terroryzmu, o tyle krajobraz prawny istotnie zmieniło pojawienie się rozporządzenia MiCA, które wprowadza pojęcie kryptoaktywów, częściowo pokrywające się zakresowo z pojęciem waluty wirtualnej. Może to rodzić ogromne problemy z kwalifikowaniem czynów, których przedmiotem będą szeroko rozumiane krypto‑instrumenty i tokeny – problemów, którym bez interwencji ustawodawcy i odpowiedniej nowelizacji Kodeksu karnego niezwykle trudno będzie sprostać.</p>



<h2 class="wp-block-heading">Dyskusja</h2>



<p>Moderatorem dyskusji był prof. dr hab. Piotr Kardas z Uniwersytetu Jagiellońskiego w Krakowie. </p>



<p>Jako pierwsza zabrała głos dr Katarzyna Witkowska-Malinowska, która zwróciła uwagę, że sztuczna inteligencja mogłaby być użyteczna w sprawach aresztowych, aby ułatwić sędziemu zapoznanie się &#8211; często z co najmniej kilkudziesięcioma- tomami akt w ograniczonym czasie 24h. </p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Profesor Kardas zaproponował model, w którym sztuczna inteligencja to mechanizm weryfikacyjny z uwagi na dysponowanie wielkimi bazami danych, a człowiek stanowi czynnik zatwierdzający. </p>
</blockquote>



<p>Kolejny głos zabrał dr Amadeusz Małolepszy i wskazał, że tylko raz w ciągu całej konferencji padło stwierdzenie &#8222;prawo do obrony&#8221;, o którym nie można zapominać. Według niego sąd powinien w uzasadnieniach orzeczeń wskazywać, czy korzystał ze sztucznej inteligencji. Do tej kwestii odniósł się profesor Kardas, zdaniem którego wyjaśnienie powinno obejmować, w jakim zakresie sąd skorzystał ze sztucznej inteligencji, ale powinno dotyczyć to również drugiej strony &#8211; obrońcy.</p>



<p>Profesor Tomasz Kalisz w kolejnym głosie podkreślił, że zapomina się o możliwości popełnienia błędu ludzkiego w kontekście funkcjonowania sztucznej inteligencji. Człowiek również nie jest nieomylny. Kolejny z uczestników dyskusji wskazał, że rozmawia się szeroko o sprawowaniu wymiaru sprawiedliwości przez sztuczną inteligencję, oddawaniu władzy sądowniczej &#8222;w cudze ręce&#8221;, a jest tak już aktualnie w przypadku opinii biegłych, którym często zawierza się rozstrzygnięcie sprawy.</p>



<p>Sędzia Stanisław Zabłocki tłumaczył, że mimo szerokiego zakresu konferencji, uwaga została skupiona na referacie prof. Kalisza. W kontekście interpretacji przepisów Kodeksu karnego uważa, że zasada <em>nullum crimen sine lege sctricta</em> nie stoi na przeszkodzie dokonywania takiej wykładni, która nie wynika wprost z &#8222;liter&#8221;, ale kryje się pod nimi, w lekkiej opozycji do referatu dr. Behana, z którego wynikł postulat wąskiej interpretacji znamion. Dodał, że sztuczna inteligencja może pomoc w wyselekcjonowaniu, a nawet zwartościowaniu materiału dowodowego, jednak aktualnie nie zastępuje sędziowskiej swobodnej oceny dowodów z którą łączy się doświadczenie sędziowskie, dlatego nie jest podmiotem, który może decydować o odpowiedzialności karnej człowieka.</p>



<p>Kolejno zabrał głos Profesor Jarosław Majewski, który wskazał, że w Polsce jest systemowy problem ze stosowaniem tymczasowego aresztowania, dlatego lepszym byłby system w pełni zautomatyzowanego stosowania tego środka zapobiegawczego, zdolny do analizy całości materiału dowodowego. Wciąż ponad 90% wniosków o tymczasowe aresztowanie jest uwzględnionych.</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>&#8222;Nakarmienie&#8221; systemu błędnie rozstrzygniętymi sprawami spowoduje, że sztuczna inteligencja będzie utwierdzać w przekonaniu o prawidłowości tego typu &#8211; jednoznacznie złej &#8211; praktyki sądowej. </p>
</blockquote>



<p>Doktor Piotr Zakrzewski wyjaśnił, że sztuczna inteligencja mogłaby być przydatna do weryfikowania wniosków o kontrolę operacyjną. </p>



<p>Na koniec głos zabrał dr Adam Behan, który podsumował, że można stosować wykładnię adaptacyjną, ale przy miliardowych stratach w wyniku przestępstwa komputerowego nie ma odpowiedniej reakcji &#8211; pozostają bardzo niskie ustawowe zagrożenia karą w przepisach typizujących, np. do 2 lat pozbawienia wolności.</p>



<p>Konferencję podsumował Profesor Jarosław Majewski i podziękował wszystkim referentom, a także uczestnikom za dyskusję. Na koniec Profesor Piotr Kardas podziękował przedmówcy za reaktywację Bielańskich Kolokwiów Karnistycznych, wybór tematu i dobór referentów oraz zachęcił wszystkich dyskutujących do przygotowania rozdziału do monografii pokonferencyjnej.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p>Projekt dofinansowany ze środków budżetu państwa, przyznanych przez Ministra Nauki w ramach programu Społeczna odpowiedzialność nauki II</p>



<figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="1024" height="229" src="https://karne24.com/wp-content/uploads/2025/12/son-ii-mnisw-logotyp-1024x229.jpg" alt="" class="wp-image-5391" srcset="https://karne24.com/wp-content/uploads/2025/12/son-ii-mnisw-logotyp-1024x229.jpg 1024w, https://karne24.com/wp-content/uploads/2025/12/son-ii-mnisw-logotyp-300x67.jpg 300w, https://karne24.com/wp-content/uploads/2025/12/son-ii-mnisw-logotyp-768x172.jpg 768w, https://karne24.com/wp-content/uploads/2025/12/son-ii-mnisw-logotyp-1536x344.jpg 1536w, https://karne24.com/wp-content/uploads/2025/12/son-ii-mnisw-logotyp-2048x459.jpg 2048w, https://karne24.com/wp-content/uploads/2025/12/son-ii-mnisw-logotyp-1920x430.jpg 1920w, https://karne24.com/wp-content/uploads/2025/12/son-ii-mnisw-logotyp-1170x262.jpg 1170w, https://karne24.com/wp-content/uploads/2025/12/son-ii-mnisw-logotyp-585x131.jpg 585w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>
<p>Artykuł <a href="https://karne24.com/xix-bielanskie-kolokwium-karnistyczne-prawo-karne-a-nowe-technologie/">XIX Bielańskie Kolokwium Karnistyczne: Prawo karne a nowe technologie (Warszawa, 26 listopada 2025 r.)</a> pochodzi z serwisu <a href="https://karne24.com">Karne24.com</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://karne24.com/xix-bielanskie-kolokwium-karnistyczne-prawo-karne-a-nowe-technologie/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Bioniczne części ciała Zabójstwo robota Fundamenty prawa w czasach AI – ŁĄCZY NAS KARNE z dr. Kamilem Mamakiem</title>
		<link>https://karne24.com/bioniczne-czesci-ciala-zabojstwo-robota-fundamenty-prawa-w-czasach-ai/</link>
					<comments>https://karne24.com/bioniczne-czesci-ciala-zabojstwo-robota-fundamenty-prawa-w-czasach-ai/#respond</comments>
		
		<dc:creator><![CDATA[Mateusz Wiktorek]]></dc:creator>
		<pubDate>Mon, 02 Dec 2024 17:20:00 +0000</pubDate>
				<category><![CDATA[ŁĄCZY NAS KARNE]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Mikołaj Małecki]]></category>
		<category><![CDATA[roboty]]></category>
		<category><![CDATA[sztuczna inteligencja]]></category>
		<guid isPermaLink="false">https://karne24.com/?p=3988</guid>

					<description><![CDATA[<p>Podczas 34. odcinka programu ŁĄCZY NAS KARNE w sezonie 2024 analizowano związki nowych technologii z prawem karnym. Gościem programu 25 listopada 2024 r. był dr Kamil Mamak – asystent w&#8230;</p>
<p>Artykuł <a href="https://karne24.com/bioniczne-czesci-ciala-zabojstwo-robota-fundamenty-prawa-w-czasach-ai/">Bioniczne części ciała Zabójstwo robota Fundamenty prawa w czasach AI – ŁĄCZY NAS KARNE z dr. Kamilem Mamakiem</a> pochodzi z serwisu <a href="https://karne24.com">Karne24.com</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>Podczas 34. odcinka programu ŁĄCZY NAS KARNE w sezonie 2024 analizowano związki nowych technologii z prawem karnym.</strong></p>
<p>Gościem programu 25 listopada 2024 r. był <strong>dr Kamil Mamak</strong> – asystent w Katedrze Prawa Karnego Uniwersytetu Jagiellońskiego, filozof, laureat <em>European Research Council Starting Grant</em> na realizację projektu pod tytułem: „Philosophical Foundations of Criminal Law in the Age of Robots”, autor monografii o robotach, sztucznej inteligencji i prawie karnym, przestępstwach przeciwko robotom.</p>
<p>Prawo karne to ekstremalny przypadek filozofii etyki praktycznej – jeżeli etyka odpowiada na pytania, co jest dobre, a co złe, to prawo karne idzie o krok dalej i odpowiada na pytania, jakie zachowania powinny być dozwolone, a jakie zakazane. Kamil Mamak wskazał, że w swojej pracy badawczej zastanawia się nad tym „dlaczego” prawo karne, a nie „za pomocą jakich przepisów” prawa karnego można rozwiązywać problemy społeczne związane z rozwojem nowych technologii. Odpowiedź na pierwsze pytanie staje się coraz bardziej ważna biorąc pod uwagę ekspansję robotów i sztucznej inteligencji na podstawowe obszary życia ludzi.</p>
<h2>Maltretowanie robotów a stres</h2>
<p>Kamil Mamak tłumaczył, że jednym z celów prawa karnego jest stabilizowanie społeczeństwa, reakcja na zło, instytucjonalne odpowiadanie na zachowania antyspołeczne. Z uwagi na to, że roboty i sztuczna inteligencja stają się elementami życia społecznego, to zastanawiające jest, jak będą wpływały na napięcia społeczne. Identyfikacja potencjalnych zagrożeń związanych z nowymi technologiami wywołuje pytanie o zasadność ich regulowania za pomocą prawa karnego, na które Kamil Mamak próbuje odpowiedzieć w swojej monografii (K. Mamak, <em>Robotics, AI and Criminal Law. Crimes against Robots</em>, Nowy Jork 2024).</p>
<p>Jak wyjaśnił Kamil Mamak, jest różnica pomiędzy robotami, które przypominają zwierzęta czy ludzi a robotami, które mają mechanistyczny wygląd. W swoim artykule (K. Mamak, <em>Should Violence Against Robots be Banned?</em>, „International Journal of Social Robotics” 2022, nr 14, s. 1057–1066) Kamil Mamak przekonuje, że zachowania wykonywane na robotach publicznie mają inny kontekst, który powinien być interesujący z punktu widzenia prawa karnego. Niektóre zachowania wydają się neutralne, gdy są wykonywane prywatnie, np. picie alkoholu, ale dokładnie takie samo zachowanie wykonywane publicznie powoduje, że wiąże się z nim kontekst społeczny. W miejscach publicznych unika się podejmowania zachowań aspołecznych, chociażby z uwagi na obecność dzieci, które nie powinny być narażone na tego typu zachowania. Przykładowo oderwanie głowy robotowi w miejscu publicznym może powodować pewien dyskomfort.</p>
<p>Z badań, prowadzonych na pograniczu technologii, robotyki i psychologii (<em>human-robot interactions</em>), w ramach których badane są ludzkie reakcje na zachowania, w które zaangażowane są roboty, wynika, że <strong>roboty nie są traktowane przez ludzi jak zwykłe rzeczy</strong>. Nie są traktowane jak krzesło, czy jak stół, ale jak inny rodzaj bytów, dlatego reakcja na zachowania wykonywane na robotach jest inna.</p>
<blockquote class="wp-block-quote">
<p><em>Kamil Mamak wskazał, że ludzie odczuwają stres, gdy roboty są maltretowane.</em></p>
</blockquote>
<p>Ludzie nie chcą się godzić na takie zachowania, co wywołuje pytanie o zasadność ich regulowania za pomocą prawa karnego. Typowym sposobem rozumowania w prawie karnym jest porównywanie sytuacji z udziałem robotów i sytuacji z udziałem ludzi, które funkcjonują w rzeczywistości oraz poszukiwanie różnic między nimi. Z uwagi na to, że różnice w wyglądzie mogą być niewielkie, to można twierdzić, iż nie należy wprowadzać żadnych zmian w prawie. <strong>Zdaniem Kamila Mamaka roboty, szczególnie takie, które przypominają ludzi, są ilościowo i jakościowo inne, ponieważ interakcji z nimi może być więcej, dlatego powinno się traktować je inaczej.</strong></p>
<h2>Rzeczy, roboty, osoby?</h2>
<p>Toczy się dyskusja filozoficzna na temat podziału na rzeczy i osoby (<em>things and persons</em>). Sprowadza się ona do konieczności zakwalifikowania danego bytu jako rzeczy albo osoby (jeżeli coś nie jest osobą, to musi być rzeczą itd.). Prawo karne nie czyni takich przedzałożeń i jest otwarte na różnego rodzaju kategorie, chroniąc inne wartości, nie tylko te wiążące się z rzeczą lub osobą (np. ochrona pomników przedstawiających zdarzenia/postaci historyczne bez potrzeby upodmiotowienia takich pomników). Ponadto prawo karne nie deklaruje przynależności niektórych bytów do określonej kategorii, ale pokazuje, że w zależności od kontekstu różne wartości mogą być zagrożone. W związku z tym różne sytuacje społeczne prawo karne traktuje inaczej.</p>
<p>Kamil Mamak wskazał, że w literaturze podnosi się, iż nie powinno mieć znaczenia, z jakiego rodzaju materiałów jest stworzona istota, ale jeżeli posiada ekwiwalentne właściwości do np. ludzi, to powinna być traktowana tak jak ludzie. To pociągałoby za sobą ochronę, którą prawo zapewnia ludziom. W swoim artykule (K. Mamak, <em>Humans, Neanderthals, robots and rights</em>, „Ethics and Information Technology” 2022, nr 24, art. nr 33) Kamil Mamak przekonuje, że nawet gdyby udało się wskrzesić neandertalczyków, zbliżonych do ludzi, to nie byliby oni traktowani przez prawo jako byty równoważne ludziom, musieliby być traktowani inaczej. To nie jest ocena, że dany byt jest bardziej ważny lub mniej ważny, tylko prawo jest stworzone dla ludzi – bytów, które mają ludzką biologię. Byliby to ludzie w sensie moralnym i zasługiwaliby na taką ochronę jak ludzie, jednak nie można byłoby odnosić do takich bytów wszystkich kategorii prawno-moralnych dotyczących ludzi.</p>
<p>Powyższe sprowadza się do kwestii źródeł moralności, ponieważ część badaczy twierdzi, że moralność nie jest czymś obiektywnym, ale jest związana z biologią. Próba wymagania od innych bytów, chociażby z uwagi na inne ukształtowanie mózgu, które wpływa na sposób ich zachowywania się, takiej samej moralności jak u ludzi byłoby niesprawiedliwe. <strong>Z tego względu, w opinii Kamila Mamaka, nigdy nie będzie takiej sytuacji, w której roboty czy innego rodzaju byty będą miały status prawny analogiczny do ludzi, co nie oznacza, że nie będą mogły mieć innego statusu niż obecnie.</strong> Prawo jest osadzone na ludzkiej biologii i próba rozszerzenia go na inne byty, w tym roboty, będzie zakończona niepowodzeniem, ponieważ są one zbudowane inaczej, a to według Kamila Mamaka determinuje prawa i praktyki moralne.</p>
<p>W przedmiotowej dyskusji istotna oraz podawana w literaturze etycznej i filozoficznej jest kwestia zdolności do odczuwania cierpienia przez byty inne niż ludzie, np. roboty. Ustawodawca w art. 1 ust. 1. ustawy z 21 sierpnia 1997 r. o ochronie zwierząt przyjął, że zwierzę jest zdolne do odczuwania cierpienia, dlatego należy mu się ochrona.</p>
<blockquote class="wp-block-quote">
<p><em>Kamil Mamak tłumaczył, że zdolność do odczuwania cierpienia należy traktować jako nieprzekraczalny punkt zwrotny, od którego danemu bytowi należy się ochrona nie ze względu na inne wartości, ale ze względu na to, kim jest.</em></p>
</blockquote>
<p>Możliwość powstania świadomości w bytach, które nie są biologiczne jest bardzo dyskusyjna. Wywołuje jednocześnie pytanie bardziej epistemologiczne, czy w ogóle możliwe jest zbadanie, że dany byt ma tego typu właściwość.</p>
<h2>Symboliczne karanie robotów</h2>
<p>W kontekście karania robotów Kamil Mamak wskazał, że w literaturze podnosi się kwestię luk w odpowiedzialności karnej (<em>responsibility gaps</em>) i przywołał artykuł Johna Danahera (J. Danaher, <em>Robots, law and the retribution gap</em>, „Ethics and Information Technology” 2016, nr 18, s. 299–309), który twierdzi, iż luki w odpowiedzialności karnej pociągają za sobą luki w retrybutywizmie. Podnosi również, że ludzie mają naturalną potrzebę karania, która powinna być zaspokojona, ponieważ w przeciwnym razie występują dwa problemy. Po pierwsze, jeżeli obywatele widzą, że państwo nie potrafi zareagować na zło, do którego doprowadzają roboty czy systemy sztucznej inteligencji, to podważone jest zaufanie do państwa. Przy braku reakcji na takie zachowania państwo nie spełnia swoich podstawowych funkcji związanych z ochroną obywateli. Po drugie, istnieje ryzyko, że w przypadku braku reakcji na zło ze strony państwa, obywatele będą poszukiwać kozła ofiarnego w indywidualnych osobach. <strong>Zdaniem Kamila Mamaka powinien być zachowany symbolizm prawa karnego, nawet jeżeli roboty nie odczuwają, że są karane.</strong></p>
<p>Kamil Mamak tłumaczył, że przepisy Kodeksu karnego chronią funkcjonariuszy publicznych po pierwsze dlatego, iż są ludźmi (dobra prawne: zdrowie, życie), a po drugie dlatego, że reprezentują bezpośrednio dany urząd, a pośrednio – państwo (dobro prawne: autorytet państwa). W przypadku policjanta-robota brak jest tego aspektu ochrony bycia podmiotem, który uzasadniałby ochronę danego bytu ze względu na to, kim jest, ale jest aspekt ochrony bycia reprezentantem państwa. <strong>Z tego względu, zdaniem Kamila Mamaka, atak na policjanta-robota powinien być traktowany jako jakościowo inny niż przykładowo atak na radiowóz policyjny – jako atak pomiędzy atakiem na sprzęt a atakiem na człowieka.</strong> Prowadzący program dr hab. Mikołaj Małecki dodał, że aspektem ochrony mogłaby być również taktyka działania grupy funkcjonariuszy Policji, która przez atak na policjanta-robota byłaby naruszona.</p>
<p><strong>W kontekście seksrobotów Kamil Mamak wskazał, że w dyskusjach z zakresu etyki podnosi się, iż sama obecność seksrobotów może doprowadzić w dłuższej perspektywie do zmiany etyki seksualnej między ludźmi.</strong> Niewykluczone jest ryzyko, że ludzie będą próbowali przełożyć zachowania podejmowane z seksrobotami na innych ludzi, co może doprowadzić do ich pokrzywdzenia.</p>
<p>Popełnienie przestępstwa obejmującego bioniczne części ciała wiąże się z problemem kwalifikacji prawnej takiego zachowania, czy jest to zniszczenie cudzej rzeczy (atak na mienie), czy spowodowanie uszczerbku na zdrowiu (atak na osobę).</p>
<blockquote class="wp-block-quote">
<p><em>Zdaniem Kamila Mamaka niektóre przypadki ataku na bioniczne części ciała można traktować jako atak na osobę i kwalifikować je jako spowodowanie uszczerbku na zdrowiu.</em></p>
</blockquote>
<p>Nie chodzi oczywiście o kulę ortopedyczną, wózek inwalidzki czy prosty aparat słuchowy, które można w łatwy sposób zastąpić i odwrócić wywołany negatywny stan faktyczny. W sytuacji jednak, gdy dochodzi do np. pozbawienia wzroku z uwagi na zniszczenie danego rodzaju sprzętu, czyli trudne jest odwrócenie wywołanego stanu faktycznego, takie zachowanie powinno być traktowane jako spowodowanie ciężkiego uszczerbku na zdrowiu, tj. przestępstwo z art. 156 § 1 k.k.</p>
<p>Kamil Mamak tłumaczył, że obecnie dyskusja na temat wdrożenia robotów w kontekst prawa karnego sprowadza się do tego, iż próbuje się dostosować roboty do kategorii myślowych obecnego prawa karnego. Przepisy części szczególnej Kodeksu karnego zostały stworzone na obraz rzeczywistości, który ma już charakter historyczny. Według Kamila Mamaka należy od nowa zbudować fundamenty prawa karnego, a roboty są katalizatorem, aby podjąć takie działania.</p>
<hr class="wp-block-separator" />
<p> </p>


</p>
<p>#ŁĄCZYNASKARNE</p>
<p><strong><em>Bioniczne części ciała Zabójstwo robota Fundamenty prawa w czasach AI</em></strong> – 25 listopada 2024 r., gość: dr Kamil Mamak</p>
<p>



</p>
<p>



</p>
<p>Program popularnonaukowy ŁĄCZY NAS KARNE jest emitowany na żywo na YouTube, w sezonie 2024 w poniedziałki w godz. 20:00-21:00, oraz dostępny jako podcast na platformach streamingowych.</p>
<p>



</p>
<p><a href="https://kipk.pl/laczynaskarne"><strong>Kliknij i przeczytaj więcej o programie ŁĄCZY NAS KARNE.</strong></a></p>
<p>



<p><em>Publikacja dofinansowana ze środków budżetu państwa, w ramach programu Ministra Edukacji i Nauki pod nazwą Społeczna odpowiedzialność nauki II.</em></p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><strong>Autor:</strong> Mateusz Wiktorek – Szkoła Doktorska Nauk Społecznych, Katedra Prawa Karnego, Wydział Prawa i Administracji Uniwersytetu Jagiellońskiego</p>
<p>Artykuł <a href="https://karne24.com/bioniczne-czesci-ciala-zabojstwo-robota-fundamenty-prawa-w-czasach-ai/">Bioniczne części ciała Zabójstwo robota Fundamenty prawa w czasach AI – ŁĄCZY NAS KARNE z dr. Kamilem Mamakiem</a> pochodzi z serwisu <a href="https://karne24.com">Karne24.com</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://karne24.com/bioniczne-czesci-ciala-zabojstwo-robota-fundamenty-prawa-w-czasach-ai/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Rewolucja cyfrowa a prawo karne – ŁĄCZY NAS KARNE z dr. Kamilem Mamakiem</title>
		<link>https://karne24.com/rewolucja-cyfrowa-a-prawo-karne/</link>
					<comments>https://karne24.com/rewolucja-cyfrowa-a-prawo-karne/#respond</comments>
		
		<dc:creator><![CDATA[Mateusz Wiktorek]]></dc:creator>
		<pubDate>Mon, 03 Apr 2023 16:04:00 +0000</pubDate>
				<category><![CDATA[ŁĄCZY NAS KARNE]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Internet]]></category>
		<category><![CDATA[Mikołaj Małecki]]></category>
		<category><![CDATA[pozbawienie wolności]]></category>
		<category><![CDATA[roboty]]></category>
		<category><![CDATA[sztuczna inteligencja]]></category>
		<guid isPermaLink="false">https://karne24.com/?p=3456</guid>

					<description><![CDATA[<p>Podczas 19. odcinka programu ŁĄCZY NAS KARNE w sezonie 2022/2023 analizowano wpływ nowych technologii na prawo karne. Gościem programu 27 marca 2023 r. był dr Kamil Mamak – pracownik Katedry&#8230;</p>
<p>Artykuł <a href="https://karne24.com/rewolucja-cyfrowa-a-prawo-karne/">Rewolucja cyfrowa a prawo karne – ŁĄCZY NAS KARNE z dr. Kamilem Mamakiem</a> pochodzi z serwisu <a href="https://karne24.com">Karne24.com</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><strong>Podczas 19. odcinka programu ŁĄCZY NAS KARNE w sezonie 2022/2023 analizowano wpływ nowych technologii na prawo karne.</strong></p>



<p>Gościem programu 27 marca 2023 r. był <strong>dr Kamil Mamak</strong> – pracownik Katedry Prawa Karnego Uniwersytetu Jagiellońskiego, filozof i członek grupy badawczej <em>Robophilosophy, AI Ethics, and Datafication</em> na Uniwersytecie Helsińskim, autor monografii o wpływie rewolucji cyfrowej na prawo karne.</p>



<p>Zauważalny wpływ nowych technologii na funkcjonowanie społeczeństwa wiąże się nie tylko ze wzrostem przestępczości internetowej, ale również z koniecznością analizy odpowiedzialności karnej związanej m.in. z zachowaniami robotów oraz innych urządzeń bazujących na sztucznej inteligencji. Obecnie obowiązujący Kodeks karny z 1997 r. posługuje się znamionami, które z biegiem czasu zmieniły swoje znaczenie w języku potocznym. W związku z tym zastanawiające jest, czy interpretacja języka prawnego powinna podążać za zmieniającą się rzeczywistością pozanormatywną czy też nie powinna zmieniać się z upływem czasu.</p>



<h2 class="wp-block-heading">Odpowiedzialność robota czy za robota?</h2>



<p>Prowadzący program dr hab. Mikołaj Małecki zwrócił uwagę na możliwość analizowania relacji między funkcjonowaniem robotów a stosowaniem prawa karnego na trzech płaszczyznach. <strong>Pierwszą</strong> z nich jest odpowiedzialność karna robota za swoje czyny, <strong>drugą</strong> – odpowiedzialność karna człowieka za czyny robota, a <strong>trzecią</strong> – odpowiedzialność karna człowieka za swoje czyny na robocie.</p>



<p>W odpowiedzi Kamil Mamak wskazał w stosunku do <strong>pierwszej</strong> relacji, że prawo to konwencja, dlatego możliwe jest uchwalenie prawa, które pozwoli reagować na przewiny robotów, jednak może okazać się to niecelowe. Powołał się przy tym na artykuł prof. dr. hab. Bartosza Brożka i dr. Marka Jakubca (B. Brożek, M. Jakubiec, <em>On the legal responsibility of autonomous machines</em>, „Artificial Intelligence and Law” 2017, nr 25, s. 293–303), którzy twierdzą, że byłoby to prawo w książkach, a nie prawo w działaniu. Uregulowanie odpowiedzialności karnej robotów musi być zgodne z odpowiedzialnością rozumianą przez ludzi, a żeby ktoś mógł być odpowiedzialny, to musi być podmiotem moralnym, czyli musi rozumieć dobro i zło, a także potrafić kierować swoim postępowaniem, racjonalizować. Tych kryteriów nie spełniają roboty, dlatego nie mogą być podmiotami moralnymi i odpowiadać karnie za swoje czyny.</p>



<p>Kamil Mamak w odniesieniu do <strong>drugiej</strong> relacji, na przykładzie autonomicznych pojazdów, wyjaśnił, że dopóki ten rodzaj pojazdów nie zostanie dopuszczony do ruchu, dopóty człowiek siedzący w pojeździe autonomicznym ponosi pełną odpowiedzialność. Nowoczesne systemy samochodowe pozwalają przykładowo na automatyczne parkowanie. W takich sytuacjach użytkownik samochodu może być nawet zwolniony z posługiwania się kierownicą, jednak ponosi odpowiedzialność za ewentualne zdarzenia, wywołane przez sztuczną inteligencję. W odniesieniu do tego przykładu, Kamil Mamak podał kolejny przykład – nietrzeźwego woźnicy, którego koń transportuje do domu, z uwagi na zapamiętaną drogę. Koń również jest autonomiczny, ponieważ samodzielnie decyduje o swoich zachowaniach, a jednak to woźnica poniesie odpowiedzialność za ewentualne przewinienia konia. Podobnie jeden ze znanych bokserów, Mike Tyson, który spacerował z tygrysem po ulicach, ponosił pełną odpowiedzialność za ewentualne zdarzenia przez niego spowodowane. Kamil Mamak wskazał, że ludzie są odpowiedzialni za niebezpieczeństwo, jakie wiąże się z używaniem danego urządzenia czy zwierzęcia.</p>



<p>Arystoteles uważał, że do zaistnienia odpowiedzialności konieczne jest spełnienie dwóch warunków, tj. wiedzy i kontroli. Z uwagi na właściwość sztucznej inteligencji, funkcjonuje ona w inny sposób, niepozwalający przewidzieć jej zachowań oraz odczytać reakcji na każdą okoliczność, dlatego podnosi się, że jest to luka w odpowiedzialności karnej.</p>



<p>W kontekście <strong>trzeciej</strong> relacji Mikołaj Małecki zauważył, że zniszczenie cudzej rzeczy jest penalizowane w art. 288 § 1 k.k. i bez znaczenia pozostaje dla kwestii odpowiedzialność karnej, czy przedmiotem czynności wykonawczej jest robot, np. w postaci psa, czy rower.</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p><em>Kamil Mamak opowiada się jednak za odpowiedzialnością karną ludzi za czyny na robotach, nawet w przypadkach, gdy nie dochodzi do ich zniszczenia.</em></p>
</blockquote>



<p>Jego zdaniem atak na robota może być atakiem na dobra chronione prawnie, inne niż mienie, które chronione jest przez wspomniany art. 288 § 1 k.k. Podkreślił, że nie uważa, iż roboty zasługują na ochronę prawną, tylko z uwagi na to, czym są, ale ze względu na to, jakie funkcje, role mogą pełnić w świecie, w interakcji z ludźmi. Rozwiązaniem zaproponowanym przez Kamila Mamaka jest wprowadzenie odpowiedzialności wykroczeniowej za atak na robota w miejscu publicznym, z uwagi na postrzeganie takiego zachowania przez społeczeństwo jako złego. Dla objaśnienia posłużył się analogią do innych przepisów prawnych, które regulują zachowania w miejscach publicznych, np. spożywanie alkoholu czy przebywanie w nim bez ubrań, które nie zawsze są złe same w sobie, ale podejmowane publicznie mogą nabierać innego kontekstu i być tak postrzegane. W związku z tym, przemoc w stosunku do robotów może godzić nie w roboty, ale w porządek publiczny.</p>



<p><strong>Badania dowodzą, że ludzie postrzegają atak na roboty inaczej niż atak na inne, zwykłe rzeczy – nie jako akt wandalizmu, ale jako atak na osobę.</strong> Mikołaj Małecki dodał, że problem związany z uregulowaniem przemocy wobec robotów jest poważny, ponieważ dotyczy ochrony sfery publicznej przed swego rodzaju symboliczną przemocą. Innym zachowaniem jest kopnięcie w mur, a innym – w robota-psa, np. przy obecności dziecka, które może uznawać takie zachowanie za zbliżone do kopnięcia psa. John Danaher twierdzi w jednym z artykułów o etycznym behawioryzmie, postulując wprowadzenie statusu moralnego robotów, że jeżeli coś jest podobne do podmiotu, który ma moralny status, to należy to tak traktować, ze względu na to, iż w codziennych interakcjach niemożliwe okazać się może rozpoznanie prawdziwego zwierzęcia lub robota (J. Danaher, <em>Welcoming Robots into the Moral Circle: A Defence of Ethical Behaviourism</em>, „Science and Engineering Ethics” 2020, t. 26, s. 2023–2049). Zdaniem Kamila Mamaka wynika z tego luka legislacyjna, która wymaga analizy.</p>



<p>Inną, kontrowersyjną kwestią jest miłość w stosunku do robotów. Jak tłumaczył Kamil Mamak, Kodeks karny nie przewiduje wprost odpowiedzialności karnej za atak na dobro, jakim jest miłość, ale chroni instytucje społeczne, chociażby rodzinę czy małżeństwo, których jedną z najważniejszych składowych jest miłość. W jego opinii, jeżeli człowiek czuje do robota miłość, pozostając z nim w jednostronnej relacji, która trwa przez dłuższy czas, to należy ją chronić, poprzez wprowadzenie odpowiedniego przepisu prawnego. Kamil Mamak wskazał, że wartość mienia spada z upływem czasu, w przeciwieństwie do relacji, w tym miłości, które zyskują z upływem czasu, dlatego powinna być im zapewniona odpowiednia ochrona.</p>



<h2 class="wp-block-heading">Internet jako miejsce publiczne</h2>



<p>Oddziaływanie zachowań podejmowanych w Internecie może mieć bardziej negatywny charakter niż oddziaływanie zachowań bezpośrednich w miejscach publicznych. Prowadzenie kontrowersyjnych transmisji na żywo w Internecie, podczas których spożywany jest alkohol, a które docierają do dziesiątek tysięcy odbiorców, staje się coraz bardziej popularne. Sąd Najwyższy w postanowieniu z 17 kwietnia 2018 r. (sygn. IV KK 296/17) uznał, że Internet, choć jest przestrzenią wirtualną, to ma charakter miejsca publicznego, w rozumieniu art. 141 k.w., na gruncie sprawy rozpowszechniania za pośrednictwem strony internetowej nieprzyzwoitego rysunku.</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p><em>Zdaniem Kamila Mamaka Internet jest miejscem publicznym.&nbsp;</em></p>
</blockquote>



<p>Uważa, że za transmitowanie spożywania alkoholu może być nałożony mandat, w wyniku naruszenia przepisów regulujących spożywanie alkoholu w miejscu publicznym.</p>



<p>W swojej monografii Kamil Mamak omawia zasady wykładni prawa karnego, w sytuacjach, w których tradycyjnie rozumiane znamię czynu zabronionego nabiera nowego znaczenia, z uwagi na zmianę rzeczywistości pozanormatywnej, której to znamię dotyczy (K. Mamak, <em>Rewolucja cyfrowa a prawo karne</em>, Kraków 2019). W takich przypadkach, jego zdaniem, konieczne jest zdekodowanie również celu konkretnego przepisu prawnego. Odczytanie celu przepisu wykroczeniowego, który penalizuje spożywanie alkoholu w miejscu publicznym, może prowadzić do wniosku, że szkodliwe społecznie jest samo wystawienie na odbiór społeczny takiego zachowania, który w przypadku transmisji na żywo w Internecie często ma większy zasięg, niż spożywanie alkoholu przykładowo nocą w parku.</p>



<p>Kamil Mamak wskazał, że normy prawa karnego mają szereg założeń i powstają w określonym kontekście technologicznym, który z biegiem czasu ulega zmianom, dlatego odmienna interpretacja na przestrzeni lat nie jest sprzeczna z daną normą prawną, tylko ją wykonuje, bowiem spełnia jej pierwotny cel. Język prawa karnego jest skierowany do społeczności i powinien odpowiadać jego rozumieniu przez tę społeczność. Mikołaj Małecki zwrócił przy tym uwagę, że pojęcia kodeksowe pęcznieją w efekcie zmian rzeczywistości, dlatego ich nowe znaczenia są wynikiem naturalnego procesu i powinny być adaptowane również w praktyce prawa.</p>



<h2 class="wp-block-heading">Zakaz przebywania w Internecie</h2>



<p>Jednym ze środków karnych, wymienionym w art. 39 pkt 2b k.k., jest: „zakaz przebywania w określonych środowiskach lub miejscach, kontaktowania się z określonymi osobami, zbliżania się do określonych osób lub opuszczania określonego miejsca pobytu bez zgody sądu”. Zapobiegnięcie ponownemu popełnieniu przestępstwa internetowego może wiązać się z koniecznością ograniczenia bytności sprawcy Internecie, wątpliwe jest jednak, czy taką możliwość przewiduje Kodeks karny. W opinii Kamila Mamaka, skoro ustawodawca rozróżnia środowisko od miejsca, które interpretowane jest geograficznie, to środowisko nie musi być określone geograficznie. Z tego względu uważa, że przytoczony art. 39 pkt 2b k.k. można interpretować w ten sposób, iż znamię środowiska obejmuje również środowisko internetowe, dlatego możliwe jest orzeczenie środka karnego w postaci zakazu przebywania w Internecie, czyli całkowitego lub ograniczonego zakazu korzystania z niego.</p>



<p>Kamil Mamak zwrócił uwagę, że z uwagi na popularność Internetu, dolegliwą karą dla niektórych sprawców przestępstw mogłaby być, nawiązująca do biblijnej kary wygnania, <strong>kara cyfrowego wygnania</strong>, o której pisze w swoim artykule (K. Mamak, <em>Cyber banishment: an old sanction for virtual spaces</em>, „Criminal Justice Studies” 2023, nr 2, s. 133–145). Popularne platformy społecznościowe, takie jak Facebook czy Twitter, samodzielnie regulują kwestie związane z wolnością słowa. Jak twierdzi Kamil Mamak, regulację w tym zakresie powinno przejąć państwo, którego uprawniony organ – sąd może decydować o konstytucyjnych prawach i wolnościach, a nie prywatne podmioty. Przykładem mogłaby być propozycja wprowadzenia zakazu korzystania z serwisów społecznościowych jako środka karnego, której Kamil Mamak poświęca artykuł (K. Mamak, <em>Zakaz korzystania z serwisów społecznościowych. Propozycja wprowadzenia nowego środka karnego</em>, „Czasopismo Prawa Karnego i Nauk Penalnych” 2016, nr 3, s. 37–53).</p>



<p><strong>Zatarcie skazania</strong> to instytucja prawa karnego, która powoduje, że po upływie określonego czasu skazanie za przestępstwo w przeszłości z urzędu uznaje się za niebyłe i usuwa z Krajowego Rejestru Karnego. Kamil Mamak wskazał, że z regulacji Unii Europejskiej wynika również <strong>prawo do zapomnienia</strong>, czyli żądania usunięcia niektórych informacji z wyszukiwarek i stron internetowych, jednak nie działa ono automatycznie, jak zatarcie skazania. W dobie Internetu przepisy dotyczące zatarcia skazania stały się nieco iluzoryczne, bowiem informacje związane z przestępczością danej osoby, nawet po zatarciu skazania, mogą być dostępne w przeglądarkach internetowych, stąd założony efekt nie jest osiągany. Kamil Mamak postuluje, że istnieje <strong>prawo do zatarcia skazania</strong>, które powinny respektować m.in. narzędzia pozwalające na wyszukiwanie ofert pracy lub pracowników, w tym narzędzia sztucznej inteligencji.</p>



<h2 class="wp-block-heading">Pozbawienie wolności a nowe technologie</h2>



<p>Zauważalny znaczący wpływ rewolucji technologicznej na funkcjonowanie w społeczeństwie stawia pod znakiem zapytania zależność, czy wymiar kary pozbawienia wolności za czyn popełniony współcześnie powinien być taki sam, jak za podobny czyn popełniony kilkanaście lat temu. Kamil Mamak tłumaczył, że w pewnym sensie czas w więzieniu płynie wolniej, a rewolucja technologiczna postępuje szybko, stąd kara pozbawienia wolności stała się obecnie bardziej dolegliwa. Jednym z celów kary jest resocjalizacja, czyli powrót do społeczeństwa. Długa kara pozbawienia wolności powoduje, że skazany jest oderwany od postępującej technologii poza więzieniem. Podał przy tym przykład sprawcy, którego głównym i jedynym zajęciem zarobkowym jest praca przy sztucznej inteligencji, w której zakresie postępy zachodzą wręcz codziennie. Osadzenie takiego sprawcy w więzieniu na dłuższy okres spowoduje, że po odbyciu kary pozbawienia wolności nie będzie mógł wrócić do zawodu, bowiem jego wiedza będzie nierelewantna do rzeczywistości, a z tego wynika kwestia zbyt dużej dolegliwości kary. Z tego względu, zdaniem Kamila Mamaka, kary pozbawienia wolności powinny być orzekane w krótszym wymiarze, dlatego że kara musi być sprawiedliwa, proporcjonalna, przy uwzględnieniu, do jakiej rzeczywistości skazany może wrócić po odbyciu kary. Porusza ponadto ten problem w swojej monografii (K. Mamak, <em>Filozofia karania na nowo</em>, Kraków 2021), a o prawie karnym przyszłości pisze w kolejnej monografii (K. Mamak, <em>Prawo karne przyszłości</em>, Warszawa 2017).</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p><em>Kamil Mamak twierdzi, że odbywającym karę pozbawienia wolności nie powinno ograniczać się całkowicie dostępu do Internetu.&nbsp;</em>&nbsp;</p>
</blockquote>



<p>Istotą kary pozbawienia wolności nie jest pozbawienie wszystkich przywilejów związanych z przebywaniem na wolności, a jedynie pozbawienie możliwości swobodnego poruszania się. Dolegliwości, które nie są konieczne do wykonywania kary pozbawienia wolności, powinny być dodatkowo uzasadnione. Porównywalnym przykładem jest możliwość posiadania okularów korekcyjnych, czego nie zabrania się skazanemu. Jeden z artykułów rozpoczyna się słowami: „Gdzie kończy się umysł, a reszta świata zaczyna?” (A. Clark, D. Chalmers, <em>The extended mind</em>, „Analysis” 1998, nr 1, s. 7, tłumaczenie własne). Autorzy wskazują, że umysł nie kończy się na granicy czaszki człowieka, tylko może rozchodzić się dalej, dlatego niektóre artefakty, które są poza biologicznym ciałem, mogą być traktowane jako część człowieka. Z tego względu, według Kamila Mamaka, podstawowym sposobem funkcjonowania w więzieniu powinno być umieszczenie skazanego w całości, razem z jego technologiami.</p>



<p>Z przeprowadzonej dyskusji wynika, że przepisy prawa karnego można interpretować w sposób, który pozwala uwzględnić wpływ rewolucji cyfrowej na otaczającą rzeczywistość, choć poszczególne kwestie nie są pozbawione kontrowersji. Uniknięcie wątpliwości w przyszłości możliwe jest już obecnie, poprzez tworzenie przepisów karnych, które są atechnologiczne. Przy wprowadzaniu przepisów penalizujących, w kręgu zainteresowań powinno pozostawać określone zjawisko, a nie proces, który do niego prowadzi. Z tego względu konieczne jest każdorazowe określenie, do jakiego rodzaju efektu ma prowadzić dany przepis typizujący, aby penalizacja poprzedzających go zachowań była odporna na zmiany technologiczne.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p>#ŁĄCZYNASKARNE</p>



<p><strong><em>Rewolucja cyfrowa a prawo karne</em></strong> – 27.03.2023 r., gość: dr Kamil Mamak</p>



<p>Program popularnonaukowy ŁĄCZY NAS KARNE jest emitowany na żywo na YouTube oraz Facebooku, w sezonie 2022/2023 w poniedziałki w godz. 19:00-20:00, oraz dostępny jako podcast na platformach streamingowych.</p>



<p><a href="https://kipk.pl/laczynaskarne"><strong>Kliknij i przeczytaj więcej o programie ŁĄCZY NAS KARNE.</strong></a></p>



<p><em>Publikacja dofinansowana ze środków budżetu państwa, w ramach programu Ministra Edukacji i Nauki pod nazwą Społeczna odpowiedzialność nauki (nr projektu: SONP/SN/551016/2022</em><em>, kwota dofinansowania: 59 000 zł, całkowita wartość projektu: 66 100 zł).</em></p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><strong>Autor:</strong> Mateusz Wiktorek – Wydział Prawa i Administracji Uniwersytetu Jagiellońskiego</p>
<p>Artykuł <a href="https://karne24.com/rewolucja-cyfrowa-a-prawo-karne/">Rewolucja cyfrowa a prawo karne – ŁĄCZY NAS KARNE z dr. Kamilem Mamakiem</a> pochodzi z serwisu <a href="https://karne24.com">Karne24.com</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://karne24.com/rewolucja-cyfrowa-a-prawo-karne/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
