- Home -
- Technologie -
- Prawo karne, samoświadomość i... świnie. Czy sztuczna inteligencja może popełnić przestępstwo?
Sztuczna inteligencja to jeszcze niewątpliwie terra incognita, a także płaszczyzna, którą nie do końca odpowiednio rozumiemy. Z drugiej zaś strony, SI ma niewątpliwie duży wpływ na nasze życie, a także i śmierć - czego dowodem są wypadki z udziałem pojazdów autonomicznych. Czy odpowiedzialność karna sztucznej inteligencji jakkolwiek zatem istnieje?

Odpowiedzialność karna sztucznej inteligencji
Definicje sztucznej inteligencji zazwyczaj albo są zbyt złożone by każdy zrozumiał istotę bytu, bądź też - co cechuje większość definicji SI - zbyt personifikują sztuczną inteligencję. Większość definicji traktuje bowiem SI jako dziedzinę informatyki, która zajmuje się naśladowaniem ludzkiego myślenia.
To dosyć mylące, bo personifikowanie sztucznej inteligencji, a nawet swego rodzaju utożsamianie "myślenia" programu komputerowego z myśleniem ludzkim - jest błędem. Wydaje się, że odpowiednią definicję sztucznej inteligencji - przynajmniej w świetle rozważań prawnych - prezentuje T. Zalewski w "Prawie sztucznej inteligencji" (L. Lai, M. Świerczewski, C.H. Beck, wyd. 2020). Uznaje on, że sztuczną inteligencją jest
system, który pozwala na wykonywanie zadań wymagających procesu uczenia się i uwzględniania nowych okoliczności w toku rozwiązywania danego problemu i który może w różnym stopniu – w zależności od konfiguracji – działać autonomicznie oraz wchodzić w interakcję z otoczeniem
Takie myślenie wydaje się lepiej oddawać istotę sztucznej inteligencji. To jest tylko program komputerowy, a nie byt, który powstaje "na podobieństwo człowieka". Oczywiście powyższa definicja będzie wymagała przebudowania w momencie wytworzenia samoświadomej sztucznej inteligencji (AGI).
Relacja sztucznej inteligencji do prawa karnego
Przestępstwem jest - w rozumieniu polskiego prawa karnego - bezprawny, zawiniony, szkodliwy w stopniu wyższym niż znikomy i zabroniony przez ustawę w dacie popełnienia czyn człowieka. Michael S. Moore tłumaczy zarazem - to amerykański profesor prawa, ale treść jego artykułu dot. źródeł prawa karnego ma wartość uniwersalną - że prawo karne ma ponadto źródło moralne i metafizyczne.
Można to rozumieć tak, że przestępstwem jest czyn człowieka (odpowiednio dojrzałego i poczytalnego w dacie jego popełnienia, a ponadto zaznajomionego z obowiązującym kodem moralnym), bo człowiek ma "duszę i moralność". Personifikacja sztucznej inteligencji bardzo często powoduje, że nadajemy jej jakąś świadomość. Determinuje to pewną chęć - w wypadku na przykład potrącenia człowieka przez autonomiczny samochód - reakcji karnej.
Takie rozszerzanie moralności na byty niebędące człowiekiem miało już miejsce - w średniowieczu. Warto przypomnieć choćby proces maciory z Falais, o którym pisała m.in. Rzeczpospolita, gdzie w XIV wieku uznano świnię winną pogryzienia dziecka. Maciorę zatrzymano, trzymano w areszcie, przesłuchiwano (milczenie uznano za przyznanie się do winy), a następnie publicznie zabito w formie egzekucji. Zdarzenie musiały obserwować okoliczne zwierzęta, by się nauczyły odpowiedniego postępowania. Na ziemiach polskich - co wynikało ze Zwierciadła Saskiego - karano nawet rzeczy. Tak też budynek, w którym doszło do zgwałcenia, był burzony ze względu na to, że uniemożliwił ofierze ucieczkę.
Wspominam o tym dlatego, by wskazać, że takie nieprawnicze, intuicyjne rozumowanie przestępstwa i prawa karnego "siedzi w człowieku" i dotyczy w zasadzie jakiegokolwiek bytu, jakkolwiek związanego z moralnie nagannym skutkiem. Podobne rozumowanie - oparte na swoistym prawie naturalnym - wydają się stosować nierzadko osoby komentujące wyroki sądowe, które dziwią się, że sprawca nieumyślnego wypadku drogowego nie odpowiada za zabójstwo z art. 148 Kodeksu karnego.
Czy sztuczna inteligencja jest obojętna dla prawa?
Sztuczna inteligencja nie jest obojętna dla polskiego prawa karnego. Oczywiście samej SI nie można pociągnąć do odpowiedzialności karnej. Sama w sobie może być jednak narzędziem w rękach człowieka, które ten (świadomie lub nie) wykorzystuje do popełnienia czynu zabronionego.
Sztuczna inteligencja może być także przedmiotem przestępstwa - na przykład przestępstw przeciwko własności intelektualnej. Odnosząc się do postulatów de lege ferenda zgodzić się należy z poglądami doktryny. Dopóki nie powstanie świadoma sztuczna inteligencja, dopóty należy uznać, że jest to - podobnie do zwierzęcia - narzędzie. Niewykluczone zatem, że konieczne będą typy kwalifikowane przestępstw - jak niedopilnowanie, by autonomiczny pojazd nie spowodował wypadku.
Warto jednak pamiętać, że sztuczna inteligencja najpierw powstała w umysłach ludzi (jako elektroniczna kopia człowieka), potem zaś zaczął się jej faktyczny rozwój. Jak na razie pojmowanie SI rodem z science fiction nie ma żadnych podstaw w rzeczywistości.
Nie znaczy to jednak, że rozwój się zatrzymał - wręcz przeciwnie. Pamiętajmy jednak, że dzisiaj mówimy o programie komputerowym. Odpowiedzialność karna sztucznej inteligencji jeszcze nie istnieje - co jest niewątpliwe.
zobacz więcej:
02.07.2025 15:05, Jakub Kralka
02.07.2025 14:14, Katarzyna Zuba
02.07.2025 12:57, Mateusz Krakowski
02.07.2025 11:59, Mariusz Lewandowski
02.07.2025 11:23, Katarzyna Zuba
02.07.2025 10:16, Edyta Wara-Wąsowska
02.07.2025 9:57, Mateusz Krakowski
02.07.2025 8:49, Aleksandra Smusz
02.07.2025 7:58, Edyta Wara-Wąsowska
02.07.2025 7:08, Rafał Chabasiński
02.07.2025 6:05, Justyna Bieniek
02.07.2025 4:30, Mariusz Lewandowski
01.07.2025 21:10, Mariusz Lewandowski
01.07.2025 15:55, Justyna Bieniek
01.07.2025 15:13, Rafał Chabasiński
01.07.2025 12:47, Rafał Chabasiński
01.07.2025 12:00, Edyta Wara-Wąsowska
01.07.2025 11:38, Mateusz Krakowski
01.07.2025 10:47, Edyta Wara-Wąsowska
01.07.2025 9:58, Edyta Wara-Wąsowska
01.07.2025 9:39, Mateusz Krakowski
01.07.2025 8:37, Rafał Chabasiński
01.07.2025 7:52, Aleksandra Smusz
01.07.2025 6:56, Rafał Chabasiński