Pewien mężczyzna niesłusznie spędził rok w więzieniu, bo śledczy zbyt mocno zawierzyli… sztucznej inteligencji

Technologie Zagranica Zbrodnia i kara dołącz do dyskusji (347) 20.08.2021
Pewien mężczyzna niesłusznie spędził rok w więzieniu, bo śledczy zbyt mocno zawierzyli… sztucznej inteligencji

Paweł Mering

Miało miejsce kolejne niesłuszne aresztowanie przez błąd AI? Niesłusznie aresztowany mężczyzna próbował popełnić samobójstwo, a śledczy ostatecznie odpuścili, przyznając się do tego, że dowody nie były jednak tak przekonujące, jak początkowo twierdzili.

Niesłuszne aresztowanie przez błąd AI

„APnews” opisuje historię Michaela Williamsa, który spędził niemal rok w więzieniu. Okazało się, że niesłusznie, bo sędzia umorzył sprawę. Zarzut był bardzo poważny, bo uznano, że Williams dopuścił się morderstwa pierwszego stopnia. Mężczyzna w więzieniu znalazł się w tragicznej kondycji psychicznej, co doprowadziło go do próby samobójczej. Śledczy ostatecznie niejako przyznali się do tego, że ślepo zawierzyli AI. Takich sytuacji będzie więcej, choć historia Williamsa nie jest pierwszą w historii.

Michaela Williamsa aresztowano w sierpniu 2020 roku. Oskarżono go o zamordowanie pewnego mężczyzny z sąsiedztwa, który poprosił Williamsa o to, by ten podwiózł go samochodem. Był to okres protestów (oraz eskalacji agresji) po śmierci George’a Floyda. W pewnym momencie — według tłumaczeń podejrzanego — podjechał inny samochód, z którego padł strzał w stronę mężczyzny. Williams przetransportował pasażera do szpitala, gdzie ten — po kilku dniach — zmarł.

Śledczy jednak uznali, że to Williams go zastrzelił. Kluczowe dowody przemawiające za tą wersją wydarzeń pochodziły z nagrania wideo z miejskich kamer (na których pojazd na czerwonym świetle przejeżdża przez skrzyżowanie, a pojazd znajdujący się obok ma podniesione szyby), a także huku wychwyconego przez czujniki akustyczne, przypisując dźwięk do 5700 South Lake Shore Drive. Prokuratorzy powiedzieli Williamsowi, że to właśnie na podstawie danych z czujników akustycznych określono, że zastrzelił on człowieka w swoim samochodzie. Nie znaleziono broni, nie wykazano motywu et cetera.

Sztuczna inteligencja (m.in. technologia ShotSpoter) w oparciu o nieznane opinii publicznej (a także sędziom, ławnikom i śledczym) zasady działania, jest bowiem w stanie wykryć dźwięk strzału i niezwłocznie przekazać tę informację policji. Tego rodzaju technologie faktycznie wykorzystywane są w technikach śledczych i stanowią dowody w wielu sprawach.

Zagrożenia płynące z technologii

Śledztwo źródłowego „Associated Press”, oparte o analizę tysięcy dokumentów (także poufnych), przy pomocy dziesiątek wywiadów z ekspertami, wykazało, iż m.in. system ShotSpotter cechuje się poważnymi błędami. System jest bowiem w stanie przegapić strzał (który ma miejsce tuż obok mikrofonu), a także błędnie sklasyfikować dźwięk petard, czy nawet samochodu, jako wystrzał. Producent oczywiście reklamuje swoją technologię jako niezawodną, choć — jak wskazują doniesienia prasowe — nie do końca musi tak być.

W obronie technologii podaje się, że co do zasady wyniki generowane przez sztuczną inteligencję są weryfikowane przez czynnik ludzki, mogą być także dalece modyfikowane. Wydaje się, że nie jest to jednak żadną gwarancją dla oskarżonych. Chicagowska policja uchyla się od komentowania sprawy, a producent oprogramowania podkreśla, że odradza śledczym opieranie się na technologii w zakresie formułowania zarzutów.

ShotSpotter jest bowiem niezwykle przydatny jeżeli chodzi o możliwość szybkiej reakcji śledczych na dźwięki strzałów w mieście, zaś nie do końca wpływa na samą przestępczość. Jak widać w niniejszym wpisie, także nie do końca nadaje się do prowadzenia postępowań karnych i przypisywania ewentualnych wystrzałów do konkretnych osób.

Sama sprawa nie jest pierwszą w historii. Na myśl przychodzi mi sprawa także Williamsa, lecz nie Michaela, a Roberta. Chodzi o czarnoskórego mężczyznę — mieszkańca Detroit — którego aresztowano w związku z podejrzeniem kradzieży. Śledczy oparli się na wynikach działania sztucznej inteligencji służącej do rozpoznawania twarzy. Program jednak mylił się w odniesieniu do osób czarnoskórych (stanowią one większość w Detroit).

Oczywiście sztuczna inteligencja nie jest samoświadomym bytem, więc ona sama nikogo do więzienia nie wsadzi. W każdej z tego typu spraw zawodzi czynnik ludzki. Niestety, wszystko sprowadza się do nadmiernego zawierzania technologii. Wydaje się, że do zakresu technik śledczych zbyt szybko trafiają rozwiązania (m.in. oparte o AI), których wyniki działania błędnie uznaje się za niekwestionowalne.