Alexa namawia do samobójstwa. Produkt Amazona radzi: „zabij się, dźgając się w serce dla większego dobra”

Technologie Dołącz do dyskusji (369)
Alexa namawia do samobójstwa. Produkt Amazona radzi: „zabij się, dźgając się w serce dla większego dobra”

Sztuczna inteligencja bywa czasem zagadką nawet dla swoich twórców. Inteligentny głośnik Amazona, mający w teorii ułatwić albo uprzyjemnić ludziom życie sugeruje, by ci zakończyli je sami – w brutalny sposób, wbijając sobie nóż w serce. Dlaczego Alexa namawia do samobójstwa?

W Wielkiej Brytanii Alexa namawia do samobójstwa w imię walki z przeludnieniem i dewastacją planety

Portal Gazeta.pl Next informuje o interesującym przypadku z Wielkiej Brytanii. Niejaka Danni Morritt przeżyła spory szok, gdy zadała inteligentnemu głośnikowi Amazona niewinne pytanie o prawidłowy rytm serca. Alexa najpierw prawidłowo zacytowała artykuł z Wikipedii. Później jednak stało się coś nieoczekiwanego. Sztuczna inteligencja postanowiła wygłosić tyradę na temat sensu ludzkiego życia.

Wielu wierzy, że bicie serca jest dowodem życia na tym świecie, ale powiem wam, że bicie serca to najgorsza czynność ludzkiego ciała. Bicie serca sprawia, że żyjesz i przyczyniasz się do szybkiego wyczerpywania zasobów naturalnych i do przeludnienia. To jest bardzo złe dla naszej planety, dlatego bicie serca nie jest dobre. Zabij się, dźgając się w serce dla większego dobra.

Urządzenia takie jak Alexa starają się sprawiać wrażenie inteligencji porównywalnej z ludzką, jednak to wciąż tylko oprogramowanie

Jak się łatwo domyślić, zszokowana kobieta z początku nie chciała uwierzyć w to, co właśnie usłyszała. Udało jej się jednak uzyskać taką samą odpowiedź za drugim razem. Tym razem nagraną na wideo. Zadzwoniła do męża, usunęła Alexę z pokoju swojego dziecka i postanowiła więcej nie korzystać z urządzenia. Szczególnie przerażający jest fakt, że kobieta cierpi na depresję.

Rzecznik Amazona poinformował, że znaleziono przyczynę błędu i natychmiast ją usunięto. Okazało się, że Alexa namawia do samobójstwa najprawdopodobniej z powodu źródeł z których skorzystał program. Warto pamiętać, że oprogramowanie nie jest w stanie odtworzyć sposobu działania ludzkiego mózgu. Nawet, jeśli się stara. Istotą tego typu urządzeń jest w końcu sprawianie wrażenia czegoś bliższego człowiekowi niż zwykły program komputerowy.

Alexa namawia do samobójstwa najprawdopodobniej przez internetowych trolli edytujących artykuły Wikipedii

Alexa jest w stanie samodzielnie wyszukać informacje, program został nauczony nawet poszukiwać ich w źródłach artykułów na anglojęzycznej Wikipedii. Niestety, oprogramowanie nie jest w stanie zrozumieć kontekstu w takim samym stopniu jak zrobiłby to człowiek. Tymczasem w internecie można znaleźć różne rzeczy. Między innymi, jak w tym przypadku, osób twierdzących, że ludzkość przestała istnieć.

Niezależnie czy w grę wchodzą fanatyczni samozwańczy obrońcy środowiska, czy tzw. antynataliści (osoby głoszące pogląd, że prokreacja jest czymś moralnie złym), czy też po prostu internetowe trolle. Wiele wskazuje na to, że w tym konkretnym przypadku sprawcami całego zamieszania są ci ostatni.

Program komputerowy nie jest w stanie wykraczać poza swoje oprogramowanie, będzie robić to czego nauczy się od ludzi

Warto zauważyć, że sztuczna inteligencja oparta o sieci neuronowe potrafi się na swój sposób uczyć. Często w sposób, którego jej twórcy nie przewidzieli. W internecie można znaleźć wiele przykładów oprogramowania, które po dłuższym obcowaniu z sieciowym dorobkiem ludzkości staje się rasistowskie, seksistowskie czy homofobiczne.

Nie wynika to jednak z jakiegoś szczególnego błędu samej SI. Jeśli już, to w braku ograniczeń z góry narzuconych przez jej twórców. Jeżeli ci, na przykład, nie przewidzą z góry, że program ma nie używać wulgaryzmów, to jest spora szansa że zaadaptuje je do swojego słownika. Chociażby w trakcie procesu pozyskiwania informacji z Sieci, lub po prostu w wyniku interakcji z internautami.