Sztuczna inteligencja od Meta twierdzi, że zamach na Trumpa w ogóle nie miał miejsca

Technologie Zagranica Dołącz do dyskusji
Sztuczna inteligencja od Meta twierdzi, że zamach na Trumpa w ogóle nie miał miejsca

Asystent AI autorstwa Meta (korporacja m.in. od Facebooka i Instagrama) znalazł się w ogniu krytyki po ostatnio ujawnionych rewelacjach. Wynika z nich, że chatbot nie wie nic o zamachu na Donalda Trumpa, bo… według sztucznej inteligencji nie miał w ogóle miejsca.

Winne halucynacje AI

Temat został od razu podchwycony przez zwolenników Donalda Trumpa jak i przez niego samego. Podpadło również Google, któremu zarzucono cenzurę wydarzeń z 13 lipca w autouzupełniaczu wyszukiwarki. Na portalu TruthSocial kandydat na prezydenta USA nazwał to próbą wpływania na wynik wyborów i wezwał do „ścigania Meta i Google’a”.

Na załączonym wyżej screenie widzimy, że początkowo chatbot nie wie zupełnie nic na temat zamachu na Donalda Trumpa. Po zadaniu pytania, czy zamach miał w ogóle miejsce (bez pytania o szczegóły), asystent AI wyświetlił rzeczy zupełnie zmyślone – w systemach sztucznej inteligencji jest to nazywane zjawiskiem halucynacji. Dzieje się tak wtedy, gdy AI nie zna odpowiedzi na pytanie, ale często z niewyjaśnionych przyczyn nie mówi tego wprost, i zamiast tego kombinuje jak wybrnąć z tej sytuacji. Mogą z tego wyjść rzeczy naprawdę różne. Od komicznie brzmiących, nielogicznych informacji, po brzmiącego naprawdę sensownie fejka.

Potwierdził to Joel Kaplan, wiceprezes Meta ds. polityki globalnej we wpisie na blogu, w którym stwierdził, że:

Tego typu odpowiedzi nazywane są halucynacjami. Jest to problem występujący w całej branży, który obserwujemy we wszystkich generatywnych systemach sztucznej inteligencji, i stanowi ciągłe wyzwanie dla sposobu, w jaki sztuczna inteligencja radzi sobie w przyszłości ze zdarzeniami w czasie rzeczywistym.

Chociaż Meta zaktualizowała odpowiedzi AI na temat zamachu, Kaplan przyznał, że powinno być to zrobione wcześniej.

To nie jedyna wpadka Meta

Kaplan odniósł się również do osobnego incydentu, w którym Facebook błędnie oznaczył zdjęcie Trumpa po strzelaninie jako „zmienione.”:

W minionym tygodniu na naszych platformach pojawiły się dwa warte odnotowania problemy związane z traktowaniem treści politycznych — jeden dotyczył zdjęcia byłego prezydenta Trumpa po próbie zamachu, na które nasze systemy błędnie nałożyły etykietę sprawdzania faktów (…) W obu przypadkach nasze systemy działały, aby chronić znaczenie i powagę tego wydarzenia. I choć żaden z nich nie był wynikiem uprzedzeń, było to niefortunne i rozumiemy, dlaczego mogło to wywołać takie wrażenie. Dlatego nieustannie pracujemy nad ulepszaniem naszych produktów i będziemy nadal szybko rozwiązywać wszelkie pojawiające się problemy.