REKLAMA
  1. Home -
  2. Technologie -
  3. Sztuczna inteligencja od Meta twierdzi, że zamach na Trumpa w ogóle nie miał miejsca
Sztuczna inteligencja od Meta twierdzi, że zamach na Trumpa w ogóle nie miał miejsca

Asystent AI autorstwa Meta (korporacja m.in. od Facebooka i Instagrama) znalazł się w ogniu krytyki po ostatnio ujawnionych rewelacjach. Wynika z nich, że chatbot nie wie nic o zamachu na Donalda Trumpa, bo… według sztucznej inteligencji nie miał w ogóle miejsca.

Winne halucynacje AI

Temat został od razu podchwycony przez zwolenników Donalda Trumpa jak i przez niego samego. Podpadło również Google, któremu zarzucono cenzurę wydarzeń z 13 lipca w autouzupełniaczu wyszukiwarki. Na portalu TruthSocial kandydat na prezydenta USA nazwał to próbą wpływania na wynik wyborów i wezwał do „ścigania Meta i Google’a”.

Na załączonym wyżej screenie widzimy, że początkowo chatbot nie wie zupełnie nic na temat zamachu na Donalda Trumpa. Po zadaniu pytania, czy zamach miał w ogóle miejsce (bez pytania o szczegóły), asystent AI wyświetlił rzeczy zupełnie zmyślone – w systemach sztucznej inteligencji jest to nazywane zjawiskiem halucynacji. Dzieje się tak wtedy, gdy AI nie zna odpowiedzi na pytanie, ale często z niewyjaśnionych przyczyn nie mówi tego wprost, i zamiast tego kombinuje jak wybrnąć z tej sytuacji. Mogą z tego wyjść rzeczy naprawdę różne. Od komicznie brzmiących, nielogicznych informacji, po brzmiącego naprawdę sensownie fejka.

REKLAMA

Potwierdził to Joel Kaplan, wiceprezes Meta ds. polityki globalnej we wpisie na blogu, w którym stwierdził, że:

Tego typu odpowiedzi nazywane są halucynacjami. Jest to problem występujący w całej branży, który obserwujemy we wszystkich generatywnych systemach sztucznej inteligencji, i stanowi ciągłe wyzwanie dla sposobu, w jaki sztuczna inteligencja radzi sobie w przyszłości ze zdarzeniami w czasie rzeczywistym.

Chociaż Meta zaktualizowała odpowiedzi AI na temat zamachu, Kaplan przyznał, że powinno być to zrobione wcześniej.

REKLAMA

To nie jedyna wpadka Meta

Kaplan odniósł się również do osobnego incydentu, w którym Facebook błędnie oznaczył zdjęcie Trumpa po strzelaninie jako „zmienione.”:

W minionym tygodniu na naszych platformach pojawiły się dwa warte odnotowania problemy związane z traktowaniem treści politycznych — jeden dotyczył zdjęcia byłego prezydenta Trumpa po próbie zamachu, na które nasze systemy błędnie nałożyły etykietę sprawdzania faktów (…) W obu przypadkach nasze systemy działały, aby chronić znaczenie i powagę tego wydarzenia. I choć żaden z nich nie był wynikiem uprzedzeń, było to niefortunne i rozumiemy, dlaczego mogło to wywołać takie wrażenie. Dlatego nieustannie pracujemy nad ulepszaniem naszych produktów i będziemy nadal szybko rozwiązywać wszelkie pojawiające się problemy.

Dołącz do dyskusji
Najnowsze
Warte Uwagi