- Home -
- Technologie -
- Sztuczna inteligencja od Meta twierdzi, że zamach na Trumpa w ogóle nie miał miejsca
Asystent AI autorstwa Meta (korporacja m.in. od Facebooka i Instagrama) znalazł się w ogniu krytyki po ostatnio ujawnionych rewelacjach. Wynika z nich, że chatbot nie wie nic o zamachu na Donalda Trumpa, bo… według sztucznej inteligencji nie miał w ogóle miejsca.

Winne halucynacje AI
Temat został od razu podchwycony przez zwolenników Donalda Trumpa jak i przez niego samego. Podpadło również Google, któremu zarzucono cenzurę wydarzeń z 13 lipca w autouzupełniaczu wyszukiwarki. Na portalu TruthSocial kandydat na prezydenta USA nazwał to próbą wpływania na wynik wyborów i wezwał do „ścigania Meta i Google’a”.

Na załączonym wyżej screenie widzimy, że początkowo chatbot nie wie zupełnie nic na temat zamachu na Donalda Trumpa. Po zadaniu pytania, czy zamach miał w ogóle miejsce (bez pytania o szczegóły), asystent AI wyświetlił rzeczy zupełnie zmyślone – w systemach sztucznej inteligencji jest to nazywane zjawiskiem halucynacji. Dzieje się tak wtedy, gdy AI nie zna odpowiedzi na pytanie, ale często z niewyjaśnionych przyczyn nie mówi tego wprost, i zamiast tego kombinuje jak wybrnąć z tej sytuacji. Mogą z tego wyjść rzeczy naprawdę różne. Od komicznie brzmiących, nielogicznych informacji, po brzmiącego naprawdę sensownie fejka.
Potwierdził to Joel Kaplan, wiceprezes Meta ds. polityki globalnej we wpisie na blogu, w którym stwierdził, że:
Tego typu odpowiedzi nazywane są halucynacjami. Jest to problem występujący w całej branży, który obserwujemy we wszystkich generatywnych systemach sztucznej inteligencji, i stanowi ciągłe wyzwanie dla sposobu, w jaki sztuczna inteligencja radzi sobie w przyszłości ze zdarzeniami w czasie rzeczywistym.
Chociaż Meta zaktualizowała odpowiedzi AI na temat zamachu, Kaplan przyznał, że powinno być to zrobione wcześniej.
To nie jedyna wpadka Meta
Kaplan odniósł się również do osobnego incydentu, w którym Facebook błędnie oznaczył zdjęcie Trumpa po strzelaninie jako „zmienione.”:
W minionym tygodniu na naszych platformach pojawiły się dwa warte odnotowania problemy związane z traktowaniem treści politycznych — jeden dotyczył zdjęcia byłego prezydenta Trumpa po próbie zamachu, na które nasze systemy błędnie nałożyły etykietę sprawdzania faktów (…) W obu przypadkach nasze systemy działały, aby chronić znaczenie i powagę tego wydarzenia. I choć żaden z nich nie był wynikiem uprzedzeń, było to niefortunne i rozumiemy, dlaczego mogło to wywołać takie wrażenie. Dlatego nieustannie pracujemy nad ulepszaniem naszych produktów i będziemy nadal szybko rozwiązywać wszelkie pojawiające się problemy.
01.07.2025 21:10, Mariusz Lewandowski
01.07.2025 15:55, Justyna Bieniek
01.07.2025 15:13, Rafał Chabasiński
01.07.2025 12:47, Rafał Chabasiński
01.07.2025 12:00, Edyta Wara-Wąsowska
01.07.2025 11:38, Mateusz Krakowski
01.07.2025 10:47, Edyta Wara-Wąsowska
01.07.2025 9:58, Edyta Wara-Wąsowska
01.07.2025 9:39, Mateusz Krakowski
01.07.2025 8:37, Rafał Chabasiński
01.07.2025 7:52, Aleksandra Smusz
01.07.2025 6:56, Rafał Chabasiński
30.06.2025 20:19, Rafał Chabasiński
30.06.2025 16:17, Rafał Chabasiński
30.06.2025 15:12, Katarzyna Zuba
30.06.2025 13:30, Mariusz Lewandowski
30.06.2025 12:55, Mateusz Krakowski
30.06.2025 11:32, Edyta Wara-Wąsowska
30.06.2025 10:57, Mariusz Lewandowski
30.06.2025 10:51, Rafał Chabasiński
30.06.2025 10:12, Katarzyna Zuba
30.06.2025 9:17, Edyta Wara-Wąsowska
30.06.2025 8:30, Rafał Chabasiński
30.06.2025 8:07, Edyta Wara-Wąsowska
30.06.2025 7:02, Aleksandra Smusz