- Home -
- Prywatność i bezpieczeństwo -
- Sztuczna inteligencja pisze fake newsy. I niestety robi to lepiej niż człowiek
MarketsnadMarkets przewiduje, że światowy rynek sztucznej inteligencji będzie w najbliższych latach rósł bardzo szybko. Wydatki na AI zostaną zwiększone z około 150 mld dol. w 2023 roku do 1,345 bln dol. w 2030. Tak dynamiczny rozwój rynku sztucznej inteligencji pociąga za sobą bardzo wiele zagrożeń. Jednym z nich jest umiejętność pisania przez AI fake newsów z większą skutecznością niż człowiek.

Sztuczna inteligencja szybko się uczy, a to dla nas niekoniecznie dobra wiadomość. Z miesiąca na miesiąc AI lepiej imituje teksty pisane przez ludzi. Coraz trudniej jest nam odróżnić, którą treść generowała maszyna, a która wyszła spod ręki człowieka. To – jak twierdzą naukowcy z Uniwersytetu Zuryskiego – sprawia, że zarówno prawdziwe, jak i fałszywe teksty, są dla ludzi jednakowo wiarygodne. Do podobnych wniosków doszli naukowcy z Georgetown University i Obserwatorium Internetu przy Uniwersytecie Stanforda.
Fake newsy pisane przez AI – pandemia dezinformacji
Znaczny rozwój generatorów tekstu przypadł na czas pandemii COVID-19 i towarzyszący jej natłok różnych (prawdziwych i nieprawdziwych) informacji. Łatwo było się w tym wszystkim pogubić. Zmasowane szerzenie fałszywych wiadomości wytworzonych przez AI (i nie tylko przez AI) doprowadziło do ograniczonego zaufania wobec instytucji służby zdrowia i fachowców w swoich dziedzinach.
Niestety łatwiej jest nam uwierzyć w informacje podane przez generator niż w te napisane ludzką ręką. Dlaczego? Powód jest bardzo prosty. Generator wiele kwestii mocno upraszcza, dzięki czemu tekst jest łatwiejszy w odbiorze. By pokazać, jak to działa, naukowcy z Uniwersytetu Zuryskiego przeprowadzili eksperyment. Wygenerowali prawdziwe i fałszywe informacje na temat technologii 5G, szczepionek, pandemii i teorii ewolucji. W tym celu skorzystali z ChataGPT. Wygenerowane informacje zestawili z tekstami napisanymi przez ludzi. Następnie około 700 respondentów w wieku od 42 do 72 lat, z różnych krajów, poproszono o wypełnienie ankiety. Ich zadaniem było ocenić, czy dane teksty były pisane przez maszynę, czy przez człowieka i czy były prawdziwe, czy fałszywe. Okazało się, że teksty wygenerowane przez AI bardziej przekonywały pytanych.
Jak zapobiec masowej dezinformacji wywołanej przez AI?
Oczywiście sztucznej inteligencji nie warto z góry potępiać, lecz warto zwrócić uwagę i regularnie przypominać, jak wiele zagrożeń jest z nią związanych. Wraz z rozwojem algorytmów będzie ich jeszcze więcej. Już coraz głośniej jest podnoszona kwestia ewentualnej odpowiedzialności za szkody wyrządzone przez sztuczną inteligencję. Algorytmy są wykorzystywane m.in. przy opracowywaniu leków, a ChatGPT – co udowodnili naukowcy z Montany – prześciga większość ludzi pod kątem zdolności generowania dużej liczby pomysłów.
Jak zapobiec masowej dezinformacji wywołanej przez AI? Przede wszystkim zatrudnić ekspertów, którzy będą oceniać treści wygenerowane przez AI pod kątem prawdziwości zawartych w nich danych. Jednak zanim tak się stanie (a pewnie nieprędko to nastąpi), warto posiłkować się opublikowanym przez NASK Kodeksem Dobrych Praktyk. Kodeks objaśnia techniki dezinformacyjne i pomaga w rozpoznawaniu szkodliwych treści.
zobacz więcej:
01.07.2025 21:10, Mariusz Lewandowski
01.07.2025 15:55, Justyna Bieniek
01.07.2025 15:13, Rafał Chabasiński
01.07.2025 12:47, Rafał Chabasiński
01.07.2025 12:00, Edyta Wara-Wąsowska
01.07.2025 11:38, Mateusz Krakowski
01.07.2025 10:47, Edyta Wara-Wąsowska
01.07.2025 9:58, Edyta Wara-Wąsowska
01.07.2025 9:39, Mateusz Krakowski
01.07.2025 8:37, Rafał Chabasiński
01.07.2025 7:52, Aleksandra Smusz
01.07.2025 6:56, Rafał Chabasiński
30.06.2025 20:19, Rafał Chabasiński
30.06.2025 16:17, Rafał Chabasiński
30.06.2025 15:12, Katarzyna Zuba
30.06.2025 13:30, Mariusz Lewandowski
30.06.2025 12:55, Mateusz Krakowski
30.06.2025 11:32, Edyta Wara-Wąsowska
30.06.2025 10:57, Mariusz Lewandowski
30.06.2025 10:51, Rafał Chabasiński
30.06.2025 10:12, Katarzyna Zuba
30.06.2025 9:17, Edyta Wara-Wąsowska
30.06.2025 8:30, Rafał Chabasiński
30.06.2025 8:07, Edyta Wara-Wąsowska
30.06.2025 7:02, Aleksandra Smusz