MarketsnadMarkets przewiduje, że światowy rynek sztucznej inteligencji będzie w najbliższych latach rósł bardzo szybko. Wydatki na AI zostaną zwiększone z około 150 mld dol. w 2023 roku do 1,345 bln dol. w 2030. Tak dynamiczny rozwój rynku sztucznej inteligencji pociąga za sobą bardzo wiele zagrożeń. Jednym z nich jest umiejętność pisania przez AI fake newsów z większą skutecznością niż człowiek.
Sztuczna inteligencja szybko się uczy, a to dla nas niekoniecznie dobra wiadomość. Z miesiąca na miesiąc AI lepiej imituje teksty pisane przez ludzi. Coraz trudniej jest nam odróżnić, którą treść generowała maszyna, a która wyszła spod ręki człowieka. To – jak twierdzą naukowcy z Uniwersytetu Zuryskiego – sprawia, że zarówno prawdziwe, jak i fałszywe teksty, są dla ludzi jednakowo wiarygodne. Do podobnych wniosków doszli naukowcy z Georgetown University i Obserwatorium Internetu przy Uniwersytecie Stanforda.
Fake newsy pisane przez AI – pandemia dezinformacji
Znaczny rozwój generatorów tekstu przypadł na czas pandemii COVID-19 i towarzyszący jej natłok różnych (prawdziwych i nieprawdziwych) informacji. Łatwo było się w tym wszystkim pogubić. Zmasowane szerzenie fałszywych wiadomości wytworzonych przez AI (i nie tylko przez AI) doprowadziło do ograniczonego zaufania wobec instytucji służby zdrowia i fachowców w swoich dziedzinach.
Niestety łatwiej jest nam uwierzyć w informacje podane przez generator niż w te napisane ludzką ręką. Dlaczego? Powód jest bardzo prosty. Generator wiele kwestii mocno upraszcza, dzięki czemu tekst jest łatwiejszy w odbiorze. By pokazać, jak to działa, naukowcy z Uniwersytetu Zuryskiego przeprowadzili eksperyment. Wygenerowali prawdziwe i fałszywe informacje na temat technologii 5G, szczepionek, pandemii i teorii ewolucji. W tym celu skorzystali z ChataGPT. Wygenerowane informacje zestawili z tekstami napisanymi przez ludzi. Następnie około 700 respondentów w wieku od 42 do 72 lat, z różnych krajów, poproszono o wypełnienie ankiety. Ich zadaniem było ocenić, czy dane teksty były pisane przez maszynę, czy przez człowieka i czy były prawdziwe, czy fałszywe. Okazało się, że teksty wygenerowane przez AI bardziej przekonywały pytanych.
Jak zapobiec masowej dezinformacji wywołanej przez AI?
Oczywiście sztucznej inteligencji nie warto z góry potępiać, lecz warto zwrócić uwagę i regularnie przypominać, jak wiele zagrożeń jest z nią związanych. Wraz z rozwojem algorytmów będzie ich jeszcze więcej. Już coraz głośniej jest podnoszona kwestia ewentualnej odpowiedzialności za szkody wyrządzone przez sztuczną inteligencję. Algorytmy są wykorzystywane m.in. przy opracowywaniu leków, a ChatGPT – co udowodnili naukowcy z Montany – prześciga większość ludzi pod kątem zdolności generowania dużej liczby pomysłów.
Jak zapobiec masowej dezinformacji wywołanej przez AI? Przede wszystkim zatrudnić ekspertów, którzy będą oceniać treści wygenerowane przez AI pod kątem prawdziwości zawartych w nich danych. Jednak zanim tak się stanie (a pewnie nieprędko to nastąpi), warto posiłkować się opublikowanym przez NASK Kodeksem Dobrych Praktyk. Kodeks objaśnia techniki dezinformacyjne i pomaga w rozpoznawaniu szkodliwych treści.