1. Home -
  2. Technologie -
  3. W ostatnim roku Google zaczęło kłamać. 9 proc. odpowiedzi wprowadza w błąd

W ostatnim roku Google zaczęło kłamać. 9 proc. odpowiedzi wprowadza w błąd

Dziewięć na sto odpowiedzi serwowanych przez wyszukiwarkę Google na pierwszej stronie wyników zawiera fałszywe informacje. To wniosek z najnowszego badania przeprowadzonego przez „The New York Times” we współpracy z firmą analityczną Oumi. Na pozór wskaźnik brzmi niewinnie, ale przy skali zapytań, jakie dziennie trafiają do najpopularniejszej wyszukiwarki świata, oznacza to, że użytkownicy otrzymują miliardy nieprawdziwych odpowiedzi rocznie.

Historia, którą „NYT” otwiera swoją publikację, brzmi jak anegdota, ale obrazuje skalę problemu lepiej niż jakakolwiek tabela. Stephen Punwasi, analityk danych z Toronto, chciał ustalić, kiedy dokładnie zmarł Hulk Hogan. Google w automatycznie generowanej odpowiedzi u góry strony kategorycznie zapewnił, że żadne wiarygodne źródła nie potwierdzają śmierci zapaśnika. Kłopot w tym, że tuż pod tym zdaniem wyświetlał się link do artykułu w „Daily Mail” o zupełnie innej treści.

AI Overviews rozmija się z własnymi źródłami

Funkcja AI Overviews, czyli automatyczne streszczenia generowane przez model Gemini nad listą wyników wyszukiwania, od kilkunastu miesięcy zastępuje użytkownikom klikanie w linki. Badacze „NYT” przyjrzeli się temu, jak często takie streszczenia mijają się z prawdą. W przypadku starszego modelu Gemini 2 błędy pojawiały się w 15 procentach odpowiedzi. Nowsza wersja Gemini 3 wypada lepiej, ale wciąż myli się w 9 na 100 przypadków. Jeszcze ciekawiej robi się, gdy spojrzeć na relację między odpowiedzią a podlinkowanymi źródłami. Nawet jeśli informacja jest zgodna z faktami, to aż w 56 procentach przypadków załączony link nie potwierdza tego, co Gemini właśnie napisał.

Autorzy badania zebrali sporo kuriozalnych przykładów. Algorytm potrafił zaprzeczać istnieniu organizacji „American Classical Music Hall of Fame”, wyświetlając jednocześnie link do jej oficjalnej strony. Mylił się przy dacie otwarcia Muzeum Boba Marleya. Nieprawidłowo opisywał topografię rzek w Karolinie Północnej. Wspólnym mianownikiem tych wpadek jest to, że AI nie weryfikuje faktów w sposób, w jaki robi to człowiek, nawet ten niezbyt staranny. To zresztą nie jest wyłącznie problem Google – podobne wpadki notowały już rozwiązania innych gigantów, czego symbolem stała się sztuczna inteligencja od Apple, która w zeszłym roku poinformowała użytkowników o rzekomym aresztowaniu premiera Izraela.

Statystyczny generator zdań, nie baza wiedzy

Źródło tych halucynacji nie jest tajemnicą dla osób siedzących w branży. Duże modele językowe nie są bazą wiedzy, tylko zaawansowaną maszyną statystyczną.

– Nasze oczekiwania wobec sztucznej inteligencji są nierealistyczne. Ukształtowały je Hollywood i korporacyjny marketing. Duże modele językowe nie sprawdzają faktów, tak jak robią to ludzie, ani nie budują odpowiedzi poprzez weryfikację źródeł krok po kroku. Ich podstawowym mechanizmem jest przewidywanie najbardziej prawdopodobnej sekwencji słów na podstawie ogromnych zbiorów danych treningowych – tłumaczy Marcin Stypuła, założyciel agencji SEO Semcore.

Różnica między oczekiwaniem a rzeczywistością jest właśnie tu. Użytkownik pytający o datę śmierci wrestlera zakłada, że dostanie fakt. W praktyce dostaje najprawdopodobniejszą sekwencję słów, jaką model potrafi zbudować na podstawie zgromadzonych danych – forów, mediów społecznościowych, artykułów i wpisów w Wikipedii. Czasem wzorzec pokrywa się z prawdą. Czasem nie.

Hot dogi, których nikt nie zjadł

Że problem nie jest wyłącznie teoretyczny, pokazał eksperyment Thomasa Germaina, dziennikarza technologicznego. Germain opublikował na swojej stronie zmyśloną notatkę o wygranych zawodach w jedzeniu hot dogów. Już następnego dnia Gemini cytowało go jako eksperta w tej dyscyplinie, prezentując fikcyjne osiągnięcie jako niepodważalny fakt.

Konsekwencje takiego mechanizmu są poważne. Skoro wystarczy jeden post, żeby fikcja trafiła do ust największej wyszukiwarki świata, to otwiera się pole do manipulacji na niewyobrażalną dotąd skalę. W praktyce granica między informacją a dezinformacją robi się nieczytelna – zwłaszcza że AI cytuje zmyślone treści z tą samą stanowczością, z jaką podawałaby dane GUS.

– Jeśli proces budowania autorytetu w sieci można tak łatwo zmanipulować za pomocą jednego postu na blogu, to wiarygodność dużych modeli językowych staje pod znakiem zapytania. W świecie, gdzie algorytm bezkrytycznie powiela błędy, granica między rzetelną informacją a dezinformacją staje się niewidoczna – ocenia Stypuła.

Od strony prawnej Google ma się czym zasłonić – w regulaminach i notach przy odpowiedziach grzecznie informuje, że AI może się mylić. Z punktu widzenia konsumenta oznacza to jednak, że pełne ryzyko weryfikacji spadło na użytkownika. Gdyby tradycyjna encyklopedia w 9 procentach przypadków podawała nieprawdę, zniknęłaby z rynku w kilka miesięcy. Platforma technologiczna z dominującą pozycją na rynku wyszukiwania może sobie na to pozwolić. To nie jest problem wyłącznie techniczny. Skalę szkód, jakie algorytmy potrafią wyrządzać, widać też w innych obszarach – choćby tam, gdzie oszuści wykorzystują AI, podsuwając modelom spreparowane numery telefonów, które ta następnie poleca jako infolinie znanych firm.

Pierwsze ofiary rewolucji: wydawcy

Obok kwestii prawdziwości informacji jest też drugi, równie istotny wątek – ekonomiczny. Redakcje i portale, które miały dotąd strukturalną rolę w weryfikowaniu tego, co pojawia się w sieci, są przez nowy mechanizm systemowo marginalizowane. Z raportu firmy Define Media Group, opartego na analizie 64 dużych redakcji internetowych, wynika, że od momentu pełnego wdrożenia AI Overviews ruch z wyszukiwarki do wydawców spadł średnio o 42 procent. Najmocniej uderzyło to w treści „evergreen” – poradnikowe, encyklopedyczne, referencyjne. Użytkownik dostaje gotową odpowiedź na górze ekranu i nie ma powodu, żeby klikać głębiej.

Paradoks jest taki, że ta gotowa odpowiedź w co jedenastym przypadku jest fałszywa. Media, które mogłyby wychwycić błąd, nie mają do niej dostępu, bo algorytm odcina je od ruchu. To logika, która działa przeciwko jakości informacji w internecie w sposób znacznie głębszy niż „zwykłe” problemy, jakie od lat rozgrzewają dyskusje wokół dezinformacji politycznej.

Jedyna dobra wiadomość: newsy jeszcze się bronią

Jedną pozytywną statystyką w raporcie Define Media Group jest wzrost przekierowań do treści newsowych – aż o 103 procent. Powód jest prozaiczny. AI Google unika tematów, w których rzeczywistość zmienia się szybciej niż cykl aktualizacji modelu. Przy konflikcie zbrojnym, notowaniach giełdowych czy wyborach koszt halucynacji byłby za wysoki, więc algorytm odsyła do dziennikarzy. To jednak tylko chwilowy rozejm. W miarę jak modele będą dostawały coraz świeższe dane w czasie rzeczywistym, również ten bastion zostanie podbity.

Z punktu widzenia konsumenta wniosek jest niewygodny, ale praktyczny. Odpowiedź wyświetlana u góry strony wyników nie jest wyrocznią. Przy każdej sprawie, w której liczy się precyzja – zdrowie, finanse, obowiązki prawne, daty, kontakty do instytucji – warto kliknąć dalej i zajrzeć do źródeł. Zwłaszcza że problem ze zmyślaniem dotyczy nie tylko wyszukiwarki. Podobne mankamenty mają wszystkie generatywne modele, również te, które niektórzy chcieliby widzieć w sądzie jako wsparcie dla sędziów i prawników.

AI Overviews a pozycja Google na rynku

Cała sprawa wpisuje się w szerszy kontekst, którego skutki prawne dopiero zaczynają się materializować. Dominacja Google w wyszukiwaniu od lat jest przedmiotem postępowań antymonopolowych po obu stronach Atlantyku. Dotąd koncern skutecznie odpierał żądania strukturalnego podziału, czego najświeższym przykładem jest decyzja, dzięki której Google nie musi sprzedawać Chrome. Wraz z wprowadzeniem AI Overviews gigant z Mountain View wykonał jednak ruch, który strukturalnie zmienia relację między wyszukiwarką a nami (mediami) – przestał być pośrednikiem kierującym do treści, a zaczął być autorem treści konkurującej z wydawcami, od których te treści kradnie.

Konsekwencje tej zmiany dopiero zaczynają być widoczne. Część komisji ochrony konkurencji w Europie już bada sprawę. Wydawcy przygotowują się do kolejnych pozwów. Konsumenci tymczasem dostają produkt, który w co dziesiątym przypadku podaje nieprawdę i robi to z tą samą kategorycznością, z jaką wcześniej wskazywał kierunek do najbliższej apteki. Jeden na jedenaście – to realny podatek od wygody.

Obserwuj nas w Google Discover
Google Discover
Podobają Ci się nasze treści?
Google Discover
Dołącz do dyskusji
Najnowsze
Warte Uwagi