- Home -
- Technologie -
- W ostatnim roku Google zaczęło kłamać. 9 proc. odpowiedzi wprowadza w błąd
W ostatnim roku Google zaczęło kłamać. 9 proc. odpowiedzi wprowadza w błąd
Dziewięć na sto odpowiedzi serwowanych przez wyszukiwarkę Google na pierwszej stronie wyników zawiera fałszywe informacje. To wniosek z najnowszego badania przeprowadzonego przez „The New York Times” we współpracy z firmą analityczną Oumi. Na pozór wskaźnik brzmi niewinnie, ale przy skali zapytań, jakie dziennie trafiają do najpopularniejszej wyszukiwarki świata, oznacza to, że użytkownicy otrzymują miliardy nieprawdziwych odpowiedzi rocznie.

Historia, którą „NYT” otwiera swoją publikację, brzmi jak anegdota, ale obrazuje skalę problemu lepiej niż jakakolwiek tabela. Stephen Punwasi, analityk danych z Toronto, chciał ustalić, kiedy dokładnie zmarł Hulk Hogan. Google w automatycznie generowanej odpowiedzi u góry strony kategorycznie zapewnił, że żadne wiarygodne źródła nie potwierdzają śmierci zapaśnika. Kłopot w tym, że tuż pod tym zdaniem wyświetlał się link do artykułu w „Daily Mail” o zupełnie innej treści.
AI Overviews rozmija się z własnymi źródłami
Funkcja AI Overviews, czyli automatyczne streszczenia generowane przez model Gemini nad listą wyników wyszukiwania, od kilkunastu miesięcy zastępuje użytkownikom klikanie w linki. Badacze „NYT” przyjrzeli się temu, jak często takie streszczenia mijają się z prawdą. W przypadku starszego modelu Gemini 2 błędy pojawiały się w 15 procentach odpowiedzi. Nowsza wersja Gemini 3 wypada lepiej, ale wciąż myli się w 9 na 100 przypadków. Jeszcze ciekawiej robi się, gdy spojrzeć na relację między odpowiedzią a podlinkowanymi źródłami. Nawet jeśli informacja jest zgodna z faktami, to aż w 56 procentach przypadków załączony link nie potwierdza tego, co Gemini właśnie napisał.
Autorzy badania zebrali sporo kuriozalnych przykładów. Algorytm potrafił zaprzeczać istnieniu organizacji „American Classical Music Hall of Fame”, wyświetlając jednocześnie link do jej oficjalnej strony. Mylił się przy dacie otwarcia Muzeum Boba Marleya. Nieprawidłowo opisywał topografię rzek w Karolinie Północnej. Wspólnym mianownikiem tych wpadek jest to, że AI nie weryfikuje faktów w sposób, w jaki robi to człowiek, nawet ten niezbyt staranny. To zresztą nie jest wyłącznie problem Google – podobne wpadki notowały już rozwiązania innych gigantów, czego symbolem stała się sztuczna inteligencja od Apple, która w zeszłym roku poinformowała użytkowników o rzekomym aresztowaniu premiera Izraela.
Statystyczny generator zdań, nie baza wiedzy
Źródło tych halucynacji nie jest tajemnicą dla osób siedzących w branży. Duże modele językowe nie są bazą wiedzy, tylko zaawansowaną maszyną statystyczną.
– Nasze oczekiwania wobec sztucznej inteligencji są nierealistyczne. Ukształtowały je Hollywood i korporacyjny marketing. Duże modele językowe nie sprawdzają faktów, tak jak robią to ludzie, ani nie budują odpowiedzi poprzez weryfikację źródeł krok po kroku. Ich podstawowym mechanizmem jest przewidywanie najbardziej prawdopodobnej sekwencji słów na podstawie ogromnych zbiorów danych treningowych – tłumaczy Marcin Stypuła, założyciel agencji SEO Semcore.
Różnica między oczekiwaniem a rzeczywistością jest właśnie tu. Użytkownik pytający o datę śmierci wrestlera zakłada, że dostanie fakt. W praktyce dostaje najprawdopodobniejszą sekwencję słów, jaką model potrafi zbudować na podstawie zgromadzonych danych – forów, mediów społecznościowych, artykułów i wpisów w Wikipedii. Czasem wzorzec pokrywa się z prawdą. Czasem nie.
Hot dogi, których nikt nie zjadł
Że problem nie jest wyłącznie teoretyczny, pokazał eksperyment Thomasa Germaina, dziennikarza technologicznego. Germain opublikował na swojej stronie zmyśloną notatkę o wygranych zawodach w jedzeniu hot dogów. Już następnego dnia Gemini cytowało go jako eksperta w tej dyscyplinie, prezentując fikcyjne osiągnięcie jako niepodważalny fakt.
Konsekwencje takiego mechanizmu są poważne. Skoro wystarczy jeden post, żeby fikcja trafiła do ust największej wyszukiwarki świata, to otwiera się pole do manipulacji na niewyobrażalną dotąd skalę. W praktyce granica między informacją a dezinformacją robi się nieczytelna – zwłaszcza że AI cytuje zmyślone treści z tą samą stanowczością, z jaką podawałaby dane GUS.
– Jeśli proces budowania autorytetu w sieci można tak łatwo zmanipulować za pomocą jednego postu na blogu, to wiarygodność dużych modeli językowych staje pod znakiem zapytania. W świecie, gdzie algorytm bezkrytycznie powiela błędy, granica między rzetelną informacją a dezinformacją staje się niewidoczna – ocenia Stypuła.
Od strony prawnej Google ma się czym zasłonić – w regulaminach i notach przy odpowiedziach grzecznie informuje, że AI może się mylić. Z punktu widzenia konsumenta oznacza to jednak, że pełne ryzyko weryfikacji spadło na użytkownika. Gdyby tradycyjna encyklopedia w 9 procentach przypadków podawała nieprawdę, zniknęłaby z rynku w kilka miesięcy. Platforma technologiczna z dominującą pozycją na rynku wyszukiwania może sobie na to pozwolić. To nie jest problem wyłącznie techniczny. Skalę szkód, jakie algorytmy potrafią wyrządzać, widać też w innych obszarach – choćby tam, gdzie oszuści wykorzystują AI, podsuwając modelom spreparowane numery telefonów, które ta następnie poleca jako infolinie znanych firm.
Pierwsze ofiary rewolucji: wydawcy
Obok kwestii prawdziwości informacji jest też drugi, równie istotny wątek – ekonomiczny. Redakcje i portale, które miały dotąd strukturalną rolę w weryfikowaniu tego, co pojawia się w sieci, są przez nowy mechanizm systemowo marginalizowane. Z raportu firmy Define Media Group, opartego na analizie 64 dużych redakcji internetowych, wynika, że od momentu pełnego wdrożenia AI Overviews ruch z wyszukiwarki do wydawców spadł średnio o 42 procent. Najmocniej uderzyło to w treści „evergreen” – poradnikowe, encyklopedyczne, referencyjne. Użytkownik dostaje gotową odpowiedź na górze ekranu i nie ma powodu, żeby klikać głębiej.
Paradoks jest taki, że ta gotowa odpowiedź w co jedenastym przypadku jest fałszywa. Media, które mogłyby wychwycić błąd, nie mają do niej dostępu, bo algorytm odcina je od ruchu. To logika, która działa przeciwko jakości informacji w internecie w sposób znacznie głębszy niż „zwykłe” problemy, jakie od lat rozgrzewają dyskusje wokół dezinformacji politycznej.
Jedyna dobra wiadomość: newsy jeszcze się bronią
Jedną pozytywną statystyką w raporcie Define Media Group jest wzrost przekierowań do treści newsowych – aż o 103 procent. Powód jest prozaiczny. AI Google unika tematów, w których rzeczywistość zmienia się szybciej niż cykl aktualizacji modelu. Przy konflikcie zbrojnym, notowaniach giełdowych czy wyborach koszt halucynacji byłby za wysoki, więc algorytm odsyła do dziennikarzy. To jednak tylko chwilowy rozejm. W miarę jak modele będą dostawały coraz świeższe dane w czasie rzeczywistym, również ten bastion zostanie podbity.
Z punktu widzenia konsumenta wniosek jest niewygodny, ale praktyczny. Odpowiedź wyświetlana u góry strony wyników nie jest wyrocznią. Przy każdej sprawie, w której liczy się precyzja – zdrowie, finanse, obowiązki prawne, daty, kontakty do instytucji – warto kliknąć dalej i zajrzeć do źródeł. Zwłaszcza że problem ze zmyślaniem dotyczy nie tylko wyszukiwarki. Podobne mankamenty mają wszystkie generatywne modele, również te, które niektórzy chcieliby widzieć w sądzie jako wsparcie dla sędziów i prawników.
AI Overviews a pozycja Google na rynku
Cała sprawa wpisuje się w szerszy kontekst, którego skutki prawne dopiero zaczynają się materializować. Dominacja Google w wyszukiwaniu od lat jest przedmiotem postępowań antymonopolowych po obu stronach Atlantyku. Dotąd koncern skutecznie odpierał żądania strukturalnego podziału, czego najświeższym przykładem jest decyzja, dzięki której Google nie musi sprzedawać Chrome. Wraz z wprowadzeniem AI Overviews gigant z Mountain View wykonał jednak ruch, który strukturalnie zmienia relację między wyszukiwarką a nami (mediami) – przestał być pośrednikiem kierującym do treści, a zaczął być autorem treści konkurującej z wydawcami, od których te treści kradnie.
Konsekwencje tej zmiany dopiero zaczynają być widoczne. Część komisji ochrony konkurencji w Europie już bada sprawę. Wydawcy przygotowują się do kolejnych pozwów. Konsumenci tymczasem dostają produkt, który w co dziesiątym przypadku podaje nieprawdę i robi to z tą samą kategorycznością, z jaką wcześniej wskazywał kierunek do najbliższej apteki. Jeden na jedenaście – to realny podatek od wygody.
zobacz więcej:
14.04.2026 16:01, Marcin Szermański
14.04.2026 15:13, Miłosz Magrzyk
14.04.2026 15:06, Mariusz Lewandowski
14.04.2026 13:43, Miłosz Magrzyk
14.04.2026 12:59, Marcin Szermański
14.04.2026 12:22, Edyta Wara-Wąsowska
14.04.2026 11:38, Mateusz Krakowski
14.04.2026 10:08, Edyta Wara-Wąsowska
14.04.2026 9:20, Mateusz Krakowski
14.04.2026 7:59, Aleksandra Smusz
14.04.2026 7:35, Filip Dąbrowski
14.04.2026 6:49, Mariusz Lewandowski
14.04.2026 6:18, Mariusz Lewandowski
13.04.2026 20:40, Mariusz Lewandowski
13.04.2026 19:02, Mariusz Lewandowski
13.04.2026 17:02, Miłosz Magrzyk

Uniknięcie KSeF w działalności nierejestrowanej może być prostsze, niż myślisz. Pod pewnym warunkiem
13.04.2026 16:13, Rafał Chabasiński
13.04.2026 15:26, Aleksandra Smusz
13.04.2026 14:40, Miłosz Magrzyk
13.04.2026 13:51, Marcin Szermański
13.04.2026 13:09, Edyta Wara-Wąsowska
13.04.2026 12:26, Rafał Chabasiński
13.04.2026 11:31, Piotr Janus

Polska zgromadziła ponad 580 ton złota. To nie jest decyzja księgowa — to jawny komunikat do Moskwy i Waszyngtonu
13.04.2026 11:21, Filip Dąbrowski
13.04.2026 10:45, Edyta Wara-Wąsowska
13.04.2026 9:54, Mateusz Krakowski



























