Wyszukiwarki AI uwzględniają coraz więcej treści wygenerowanych przez sztuczną inteligencję
Praktycznie każda szanująca się globalna korporacja choćby luźno związana z nowoczesnymi technologiami stara się nam teraz wcisnąć jakąś funkcję opartą na sztucznej inteligencji. Ot, taka biznesowa moda. Nie powinno więc dziwić, że AI zagoniono do wspomagania sztucznej inteligencji.
Wydawać by się mogło, że to świetna wiadomość. Taka wyszukiwarka powinna odpowiadać precyzyjniej na nasze zapytania i mniej zależeć od kaprysów SEO. W tym jednak tkwi istota problemu: powinna, ale odkąd wyszukiwarki AI się upowszechniły, odtąd coraz trudniej znaleźć coś w internecie. Wyniki sprawiają wrażenie coraz słabiej związanych z pierwotnym zapytaniem. Zaryzykowałbym wręcz stwierdzenie, że takie Google z czasów sprzed rozpoczęcia testów trybu AI było dużo bardziej precyzyjne i przez to przydatne.
Ktoś mógłby w tym momencie stwierdzić, że to tylko moje subiektywne odczucia. Te zaś mogą wynikać z przyczyn zupełnie niezależnych od wyszukiwarek. W grę wchodzi przecież nieumiejętność poprawnego napisania zapytania. Rzecz jednak w tym, że głosów podobnych do mojego w ostatnim czasie pojawia się coraz więcej. Okazuje się, że "ogłupienie" AI może nie tylko rzeczywiście istnieć i dotyczyć nie tylko internetowych wyszukiwarek w sensie ścisłym, ale także mieć bardzo konkretne przyczyny.
Najczęściej wskazywaną przez ekspertów przyczyną spadku jakości wyszukiwania treści przez AI jest zjawisko określane jakże osobliwym mianem "kazirodztwa AI". Brzmi upiornie, ale tak naprawdę sprowadza się do uczenia modeli sztucznych inteligencji na treściach, które wygenerowała sztuczna inteligencja. Żeby rzeczywiście rozwijać AI, powinno być "karmione" relatywnie wartościową treścią, która stanowi wytwór ludzkiej kreatywności – prawdziwymi książkami, gazetami, artykułami, danymi, czy nawet postami żywych ludzi w mediach społecznościowych. Niestety tak się składa, że według niektórych szacunków w listopadzie 2024 r. nawet 52 proc. treści znajdującej się w internecie to wytwór AI. Sam wspominałem w zeszłym roku na Bezprawniku, że boty internetowe odpowiadają na ponad połowę ruchu w sieci. Nic nie wskazuje na to, by ten trend miał się odwrócić.
Skoro zaś coraz większy odsetek ogólnodostępnych treści zostało wytworzonych przez AI, to rozwijane modele sztucznej inteligencji uwzględniają także wytwory innych modeli ze wszystkimi ich niedomaganiami.
Ograniczenia prawne nie sprzyjają skuteczności działania AI, ale przynajmniej chronią nas przed kolejnym atakiem "MechaHitlera"
Kolejny problem dotyczy kagańca nakładanego na sztuczną inteligencję przez korporację. AI może nam wygenerować praktycznie dowolną treść. Problem w tym, że ludzie potrafią nawet z czystej przekory podpuszczać oprogramowanie do generowania rzeczy uznawanych przez resztę społeczeństwa za niewłaściwe, obrazoburcze, bluźniercze, obrzydliwe, albo wręcz wprost nielegalne.
Zapewne część z nas wciąż pamięta nagły wybuch szczerości Groka – modelu sztucznej inteligencji stworzonego przez firmę xAI i zintegrowanego z należącą do Elona Muska platformy społecznościowej X. Nie chodzi nawet o zwyzywanie polskich polityków przez Groka. AI w anglojęzycznej części niegdysiejszego Twittera zdążył się obwołać "MechaHitlerem" i propagować chyba wszystkie możliwe oburzające Amerykanów treści.
Wspominam o tym dlatego, że ograniczenia nakładane na AI, żeby uniknąć tego typu incydentów – albo jeszcze gorszych w rodzaju generowania deep fake'ów prawdziwych osób – potrafią niechcący krępować możliwości oprogramowania także w zupełnie niewinnych aspektach.
Poza tym współczesne modele sztucznej inteligencji mają naturalną tendencję do uogólniania treści, jej wygładzania i unikania zbyt ryzykownych tez i danych. Być może wynika to po części ze wspomnianych ograniczeń, ale równie dobrze może chodzić o unikanie dezinformowania użytkowników za pomocą niepewnych danych.
Przyczyn gorszego działania wyszukiwarek może być więcej. W przypadku bardziej złożonych modeli w grę wchodzą koszty ich ogólnego zastosowania oraz szerokiego spektrum możliwości. Tryb AI Google jest modelem tekstowym i nie musi poświęcać zasobów na przykład na zdolność do generowania obrazków. W przypadku ChatGPT albo Groka jest już nieco inaczej.
Niektórzy internauci sugerują wręcz, że po prostu właściciele poszczególnych modeli przeznaczają większość dostępnej mocy obliczeniowej na bardziej istotne – czytaj: komercyjne – zastosowania swoich produktów. Użytkownicy korzystający z darmowych rozwiązań mogą liczyć jedynie na ochłapy. Coś może być na rzeczy. W informacjach o planach subskrypcyjnych ChatGPT możemy przeczytać, że darmowi użytkownicy mają "Ograniczony dostęp do rozumowania". Jeśli jednak zapłacimy dostatecznie dużo, to uzyskujemy dostęp do "zaawansowanego rozumowania". Nie ma się co dziwić. Zapotrzebowanie rośnie szybciej, niż poszczególne korporacje są w stanie budować nowe centra danych i zapewnić im odpowiednie źródło zasilania, na przykład w postaci własnej elektrowni jądrowej.
Istnieje jeszcze jedna możliwość. Być może po prostu z aktualną iteracją sztucznej inteligencji jest coś nie tak, a jej niedomagania zostaną wyeliminowane w którejś z następnych. Rozwój oprogramowania nie zawsze wiąże się z jego stałą poprawą. Użytkownicy kolejnych wersji systemu Windows coś o tym wiedzą.
Coraz mniej poprawne odpowiedzi chatbotów tylko potęgują problem uzależnienia od AI
Ktoś mógłby się zastanawiać, czemu to taki problem. Podczas, gdy wyszukiwarki AI i cała reszta sztucznej inteligencji codziennego użytku głupieją, społeczeństwa coraz bardziej na nich polegają. Zdarzały się niedawno głośne przypadki poważnych międzynarodowych korporacji, które skompromitowały się w oczach klientów i opinii publicznej poprzez przedkładanie analiz opartych o wynurzenia zmyślającej sztucznej inteligencji. Z jakiegoś powodu najgłośniejsze takie sytuacje dotyczą prawników, którym nie chciało się przemęczać w pracy.
W międzyczasie pojawiły się nawet bardziej niepokojące zjawiska. Uzależnienie od AI stało się faktem. Nierzadko ma wręcz charakter zamiennika relacji z żywym człowiekiem. Niektórzy użytkownicy próbują nawet szukać u sztucznej inteligencji porad psychologicznych czy medycznych. Nie sposób także nie wspomnieć o niechęci do rozwiązywania problemów samodzielnie przez młodsze pokolenie, która podkopała sens części tradycyjnych prac domowych zadawanych w starszych klasach. Sam ten fakt mógłby nam zjeżyć włosy na głowie. Dodajmy jednak do problemu fakt degradacji jakości odpowiedzi udzielanych przez AI. Okazuje się, że społeczeństwo ogłupia się także samo poprzez nadużywanie wadliwych narzędzi.