Nieświadomi użytkownicy
Od premiery pierwszej publicznej wersji ChataGPT minęły prawie trzy lata. Pamiętacie jak wyglądała praca, rozrywka, znajdowanie informacji jeszcze w 2022 roku? To wydaje się tak niedawno. Dla mnie to zaledwie wakacje po zdanej maturze. Jestem więc tym pierwszym rocznikiem, który nie zna studiowania bez generatywnej AI – muszę przyznać, że to w pewnym sensie wyróżnienie. Z tym, że dla jednych może okazać się błogosławieństwem, a dla innych przekleństwem. Wbrew pozorom, pędząca automatyzacja, komputeryzacja nie przekreśla tego, że nadal wiele zależy od nas samych.
ChatGPT i jego konkurencja w imponujący sposób pomogła mi na przestrzeni lat i się tego nie wstydzę. Tak, AI to moje narzędzie codziennego użytku. Dosłownie do wszystkiego – programowanie, tłumaczenie, nauka języka, organizacja dokumentów, wyszukiwanie informacji. Mógłbym wymieniać jeszcze długo. Jest jednak w niej pewna istotna wada – nierzadko samo sprawdzenie otrzymanych wyników zajmuje tyle, co stworzenie ich na własną rękę.
Mimo że zachwycam się potęgą matematyki, bez której nie mielibyśmy ChataGPT i wielu innych imponujących narzędzi, to zdaję sobie sprawę z ich niedoskonałości. Niestety, nie jest to nadal powszechne zjawisko. Martwi mnie bezrefleksyjne przeklejanie otrzymanych wyników. Generatywna AI opiera się na rachunku prawdopodobieństwa – tam tak naprawdę nigdy nic nie będzie na 100% pewne.
Tutaj musimy stać na straży my, gotowi do weryfikacji otrzymywanych informacji, posiadający odpowiednią, choć podstawową wiedzę, aby być świadomym, kiedy „coś nie gra”. Sposób działania sztucznej inteligencji jednak zdecydowanie nie sprzyja temu, aby samemu wychwytywać błędy. Co więcej – powiedziałbym, że przez ostatnie trzy lata było wręcz przeciwnie. Wpychanie nam każdego rozwiązania, byle było, byle nie zostawić nas bez odpowiedzi. A to wcale nie jest takie dobre.
Wiem, że nic nie wiem
Halucynacja AI to zjawisko polegające na generowaniu przez model językowy odpowiedzi nieprawdziwej, nieistniejącej lub bezpodstawnie zmyślonej, ale przedstawionej w taki sposób, jakby była faktem. Sam natrafiłem na przestrzeni lat na wiele takich przypadków – od podawania nieistniejących źródeł, przez wymyślanie informacji historycznych, aż po branie z kosmosu odpowiedzi na zadania matematyczne czy fizyczne.
Idzie się złapać – sam niejednokrotnie się złapałem. Jak bardzo bym wolał, gdybym otrzymał szczerą odpowiedź „nie wiem”. I wiecie co? To chyba powoli staje się rzeczywistością. OpenAI chwaliło się, że najnowszy GPT-5 ma mieć ograniczoną skłonność do halucynowania. Względem modelu o3 ma dawać o ok. 80% mniej błędnych odpowiedzi. Nawet jeśli twórcom nie udało się zastąpić wszystkich błędnych odpowiedzi poprawnymi, to doceniam, że obudzili w chatbocie umiejętność powiedzenia szczerego „nie wiem”.
34 sekundy myślenia, aby wyrazić takie zwykłe, ludzkie „nie wiem”. Niektórzy niesłusznie stwierdzą, że to wyraz słabości sztucznej inteligencji. A ja twierdzę, że wręcz przeciwnie. To wielki krok naprzód. To w pewnym sensie świadomość, że ma nie odpowiadać na pytania, na które nie zna odpowiedzi. Tak zachowują się prawdziwi eksperci. Nie chcemy przecież, żeby naszym codziennym pomocnikiem był ktoś, którą jedną z cech charakteru jest „nie znam się, więc się wypowiem”, prawda?
Jeśli pod wrażeniem jest nawet sam Elon Musk, który żyje z CEO OpenAI, Samem Altmanem, w co najmniej chłodnych relacjach, to rzeczywiście jest coś na rzeczy. Tym bardziej, że GPT-5 jest póki co prawdopodobnie jedynym modelem, który zdobył się na odwagę, aby powiedzieć „nie wiem”.
Obserwuj nas w Google Discover
Podobają Ci się nasze treści?
Google Discover
Obserwuj