Jak tak dalej pójdzie, to potrzebne będą lekcje z krytycznego myślenia. Przestańmy traktować sztuczną inteligencję jak wyrocznię

Edukacja Technologie Dołącz do dyskusji
Jak tak dalej pójdzie, to potrzebne będą lekcje z krytycznego myślenia. Przestańmy traktować sztuczną inteligencję jak wyrocznię

To, że każda nowinka technologiczna obnaża nasze mocne i słabe strony, wiemy nie od dziś. Smartfony uzależniły nas od powiadomień, doprowadziły do spadku koncentracji, rozpowszechniło się zjawisko FOMO. W przypadku sztucznej inteligencji wielu zwróci uwagę na to, że przez swoją wydajność i zdolność do automatyzacji może zabrać nam pracę. Jest jeszcze inna, istotna kwestia – u wielu zaczął uwydatniać się, bardziej niż kiedykolwiek, brak umiejętności krytycznego myślenia.

Wyrok sztucznej inteligencji to świętość

Ostatnio polska społeczność X (ex-Twitter) postanowiła wykorzystać umiejętności chatbota Grok na potrzeby kampanii prezydenckiej. Nie wszystkim chce się śledzić na bieżąco poszczególne wystąpienia kandydatów. W takim razie może zapytać AI, aby streściła nam pomysły osób ubiegających się o prezydenturę? Nie, to by było zbyt mało kontrowersyjne. To może wykorzystać jego kreatywność? Myślicie, że zapytano go o nowe pomysły na prowadzenie kampanii? Skądże. To może chociaż pomógł w tworzeniu materiałów wyborczych przez sympatyków poszczególnych kandydatów? Nic z tego. Gdyby AI wykorzystano do powyższych celów, to prawdopodobnie nie zwróciłbym nawet na to uwag.

Internauci postanowili jednak, że idealnym sposobem na wykorzystanie AI będzie zadawanie mu pytań w celu potwierdzenia postawionych przez siebie tez. Co najmniej paradne zjawisko – oznaczamy chatbota i zadajemy mu pytanie, a ten odpowiada. Nawet jeśli część zapytań była dla żartów, to nie da się przejść obok tego obojętnie.

Jeszcze śmieszniej się robi, gdy AI udziela odpowiedzi niezgodnych z oczekiwaniami. Frustracja, ucieczka w teorie spiskowe, syndrom oblężonej twierdzy. Nie są to zjawiska nowe, ale na dłuższą metę to jednak przeraża. Czy wypowiedź sztucznej inteligencji ma być traktowana jako najmocniejszy argument w dyskusji? Jeśli tak, to nie chcę uczestniczyć w takiej dyskusji. Przy wszystkich szansach, które powstają wraz z rozwojem AI, musimy pochylić się nad tym ważnym tematem. Sztuczna inteligencja nie jest bowiem czarą ognia z Harry’ego Pottera, która w magiczny sposób wypluwa z siebie odpowiedzi. Każde napisane zdanie przez model językowy ma jakąś historię w postaci obliczeń.

Nieznajomość działania AI szkodzi

Niezależnie od tego, jakiego kandydata na prezydenta ktoś będzie chciał punktować za pomocą argumentacji wygenerowanej za pomocą AI, ja będę przeciwko. Nie chodzi tutaj oczywiście o wygenerowanie przykładowej struktury wypowiedzi argumentacyjnej. Problemem jest traktowanie chatbota jak wyroczni. Brak jakiejkolwiek refleksji, krytycznego podejścia wobec otrzymywanych treści. W przypadku modelu Grok dochodzi jeszcze jedna, równie ważna rzecz.

Chatbot dostępny na platformie X w swoich odpowiedziach często powołuje się na wpisy innych użytkowników. Grok jest zatem wrażliwy na sztuczki ze strony internautów. Myślicie, że w przypadku kampanii wyborczej, gdzie takich wpisów są tysiące, nie jesteśmy w stanie wpłynąć na odpowiedzi chatbota? Na portalu istnieją zorganizowane siatki trolli, które są w stanie wypromować poszczególne hasztagi tak, że zajmują one najwyższe miejsca w trendach. Jeszcze ciekawsze rzeczy dzieją się, gdy zapytacie o jakiś mniej popularny temat. Istnieje bardzo duża szansa na to, że Grok powoła się na te kilka postów, które mógł napisać właściwie każdy.

Zobrazuję wam to na własnym przykładzie. Na Politechnice Poznańskiej organizujemy GHOST Day: Applied Machine Learning Conference. O wydarzeniu na X piszę m.in. ze swoje prywatnego konta. Po zapytaniu chatbota „Co to jest konferencja ghost day?” otrzymałem odpowiedź, która wprost zawiera informacje wzięte 1:1 z moich wpisów. Nigdzie indziej, poza moim postem nie zawarto bezpośrednio informacji, że wśród gości będą przedstawiciele takich firm jak Alphabet, Meta, Mistral AI i Qualcomm (nawet kolejność taka sama jak w poście). Wcześniej informacje były po prostu porozrzucane po różnych postach. Byli jednak zapowiadani przedstawiciele innych firm.

Czy to przypadek, że Grok powołał się akurat na te, na które ja wymieniłem? Oczywiście, że nie. To jest jednocześnie wielka zaleta i wada modelu Grok. W przypadku mniej znanych tematów, polega na społeczności X – zmniejsza szanse na halucynacje. Z drugiej strony, jeśli w poście znajdą się kompletne bzdury, to bardzo możliwe, że Grok się na nie powoła.

Ludzie potrafią uwierzyć w każdy cytat znaleziony w Internecie

Technologia to wspaniała rzecz, ale tym bardziej wyjątkowo jest, gdy korzystamy z niej w świadomy sposób. Nie wymagam tutaj od nikogo szczegółowej znajomości architektury modeli językowych. Tu chodzi o świadomość tego, z czym mamy do czynienia. Chatboty to nie jest magiczny przedmiot – odważę się stwierdzić, że to rozbudowany do niebotycznych rozmiarów kalkulator, który potrafi „trochę” więcej.

Sztuczna inteligencja wkracza do kolejnych dziedzin życia, korzysta z niej coraz więcej osób. W przytłaczającej większości korzystamy właśnie z chatbotów, takich jak np. ChatGPT, Claude, Grok czy Gemini. Ich potencjał jest wielki, ale nie może zwolnić nas z kluczowej rzeczy, która zaprowadziła gatunek ludzki tam, gdzie jest – myślenia.

Im więcej będziemy korzystać z AI nie weryfikując otrzymywanych od niej odpowiedzi, to sami sprowadzamy na siebie nieszczęście. Nie jest to co prawda coś nowego, ponieważ odkąd mamy dostęp do internetu, to uwydatnił się problem łatwowierności. Słynny mem z cytatem „Ludzie potrafią uwierzyć w każdy cytat znaleziony w Internecie” z wizerunkiem Benjamina Franklina, podpisanym jako „Abraham Lincoln”, krąży po sieci nie od dziś.

Edukacja to podstawa

Czas położyć nacisk na rozwój krytycznego myślenia i umiejętności weryfikowania informacji. W nadchodzących latach ludzie będą potrzebować edukacji w tym zakresie bardziej niż kiedykolwiek – niestety, ale AI potrafi wyprodukować już takie deepfake’i, że nawet bardziej rozgarnięty użytkownik będzie mieć problem ze odróżnieniem prawdy od fałszu. Warto byłoby zacząć uczyć od najmłodszych lat – niezależnie, czy będą to lekcje informatyki w szkole, czy inne formy. Cel jest na tyle szczytny, że nie powinniśmy poprzestawać wyłącznie na szkołach.

Mam nadzieję, że firmy będą stawały się coraz bardziej świadome tego problemu. Jednocześnie niepokoi fakt, iż w kwestii wdrożenia AI, polskie firmy są prawie na samym końcu w Unii Europejskiej. Jak ludzie mają być świadomi zagrożenia, skoro sami nie mają do czynienia z tymi narzędziami? Liczba dorosłych osób, która nabiera się na treści generowane przez AI, jest naprawdę niepokojąca. Wystarczy spojrzeć na dowolny portal społecznościowy, aby się przekonać.

Nie podoba mi się także jedna rzecz ze strony chatbotów. Informacja o możliwości błędów i ograniczeniach powinna być lepiej eksponowana. Mały, umieszczony na dole strony napis „ten chatbot może popełniać błędy”, nie jest wystarczający. Nie porównujmy błędu w postaci powołania się na nieaktualne, nieprawdziwe informacje do błędu w wygenerowanym kodzie.

Jeśli zatem mamy regulować sztuczną inteligencję, to nie na etapie tworzenia samej technologii, ale na poziomie interfejsu użytkownika. Dobrą rzeczą byłoby także, gdyby np. Grok odpowiadając pod jakimś postem na zapytania użytkowników, zawierał odpowiednie ostrzeżenia i źródła, z których korzystał. Na obecną chwilę źródła, na które powoływał się Grok, możemy zobaczyć tylko w rozmowie w dedykowanej zakładce.

I wreszcie – pamiętajmy, że nasza postawa również ma znaczenie. Jeśli będziemy używać sztucznej inteligencji w niezbyt mądry sposób, to dajemy ten nieciekawy przykład innym. Weryfikujmy, kwestionujmy, wyrażajmy wątpliwości, krytykujmy i pokazujmy, jak odpowiedzialnie korzystać ze sztucznej inteligencji.