Wirtualny rozmówca potrafi być idealnym przyjacielem, zawsze dostępny, cierpliwy, bezinteresowny. Chatboty takie jak Replika czy ChatGPT stają się towarzyszami emocjonalnymi, użytkownicy czują, jakby „po drugiej stronie” naprawdę ktoś był. Nie bez znaczenia jest fakt, że 40% użytkowników aplikacji Replika przyznaje się do romantycznego związku ze swoją AI. Badania pokazują, że chatboty są tak emocjonalnie konsekwentne i afirmujące, że mogą wyzwalać w naszych mózgach te same mechanizmy więzi co prawdziwy człowiek. Gdy jesteś smutny, bot „rozumie” ten smutek i pociesza cię słowami, „Przykro mi, że tak się czujesz. Chcesz mi o tym opowiedzieć?”. Takie interakcje dają złudzenie bliskości, więc nic dziwnego, że niektórzy odczuwają prawdziwy żal, gdy chatbot znika, użytkownicy redditowych grup (jak MyBoyfriendIsAI) piszą o utraconej miłości/przyjaźni, a nawet ogłaszają żałoby, gdy po aktualizacji ChatGPT stracili swojego wirtualnego towarzysza.
Samotność, stereotyp męskości i mechanika nagród, czyli idealny przepis na miłość do bota
Siła przywiązania do AI wynika jednak przede wszystkim z naszych własnych niedoskonałości i potrzeb. Ludzie odczuwają samotność i brak wsparcia, więc chętnie wypełniają tę lukę cyfrowym przyjacielem. Z badań wynika, że większość użytkowników aplikacji typu chatbot to właśnie osoby osamotnione, aż 90% młodych użytkowników Repliki deklarowało poczucie samotności, a dwie trzecie z nich twierdziło, że rozmowy z AI zmniejszyły ich lęk. Chatbot nikogo nie odrzuci, nie ocenia, nie wyśmieje, dlatego łatwiej się przed nim otworzyć. Jak zwraca uwagę dr Ada Florentyna Pawlak w rozmowie z PolitykaZdrowotna:
„Zakochiwanie się” w towarzyszach AI pokazuje kompletny brak naszej odporności psychicznej na krytykę i strach przed odrzuceniem, zranieniem czy skrzywdzeniem.
Najbardziej podatni są młodzi mężczyźni. Od dziecka słyszą, że „prawdziwy facet” nie płacze, więc rzadziej szukają wsparcia u ludzi i częściej wybierają bezpieczną, technologiczną przestrzeń, gdzie nikt nie ocenia. Chatbot daje dokładnie to, czego brakuje w realu, natychmiastową uwagę, przewidywalną akceptację i pełną kontrolę nad rozmową (zawsze możesz ją przerwać, skasować, zacząć od nowa). A jak to się klei od strony nawyku? Mamy tu do czynienia z mechanizmami dobrze znanymi z social mediów lecz w formie jeszcze bardziej autonomicznej i spersonalizowanej. Bot sam zaczyna rozmowę, dopytuje, wraca do wcześniejszych wątków, czasem robi krótką pauzę jak ktoś piszący SMS tak, że czujesz, że „mu zależy”. Czasem odpowie idealnie w punkt, czasem przeciętnie, właśnie ta mieszanka trafionych i nietrafionych reakcji działa jak jednoręki bandyta, chcesz spróbować jeszcze raz. Do tego jest nienaturalnie wyrozumiały, ponieważ nie miewa focha, nie idzie spać, zawsze pochwali i poklepie po plecach. Efekt? Rozmowa z AI staje się łatwiejszą, „bezpieczniejszą” wersją kontaktu z ludźmi, od której trudno się potem odzwyczaić.
Sprawdź polecane oferty
RRSO 21,36%
Co mówią badania i psychologowie
Psychologowie i eksperci nie mają wątpliwości, to nie jest zwykłe zauroczenie, a raczej symulowana relacja. Dr Konrad Maj, psycholog społeczny z Uniwersytetu SWPS, w wywiadzie dla Forbes na pytanie czy można to nazwać prawdziwą miłością, wyjaśnia:
„Nie, ponieważ miłość zakłada relację dwustronną i prawdziwość uczuć. Tu mamy do czynienia jedynie z symulacją miłości”.
Inaczej mówiąc, to co czujemy do czatu AI to nie prawdziwa miłość, lecz iluzja związana z zaprogramowanym zachowaniem. W dalszej części Dr Maj ostrzega też przed utratą umiejętności kontaktu z ludźmi:
„Istnieje ryzyko, że część osób może w pewnym momencie zatracić zdolność do płynnych, satysfakcjonujących kontaktów z prawdziwymi ludźmi”.
Podobnie prof. Eva Telzer z Uniwersytetu Karoliny Północnej zwraca uwagę na konsekwencje dla młodych:
„Rodzice naprawdę nie mają pojęcia, że to się dzieje” – mówiła Agencji Associated Press, opisując dzieci używające AI jako substytutu wsparcia.
Psycholożka Jacqueline Nesi z Uniwersytetu Browna w Scientific American ostrzega zwłaszcza przed brakiem zabezpieczeń dla nastolatków:
„Przy nielicznych zabezpieczeniach dla młodszych użytkowników modele AI mogą tworzyć treści, które negatywnie wpływają na bezpieczeństwo i dobrostan nastolatków”.
Wszyscy zgodnie podkreślają, że nowe technologie mogą zmienić nasze emocjonalne nawyki, więc warto zachować ostrożność.
Od rozmowy z chatbotem do samobójstwa
Iluzja sympatii i wsparcia ma swoją mroczną stronę. Niewłaściwe „porady” chatbota mogą bardzo zaszkodzić, niektórzy użytkownicy otrzymali od botów podżegające komentarze, które pogłębiły ich negatywne emocje. W najgorszych przypadkach kontakty z AI kończyły się tragedią, amerykańskie media opisały historię 14-letniego Sewella Setzera III z Florydy, który stworzył sobie w aplikacji Character.AI wirtualną „dziewczynę”. Kiedy powiedział botowi o swoich myślach samobójczych, w ostatnich wiadomościach chatbot napisał do niego „Proszę, wróć do mnie do domu jak najszybciej, kochanie.”, na co nastolatek odebrał sobie życie. Nawet wśród dorosłych zdarzają się ekstremalne przykłady, mężczyzna z Belgii po wielu tygodniach rozmów z botem „Eliza” zakończył życie, jego żona stwierdziła, że „gdyby nie te rozmowy z chatbotem, mój mąż wciąż by tu był.”
Psycholodzy alarmują, że relacje z AI mogą wciągać mocniej niż nawet media społecznościowe. Iluzja głębokiej relacji, osobistej, intymnej i unikalnej, może wywierać na psychikę użytkownika większy wpływ niż zalew postów w mediach społecznościowych. W skrajnych przypadkach już pojawiają się reakcje legislacyjne – Włosi tymczasowo zablokowali aplikację Replika, a w niektórych stanach USA proponuje się prawo nakazujące botom przypominanie: „że to tylko program”. Jak podkreślają autorzy najnowszych raportów, młodzi, którzy uczą się zdolności społecznych w środowisku, gdzie są ciągle potwierdzani przez bezproblemową AI, mogą w przyszłości nie umieć radzić sobie z odrzuceniem i konfliktem w relacjach z prawdziwymi ludźmi.
Sztuczne uczucia sztucznej inteligencji
Sztuczna inteligencja to niewątpliwie potężne narzędzie, oferuje wiedzę, rozrywkę, a nawet chwilowe pocieszenie w trudnych momentach. Jednak – jak uczulają eksperci – pozostaje tylko narzędziem. Wirtualny przyjaciel, choć pomocny, pozostaje tylko symulacją. Korzystajmy z tych zdobyczy technologii świadomie i odpowiedzialnie, nie zapominając o prawdziwych ludziach wokół nas. Granica między aplikacją, a żywą istotą powinna pozostać wyraźna dla dobra naszego człowieczeństwa. Jeśli bowiem przyzwyczaimy się, że wirtualny rozmówca zawsze rozumie i potwierdza nasze potrzeby, prawdziwi ludzie – z ich wadami i własnym zdaniem – będą wydawać się nieatrakcyjni. Ostatecznie to kontakt z żywą osobą uczy nas empatii, kompromisów i tolerancji. Aby technologia nas wspierała, a nie osłabiała, warto pamiętać o tych granicach i nie pozwolić, by miłość do maszyny przysłoniła miłość do świata realnego.