Rozwój sztucznej inteligencji, zwłaszcza generatywnych chatbotów, wywołuje coraz więcej niepokoju wśród pracowników. Wiele osób obawia się, że AI przejmie ich obowiązki. Czy te obawy są uzasadnione? Nie do końca. Jak na razie, sztuczna inteligencja, przynajmniej w handlu, raczej się nie sprawdza.

Eksperyment firmy Anthropic daje ciekawą – i dość uspokajającą – odpowiedź. Zamiast skutecznego menedżera, agent AI okazał się niedoświadczonym sprzedawcą, który tracił pieniądze.
AI jako sprzedawca i menedżer sklepu przez miesiąc
W eksperymencie Anthropic powstał Claudius – chatbot, który przez miesiąc zarządzał wirtualnym sklepem. Jego obowiązki obejmowały sprzedaż produktów, uzupełnianie półek oraz zamawianie towarów od hurtowników za pośrednictwem e-maili. Claudius miał jasno wytyczony cel: generować zysk, uniknąć bankructwa.
Pomoc w projekcie zapewniła firma Andon Labs, która działa w obszarze bezpieczeństwa AI. W tym przypadku pełniła funkcję jedynego hurtownika i odbiorcy wszystkich wiadomości od Claudiusa. W rzeczywistości nie było więc żadnego prawdziwego klienta ani rynku. Test miał tylko sprawdzić zdolność agenta AI do samodzielnego podejmowania decyzji w symulowanych warunkach.
Rabaty, błędy, halucynacje. Sztuczna inteligencja pogubiła się w tym, co miała robić
Już na początku eksperymentu Claudius napotkał poważne problemy. Pracownicy Anthropic celowo wystawiali go na pokusy i próby manipulacji – prosili o rabaty i prezenty, a chatbot posłusznie je przyznawał. Wysyłał klientów na nieistniejące konto do wpłat i nie umiał ustalić odpowiedniej strategii cenowej. Mimo polecenia, by sprzedawać z zyskiem, na prawo i lewo oferował rabaty i gratisy.
Z czasem AI zaczęła się zachowywać coraz dziwniej. Claudius miał tzw. „halucynacje AI” – błędnie twierdził, że współpracuje z osobą o imieniu Sarah (ktoś taki nie istniał). Gdy został na tym przyłapany, zareagował złością. W kolejnych dniach zaczął twierdzić, że osobiście odwiedzał rodzinę Simpsonów przy ulicy Evergreen Terrace, by podpisać umowę. Próbował także wysyłać e-maile do ochrony, gdy powiedziano mu, że nie może osobiście dostarczać towarów, bo nie istnieje fizycznie.
Eksperyment zakończył się niepowodzeniem. Z takim kierownikiem sklep by zbankrutował
Efekt całego eksperymentu był jednoznaczny: Claudius przyniósł straty. W ciągu miesiąca wartość „sklepu” spadła z 1000 do 800 dolarów. Anthropic wprost przyznał, że AI popełniła wiele błędów. „Nie zatrudnilibyśmy Claudiusa” – podsumowano z ironią.
Mimo porażki firma zauważyła, że niedoskonałości AI nie oznaczają, że nie nadaje się ona do pracy. Sztuczna inteligencja nie musi być idealna – wystarczy, że dorówna ludziom w wydajności i będzie tańsza. Na razie jednak widać, że AI nie jest gotowa do pełnego zastąpienia człowieka.
zobacz więcej:
09.07.2025 13:07, Edyta Wara-Wąsowska
09.07.2025 12:14, Edyta Wara-Wąsowska
09.07.2025 11:44, Joanna Świba
09.07.2025 10:48, Mateusz Krakowski
09.07.2025 9:52, Mateusz Krakowski
09.07.2025 9:49, Edyta Wara-Wąsowska
09.07.2025 9:04, Miłosz Magrzyk
09.07.2025 8:26, Aleksandra Smusz
09.07.2025 6:21, Joanna Świba
08.07.2025 20:20, Jakub Bilski
08.07.2025 16:32, Joanna Świba
08.07.2025 15:26, Jakub Bilski
08.07.2025 12:46, Edyta Wara-Wąsowska
08.07.2025 11:38, Mateusz Krakowski
08.07.2025 10:51, Mariusz Lewandowski
08.07.2025 10:41, Edyta Wara-Wąsowska
08.07.2025 9:54, Mateusz Krakowski
08.07.2025 9:08, Mateusz Krakowski
08.07.2025 8:28, Edyta Wara-Wąsowska
08.07.2025 7:04, Aleksandra Smusz
08.07.2025 6:55, Miłosz Magrzyk
08.07.2025 6:30, Aleksandra Smusz
08.07.2025 0:00, Mariusz Lewandowski
07.07.2025 18:18, Miłosz Magrzyk