- Home -
- ecommerce -
- Twoja ulubiona influencerka nie istnieje. Tak marki oszukują Polaków za pomocą sztucznej inteligencji
Twoja ulubiona influencerka nie istnieje. Tak marki oszukują Polaków za pomocą sztucznej inteligencji
Od kilku lat głównym problemem w internecie były fałszywe opinie pisane przez ludzi na zlecenie. Legendarne już farmy troli. Dziś ten etap wydaje się niemal niewinny. W jego miejsce pojawia się coś znacznie bardziej wyrafinowanego — hiperrealistyczne awatary AI, które wyglądają, mówią i „doświadczają" produktów tak przekonująco, że dla odbiorcy stają się nieodróżnialne od prawdziwych klientów.

Awatary AI w marketingu — gdzie kończy się kreacja, a zaczyna manipulacja?
Czy to jest jeszcze marketing w klasycznym sensie? Problem zaczyna się wtedy, gdy odbiorca nie jest w stanie odróżnić fikcji od autentycznej opinii. W tym momencie nie mówimy już o kreatywnym marketingu, lecz o potencjalnym wprowadzaniu w błąd. Fałszywe opinie w internecie to zjawisko znane od lat, ale sztuczna inteligencja przenosi je na zupełnie nowy poziom — poziom, na którym weryfikacja autentyczności staje się niemal niemożliwa gołym okiem.
Polskie prawo wobec fałszywych recenzji generowanych przez AI
Co na to regulacje prawne? Prawo, przynajmniej na pierwszy rzut oka, jak zwykle wydaje się spóźnione. Tyle że to tylko część prawdy. Jeśli przyjrzeć się bliżej, okaże się, że polskie regulacje od dawna zakazują dokładnie tego, co dziś robią niektóre marki z pomocą AI.
Ustawa o zwalczaniu nieuczciwej konkurencji nie zna pojęcia „awatara" ani „modelu generatywnego", ale zna coś ważniejszego — zakaz reklamy wprowadzającej w błąd (art. 16 ust. 1 pkt 2) i zakaz reklamy udającej neutralną informację (art. 16 ust. 1 pkt 4). Trudno o lepszy opis sytuacji, w której wygenerowany bot podszywa się pod zadowolonego klienta. Nie trzeba dopisywać „AI" do ustawy, by uznać, że coś jest nieuczciwe.
UOKiK i ochrona zbiorowych interesów konsumentów
Podobnie skuteczna może być ustawa o ochronie konkurencji i konsumentów, która daje narzędzia Urzędowi Ochrony Konkurencji i Konsumentów (UOKiK) w postaci art. 24 zakazującego praktyk naruszających zbiorowe interesy konsumentów — w tym przekazywania informacji nierzetelnych lub nieprawdziwych. Jeśli jakaś marka masowo generuje opinie AI, przestaje to być kreatywny marketing. Zaczyna to wyglądać jak systemowe wprowadzanie w błąd, a za takie działania grożą poważne kary za fałszywe opinie w sieci.
Dyrektywa Omnibus i europejskie regulacje transparentności
Na poziomie europejskim obraz jest jeszcze ciekawszy. Dyrektywa Omnibus, wprowadzona zanim AI na dobre weszła do mainstreamu, nakłada na firmy obowiązek informowania, czy publikowane opinie pochodzą od rzeczywistych użytkowników. Innymi słowy — ustawodawca przewidział problem, zanim zobaczył jego najbardziej zaawansowaną formę.
Na gruncie europejskim dochodzą też nowsze regulacje, jak Digital Services Act i AI Act, które systemowo wzmacniają obowiązek transparentności. Nie stanowią jeszcze wprost, że twórca treści musi oznaczyć każdą opinię wygenerowaną przez AI, ale mówią coś równie istotnego — że użytkownik nie może być wprowadzany w błąd co do natury treści, z którą ma do czynienia.
Symulacja doświadczenia kontra autentyczna rekomendacja
W tym miejscu dotykamy sedna problemu, którym nie jest to, czy AI może być dozwolone w marketingu. Odpowiedź w dzisiejszych czasach jest oczywista. Problem dotyczy tego, czy wolno używać AI do udawania człowieka w sytuacji, w której autentyczność ma kluczowe znaczenie.
W klasycznym rozumieniu rekomendacja konsumencka powinna wynikać z realnego doświadczenia. Jeśli treść jest wygenerowana przez AI i podszywa się pod użytkownika, mamy do czynienia z symulacją doświadczenia, a nie jego relacją. Jakościowo bliżej tutaj do fałszywej recenzji niż do reklamy. Dla sprzedawców kluczowe staje się więc to, jak rozpoznać fałszywe opinie — także te generowane przez sztuczną inteligencję.
Analogia do oznaczeń #ad u influencerów
Nasuwa się w tym miejscu porównanie do oznaczeń #ad, które muszą być stosowane przez influencerów na Instagramie, TikToku czy YouTube, aby oznaczyć współpracę komercyjną. Oznaczenie takie ujawnia wobec odbiorców tych treści, że ich twórca za swoje treści otrzymał wynagrodzenie. Potencjalny obowiązek oznaczenia „Generated by AI" ujawniałby coś jeszcze ważniejszego — brak realnego doświadczenia z produktem czy usługą, co powinno stanowić fundament opinii.
Czy UOKiK powinien karać za brak oznaczenia treści AI?
Czy UOKiK powinien karać za brak takiego oznaczenia? W wielu przypadkach już dziś mógłby. Nie dlatego, że istnieje przepis o AI, ale dlatego, że istnieją przepisy o wprowadzaniu w błąd. Prawo nie musi nadążać za technologią w każdym szczególe. Wystarczy, że konsekwentnie egzekwuje już istniejące normy. Szczególnie że w przypadku braku prawidłowego oznaczenia treści komercyjnych w mediach społecznościowych już takie kary nakładał.
Problemem jest rozbieżność teorii z praktyką. Organy regulacyjne działają ostrożnie, a rynek wręcz przeciwnie — testuje granice z maksymalną prędkością. AI daje narzędzia do skalowania manipulacji na poziomie, który jeszcze kilka lat temu był nieosiągalny. Setki, tysiące „opinii" prezentowanych przez hiperrealistyczne awatary, które nigdy nie powstały w ludzkiej głowie, mogą dziś wpływać na realne decyzje zakupowe.
Erozja zaufania jako największe zagrożenie dla e-commerce
Największe ryzyko nie stanowi jedno czy drugie oszustwo — one zawsze były, są i będą. Największym zagrożeniem jest powszechna erozja zaufania. Jeśli użytkownicy zaczną podejrzewać, że każda opinia może być sztuczna, przestaną wierzyć w jakiekolwiek. Wówczas stracą na tym wszyscy — konsumenci, platformy i uczciwe firmy. Niestety, jak pokazuje praktyka, fałszywe opinie w sklepach internetowych nie znikną z dnia na dzień nawet mimo nowych regulacji.
Dlatego pytanie „czy to legalne?" jest w gruncie rzeczy mało istotne. Ważniejsze brzmi: jak długo rynek może funkcjonować, jeśli granica między doświadczeniem a jego symulacją całkowicie się rozmyje?
AI nie stworzyło nowego problemu — tylko go udoskonaliło
AI nie stworzyło nowego problemu — on zawsze istniał. Fałszywa opinia zawsze była nieuczciwa. Rozwój technologiczny po prostu sprawił, że stary problem fałszywej rekomendacji stał się tańszy, szybszy i niemal doskonały.
A prawo? Ono już ma dobre narzędzia — tylko musi przestać udawać, że nie widzi, jak bardzo zmieniła się rzeczywistość.
zobacz więcej:
25.03.2026 11:32, Aleksandra Smusz
25.03.2026 10:22, Miłosz Magrzyk
25.03.2026 10:04, Mariusz Lewandowski

Twoja ulubiona influencerka nie istnieje. Tak marki oszukują Polaków za pomocą sztucznej inteligencji
25.03.2026 9:45, Piotr Janus
25.03.2026 8:47, Piotr Janus
25.03.2026 8:30, Rafał Chabasiński
25.03.2026 8:00, Aleksandra Smusz
25.03.2026 7:44, Rafał Chabasiński

Sprzedajesz na Allegro bez firmy? Ten program zwiększa sprzedaż, ale mało kto wie, że może z niego korzystać
25.03.2026 7:11, Aleksandra Smusz

Trzy dni i do domu – tak szpital potraktował ciężko chorą kobietę, która nie mogła samodzielnie wstać
25.03.2026 6:34, Joanna Świba
24.03.2026 22:27, Filip Dąbrowski
24.03.2026 22:11, Filip Dąbrowski
24.03.2026 21:52, Marcin Szermański

Polskie prawo niby gnębi szarlatanerię, ale prawo unijne chroni homeopatów, co utrudnia walkę z tym zjawiskiem
24.03.2026 20:11, Rafał Chabasiński
24.03.2026 19:41, Mateusz Krakowski
24.03.2026 19:25, Mariusz Lewandowski
24.03.2026 12:17, Miłosz Magrzyk
24.03.2026 12:06, Aleksandra Smusz
24.03.2026 11:56, Mateusz Krakowski
24.03.2026 11:47, Rafał Chabasiński
24.03.2026 10:20, Miłosz Magrzyk
24.03.2026 8:01, Rafał Chabasiński
24.03.2026 7:35, Mariusz Lewandowski
24.03.2026 6:21, Mariusz Lewandowski

20 mln euro z Brukseli dla ukraińskich startupów. Balony zamiast dronów i woda pitna w strefach wojennych
23.03.2026 17:33, Mariusz Lewandowski
23.03.2026 12:04, Aleksandra Smusz
23.03.2026 11:21, Jakub Bilski
23.03.2026 10:12, Jerzy Wilczek

























