Dla dorosłego to tylko chwilowa konsternacja. Dla kilkulatka zaś, potencjalny koszmar na całą noc. Sprawa trafiła przed Komisję Etyki Reklamy, która musiała odpowiedzieć na pytanie: czy platforma naruszyła zasady ochrony najmłodszych widzów?
Skarga rodzica: „To może wywołać strach i niepokój”
W zgłoszeniu do KER rodzic opisał sytuację jako rażące niedopasowanie treści reklam do odbiorcy. Twierdził, że niemal za każdym razem, gdy dzieci oglądają bajki w serwisie CDA, w przerwach pojawiają się spoty promujące filmy grozy, pełne drastycznych ujęć. Wskazał, że takie obrazy mogą wywołać stres, lęk i negatywnie wpłynąć na psychikę dziecka.
Czytaj też: Postanowiłem sprawdzić czy CDA.pl jest pirackim serwisem i jedno jest pewne: nie wygląda to normalnie
Sprawdź polecane oferty
RRSO 21,36%
W argumentacji padły konkretne przepisy Kodeksu Etyki Reklamy i Karty Ochrony Dzieci w Reklamie, które zabraniają prezentowania scen przemocy czy treści mogących negatywnie oddziaływać na rozwój małoletnich, zwłaszcza w kontekście emisji przy audycjach dla dzieci.
CDA: mamy zabezpieczenia, ale…
Platforma nie zaprzeczyła, że taka sytuacja miała miejsce, ale wskazała, że problem wynikał z błędnego oznaczenia materiału przez użytkownika serwisu. CDA działa bowiem w dwóch modelach: jako klasyczna usługa VOD z filmami i serialami oraz jako hosting wideo, gdzie treści wrzucają sami użytkownicy.
Według CDA, w tym przypadku film znajdował się w katalogu „Wideo użytkowników” i został przez autora oznaczony jako nadający się dla dzieci, mimo że nie był to wybór trafny. System reklamowy dopasował więc promowany materiał do błędnej kategorii wiekowej.
Spółka przypomniała, że teoretycznie z platformy mogą korzystać tylko dorośli lub małoletni za zgodą rodziców, ale w praktyce dzieci łatwo omijają regulaminowe zapisy. Wskazano też, że serwis stosuje profile dziecięce, oznaczenia wiekowe i algorytmy dobierające reklamy do treści, a także umożliwia zgłaszanie materiałów. Zapowiedziano jednak, że w związku z rosnącą skalą problemu firma wdraża narzędzie oparte na sztucznej inteligencji, które automatycznie rozpozna i sklasyfikuje treści dla najmłodszych.
Komisja: brak naruszenia, ale trzeba działać ostrożniej
Zespół Orzekający KER obejrzał przesłane przez rodzica zrzuty ekranu. Potwierdził, że autopromocyjne materiały CDA z horrorów faktycznie pojawiły się przy emisji bajki. Jednak po analizie uznał, że nie doszło do naruszenia zasad etyki reklamy.
CDA stosuje mechanizmy ochrony, a problem wynikał z błędu użytkownika, który błędnie zakwalifikował swój materiał. W modelu hostingu platforma nie ma obowiązku prewencyjnego monitorowania każdej treści - reaguje dopiero po zgłoszeniu. Odpowiedzialność za właściwe oznaczenie w pierwszej kolejności spoczywa więc na osobie publikującej.
Mimo to KER zaleciła usunięcie feralnych materiałów i wdrożenie dodatkowych procedur, które utrudnią publikowanie źle oznaczonych filmów oraz pozwolą szybciej reagować na wątpliwe treści.
Problem szerszy niż CDA
Algorytmy i oznaczenia wiekowe w serwisach wideo bywają zawodne. Wystarczy, że użytkownik kliknie niewłaściwą kategorię, a system „uwierzy” i dobierze reklamy bez dodatkowej weryfikacji. Na YouTube, Twitchu czy TikToku również zdarzały się podobne incydenty – często kończące się publiczną burzą i kolejnymi aktualizacjami systemów moderacji.
W tle jest też pytanie o granice odpowiedzialności platform. Prawo pozwala im działać w modelu „reaktywnym” – czyli usuwać treści dopiero po zgłoszeniu – ale w przypadku dzieci oczekiwania społeczne są znacznie wyższe. Rodzic nie interesuje się tym, czy materiał wrzucił użytkownik, czy sama platforma – liczy się efekt: jego dziecko zobaczyło coś, czego nie powinno.
Ostatecznie KER skargę oddaliła, ale zaleciła CDA wzmożoną czujność i wprowadzenie skuteczniejszych filtrów. Platforma obiecuje, że już pracuje nad rozwiązaniem z wykorzystaniem sztucznej inteligencji. Czy to wystarczy, by podobne sytuacje się nie powtórzyły? Czas pokaże.