Technologia neutralna, skutki dramatyczne
Deepfake potrafi podrobić głos, twarz i gesty w sposób tak wiarygodny, że dla przeciętnego odbiorcy granica między prawdą a fałszem zaciera się całkowicie. Owszem, w kinie czy grach komputerowych to narzędzie twórcze i atrakcyjne. Problem zaczyna się wtedy, gdy ktoś używa go do oczerniania, szantażu czy kradzieży tożsamości. Wróblewski przywołał konkretne przypadki – od sfabrykowanych zdjęć nagiej uczennicy podstawówki, przez fałszywe reklamy z wykorzystaniem wizerunków lekarzy, aż po medialne fejki o śmierci dziennikarki.
Każdy z tych przykładów pokazuje inną sferę ryzyka – od szkolnego „żartu” mogącego zniszczyć życie młodej osoby, po działania wymierzone w autorytet zawodowy czy reputację publiczną. Do tego dochodzi jeszcze perspektywa manipulacji politycznych i zagrożeń dla bezpieczeństwa narodowego, o czym boleśnie przypomina kontekst wojny informacyjnej prowadzonej przez Rosję.
Luki w prawie
Teoretycznie katalog przepisów, które można zastosować wobec autorów deepfake’ów, nie jest krótki. Mamy ochronę dóbr osobistych w Kodeksie cywilnym, mamy przepisy karne dotyczące zniesławienia, szantażu czy rozpowszechniania treści pornograficznych. Jest też RODO, które traktuje wizerunek i głos jako dane osobowe. Problem w tym, że żadne z tych narzędzi nie działa szybko ani kompleksowo.
Sprawdź polecane oferty
RRSO 20,77%
Procedury sądowe ciągną się latami, a w internecie szkodliwe nagrania potrafią obiec świat w kilka godzin. Co gorsza, identyfikacja autorów takich materiałów bywa w praktyce niemożliwa. Ofiara zostaje więc sama wobec fali hejtu i fałszywych informacji, które mogą zrujnować jej życie zawodowe i prywatne.
Europejskie inspiracje
Prezes UODO wskazuje na przykłady z innych krajów. Dania pracuje nad przepisami, które dadzą obywatelom prawo żądania od platform internetowych szybkiego usuwania deepfake’ów i dochodzenia odszkodowania. W innych państwach pojawiają się pomysły na zobowiązanie serwisów społecznościowych do instalowania algorytmów automatycznie wykrywających i oznaczających zmanipulowane materiały.
To niełatwe zadanie, bo każda próba regulacji musi wyważyć dwie wartości – ochronę prywatności i wolności słowa. Zbyt szeroko zakreślone przepisy mogą prowadzić do cenzury prewencyjnej. Zbyt wąskie – okażą się kolejnym martwym zapisem.
Polska luka legislacyjna
Polski ustawodawca wciąż nie podjął systemowej próby zmierzenia się z problemem. A to zaskakujące, skoro od kilku lat obserwujemy nie tylko szybki rozwój technologii generatywnej, lecz także realne przypadki jej nadużyć. Co więcej, na horyzoncie mamy kolejne wybory – a kampanie wyborcze są idealnym polem do testowania deepfake’ów, które mogą wywołać chaos informacyjny i podważyć zaufanie obywateli do procesu demokratycznego.
Czy da się stworzyć prawo, które nadąży za technologią? Być może nie w stu procentach, ale brak reakcji to najgorsze z możliwych rozwiązań. Nawet częściowe narzędzia – takie jak obowiązek szybkiego usuwania treści na żądanie poszkodowanego czy mechanizmy odszkodowawcze – mogą powstrzymać część szkód i zniechęcić potencjalnych sprawców.
Wróblewski nie mówi jedynie o problemie – wskazuje też kierunek. Potrzebne są przepisy dedykowane deepfake’om, a nie tylko łatanie luk istniejącego prawa. Potrzebne są też narzędzia procesowe umożliwiające błyskawiczną reakcję. Inaczej za kilka lat każdy z nas może stać się bohaterem nagrania, które nigdy nie powstało – a konsekwencje tego będą bardziej realne niż jakikolwiek film.