Czy deepfake – wstawianie twarzy celebrytów lub znajomych do filmów pornograficznych – jest legalny?

Gorące tematy Technologie Zbrodnia i kara dołącz do dyskusji (48) 01.02.2018
Czy deepfake – wstawianie twarzy celebrytów lub znajomych do filmów pornograficznych – jest legalny?

Marek Krześnicki

Deepfake to określenie na filmy pornograficzne, w których twarz prawdziwych aktorek porno zostaje zastąpiona – dzięki użyciu prostej aplikacji – twarzą celebrytki. Albo sąsiadki. Byłej dziewczyny. Koleżanki z pracy. Czy takie przeróbki są jednak legalne? Czy można skutecznie walczyć z filmami i ich twórcami?

Rozwój technologii w ostatnich latach jest niesamowity. Jeszcze niedawno fascynowaliśmy się możliwością wysyłania MMS-ów albo ustawiania kolorowych tapet na swoich telefonach, a teraz telefonami smartfonami nagrywa się hollywoodzkie filmy. Moc obliczeniowa współczesnych komputerów pozwala (nawet jeśli posiadamy wadliwy procesor Intel) na tworzenie rzeczy, o jakich jeszcze niedawno byśmy nie pomyśleli, że są możliwe.

Przykładem tego są filmy pornograficzne nazywane „deepfake”. Są to zwykłe filmy pornograficzne, które zostały następnie poddane obróbce polegającej na zamianie twarzy aktorki (rzadziej aktora) na twarz celebrytki, znanej hollywoodzkiej gwiazdy, ale również znanej autorowi przeróbki osoby publicznie nieznanej, np. sąsiadki, byłej lub obecnej dziewczyny, koleżanki z pracy czy ze szkoły. I żeby nie było wątpliwości – przeróbki te są dokonywane z reguły (o ile nie zawsze) bez zgody osób zainteresowanych. Łatwość, z jaką można to zrobić – i to za pomocą darmowego oprogramowania, które wystarczy „nakarmić” zdjęciami z Facebooka czy Instagrama – jest nieco przerażająca. Choć twórcy takich dzieł twierdzą, że robią to w szczytnym celu, a deepfake to przyszłość mediów. A najgorsze w tej sytuacji jest to, że efekt końcowy jest niemal nie do odróżnienia od prawdziwych, nieprzerobionych filmów.

Deepfake jest niemoralny, ale co na to prawo?

Deepfake to bardzo świeże zjawisko, które pojawiło się najpierw w serwisie Reddit, a następnie zostało opisane m.in. na portalu Motherboard. Z oczywistych względów nie jest to zatem coś, co będzie opisane w przepisach prawa. Zdaje się również, że póki co żaden sąd również nie musiał się tą kwestią zajmować. Ale z pewnością takie techniki będą coraz popularniejsze, nawet, jeśli ich moralna ocena jest raczej naganna – przynajmniej w przypadku publikacji efektów takiej twórczej działalności. Jakie prawa przysługują mimowolnej bohaterce takiego fejkowego filmu?

Z pewnością taka publikacja stanowi naruszenie dóbr osobistych, choćby w postaci wizerunku i czci:

Dobra osobiste człowieka, jak w szczególności zdrowie, wolność, cześć, swoboda sumienia, nazwisko lub pseudonim, wizerunek, tajemnica korespondencji, nietykalność mieszkania, twórczość naukowa, artystyczna, wynalazcza i racjonalizatorska, pozostają pod ochroną prawa cywilnego niezależnie od ochrony przewidzianej w innych przepisach.

To jednak przepisy cywilne, które mogą pozwolić na ewentualne uzyskanie odszkodowania czy przeprosin. A to nie jest takie łatwe, zwłaszcza, gdy autor filmu nie jest znany ofierze. Ale czy są przepisy, które pozwoliłyby za zaangażowanie w to Policji czy prokuratury? Wydaje się, że – z uwagi na brak przepisów wprost odnoszących sie do zjawiska deepfake, lub podobnego – najbliższy takiemu stanowi faktycznemu będzie art. 216 kodeksu karnego (choć i to przestępstwo jest ścigane z oskarżenia prywatnego):

Kto znieważa inną osobę za pomocą środków masowego komunikowania, podlega grzywnie, karze ograniczenia wolności albo pozbawienia wolności do roku.

Jeśli deepfake okaże się popularnym zjawiskiem (a póki co nie można tego wykluczyć), wydaje się, że racjonalne będzie uchwalenie nowych przepisów, które pozwoliłyby na tego rodzaju posługiwanie się cudzym wizerunkiem. Póki co ofiary takich przeróbek, jeśli w ogóle dowiedzą się o istnieniu filmu z ich „udziałem”, muszą same walczyć o swoje prawa.

Reddit zamyka alternatywną rzeczywistość, w której „kobiety lubią być gwałcone”