- Bezprawnik -
- Prawo -
- Twoja twarz jest chroniona. Twój głos — niekoniecznie. Gigantyczna luka w polskim prawie
Twoja twarz jest chroniona. Twój głos — niekoniecznie. Gigantyczna luka w polskim prawie
Do niedawna wydawało się, że to twarz jest głównym nośnikiem tożsamości w świecie cyfrowym i to ją chronią przepisy o wizerunku, a jej bezprawne wykorzystanie budzi największe emocje. Tymczasem rozwój sztucznej inteligencji pokazał, że równie ważny, a może nawet trudniejszy do ochrony, jest głos. Dziś wystarczy kilkadziesiąt sekund nagrania, aby algorytm był w stanie odtworzyć barwę głosu konkretnej osoby i wygenerować dowolną wypowiedź. Problem w tym, że polskie prawo wciąż nie wie, jak taki przypadek zakwalifikować.

Pierwszy test systemu — pozew o „kradzież głosu"
W 2025 roku do polskich sądów trafiły pierwsze sprawy dotyczące wykorzystania syntetycznego głosu w reklamie. Mechanizm był dosyć prosty: nagrania znanego lektora posłużyły do wytrenowania modelu AI, który następnie wygenerował wypowiedzi brzmiące niemal identycznie jak oryginał. Reklama została opublikowana, a odbiorcy nie byli w stanie odróżnić sztucznego głosu od prawdziwego. Pojawiło się pytanie — czy to jeszcze inspiracja, czy już kradzież?
Ochrona głosu w Kodeksie cywilnym — konstrukcja zastępcza
Główny problem polega na tym, że polskie przepisy nie znają pojęcia „kradzieży głosu". W praktyce prawnicy sięgają do istniejących konstrukcji, przede wszystkim do Kodeksu cywilnego. Zgodnie z art. 23 k.c. dobra osobiste człowieka obejmują m.in. wizerunek, cześć czy prywatność, a katalog ten jest otwarty. Często to właśnie jest podstawą do uznawania, że głos — jako swoisty element identyfikujący daną osobę — również podlega ochronie. Dodatkowo art. 24 k.c. przewiduje możliwość dochodzenia roszczeń w przypadku naruszenia dóbr osobistych, w tym żądania zaniechania, przeprosin czy odszkodowania.
Można jednak przyznać, że to raczej konstrukcja „zastępcza". Wizerunek ma swoją ugruntowaną pozycję także w Ustawie o prawie autorskim i prawach pokrewnych z 4 lutego 1994 r., gdzie jego rozpowszechnianie co do zasady wymaga zgody osoby przedstawionej (art. 81). Głos nie doczekał się podobnej, jednoznacznej regulacji. W efekcie powstaje luka prawna — coś, co w praktyce pełni funkcję identyfikacyjną porównywalną z twarzą, nie jest objęte równie precyzyjną ochroną. Dla porównania — orzecznictwo wypracowało z czasem ramy nawet dla tak kontrowersyjnych przypadków jak ochrona wizerunku złodzieja, podczas gdy sytuacja lektora, którego głos został sklonowany przez AI, nie ma analogicznej podstawy w ustawie.
Granica między inspiracją a bezprawnym wykorzystaniem
Kwestia jeszcze bardziej się komplikuje, gdy klonowanie głosu ma charakter komercyjny. Jeśli syntetyczny głos wykorzystywany jest w reklamie, pojawia się aspekt zarobkowy. W takim przypadku można mówić nie tylko o naruszeniu dóbr osobistych, ale także o bezprawnym wykorzystaniu czyjegoś „dorobku" zawodowego. Problem w tym, że prawo nie określa jasno, gdzie przebiega granica między inspiracją a bezprawnym wykorzystaniem. Czy głos „podobny" do znanego lektora to już naruszenie? A co, jeśli jest niemal identyczny, ale formalnie wygenerowany przez AI?
Odpowiedzialność karna — art. 190a i 286 k.k.
Część prawników uważa, że zastosowanie mogą mieć w opisywanej sytuacji przepisy karne. W grę może wchodzić art. 190a § 2 k.k., który penalizuje podszywanie się pod inną osobę w celu wyrządzenia jej szkody majątkowej lub osobistej, oraz art. 286 k.k. (oszustwo). W przypadku wykorzystania sklonowanego głosu do oszustwa, na przykład wyłudzenia pieniędzy, przepis ten może znaleźć zastosowanie — pokazuje to choćby sprawa, w której deepfake oszukał bank na 25 mln dolarów — w Polsce może być podobnie. Jednak w sytuacjach reklamowych czy marketingowych, gdzie nie zawsze dochodzi do oczywistej szkody, użycie tych przepisów jest znacznie trudniejsze. Warto dodać, że odpowiedzialności karnej za tego typu podszywanie się pod kogoś dotyczy też szerszy problem tożsamości w sieci — dobrym przykładem tego, co grozi za catfishing, jest właśnie art. 190a k.k., stosowany wobec osób tworzących fałszywe profile na bazie cudzych danych.
RODO a dane głosowe — czy zgoda została udzielona?
Dodatkowym poziomem ochrony jest Rozporządzenie o Ochronie Danych Osobowych (RODO). Jeśli głos pozwala zidentyfikować osobę, może być uznany za dane osobowe (art. 4 pkt 1 RODO). Wówczas jego przetwarzanie – np. wykorzystanie nagrań do trenowania modelu AI – wymaga podstawy prawnej, najczęściej zgody (art. 6 ust. 1 lit. a RODO). W praktyce jednak wiele systemów sztucznej inteligencji uczy się na danych dostępnych publicznie, co rodzi pytanie, czy taka zgoda rzeczywiście została udzielona i czy spełnia wymogi świadomego, konkretnego i dobrowolnego oświadczenia woli.
Co zmieniają regulacje unijne?
Na poziomie europejskim trwają prace nad regulacjami dotyczącymi sztucznej inteligencji, które mają wprowadzić większą przejrzystość w zakresie deepfake'ów. Nie rozwiązują one jednak wprost problemu ochrony głosu jako elementu tożsamości. Debata o tym, czy i w jakim zakresie sztuczna inteligencja powinna mieć osobowość prawną, również nie przybliża nas do odpowiedzi na pytanie, kto ponosi odpowiedzialność za syntetyczny głos wygenerowany bez zgody człowieka. W efekcie nadal mamy do czynienia z sytuacją, w której kluczowy element identyfikacji człowieka funkcjonuje na obrzeżach systemu prawnego.
Potrzeba nowych przepisów — głos jako odrębne dobro osobiste
Całość prowadzi do wniosku, że mamy do czynienia z klasycznym konfliktem, kiedy prawo próbuje gonić cyfrową rzeczywistość. O ile ochrona twarzy i wizerunku została już dobrze uregulowana, o tyle ochrona „tożsamości głosowej" dopiero się kształtuje. Tymczasem dla wielu osób — zwłaszcza lektorów, aktorów czy dziennikarzy — głos jest nie tylko elementem tożsamości, ale także źródłem dochodu.
Czy rozwiązaniem powinno być wprowadzenie nowych przepisów? Coraz więcej wskazuje na to, że tak. Zasadny wydaje się kierunek, aby uznać głos za odrębne dobro osobiste wprost w ustawie albo rozszerzyć ochronę wizerunku o elementy dźwiękowe. Bez tego kolejne sprawy będą rozstrzygane na podstawie nie do końca dopasowanych regulacji, co oznacza niepewność zarówno dla twórców, jak i dla firm korzystających z AI.
16.04.2026 14:26, Aleksandra Smusz
16.04.2026 13:41, Piotr Janus
16.04.2026 12:53, Edyta Wara-Wąsowska
16.04.2026 12:13, Marcin Szermański
16.04.2026 11:25, Piotr Janus
16.04.2026 10:39, Edyta Wara-Wąsowska
16.04.2026 10:00, Marcin Szermański
16.04.2026 9:26, Mateusz Krakowski
16.04.2026 8:43, Edyta Wara-Wąsowska
16.04.2026 7:48, Jakub Bilski
16.04.2026 6:59, Mateusz Krakowski

Tor Poznań znów otwarty po 24 godzinach. GIOŚ złamał się pod presją całego internetu i na złość deweloperom
15.04.2026 23:04, Jakub Bilski
15.04.2026 19:25, Jerzy Wilczek
15.04.2026 15:36, Aleksandra Smusz

Koniec z „byciem gościem u taty" po rozwodzie rodziców. Ten model opieki stawia dziecko na pierwszym miejscu
15.04.2026 14:47, Miłosz Magrzyk
15.04.2026 14:03, Piotr Janus
15.04.2026 13:19, Rafał Chabasiński
15.04.2026 12:31, Edyta Wara-Wąsowska
15.04.2026 11:43, Joanna Świba
15.04.2026 10:49, Joanna Świba
15.04.2026 10:02, Edyta Wara-Wąsowska
15.04.2026 9:20, Mateusz Krakowski
15.04.2026 8:34, Edyta Wara-Wąsowska
15.04.2026 7:48, Joanna Świba
15.04.2026 7:12, Joanna Świba

W Poznaniu zamykają jedyny poważny tor samochodowy, bo kilka lat temu pobudowali się obok niego ludzie
14.04.2026 20:33, Jakub Bilski
14.04.2026 19:48, Filip Dąbrowski
14.04.2026 19:17, Filip Dąbrowski



























