- Home -
- Technologie -
- Deepfake oszukał bank na 25 mln dolarów. W Polsce może być podobnie
Deepfake oszukał bank na 25 mln dolarów. W Polsce może być podobnie
Jeszcze niedawno banki przekonywały, że biometria twarzy jest najbezpieczniejszą formą uwierzytelniania. Dziś wiemy, że była to nadmierna wiara w potęgę własnych zabezpieczeń, nieuwzględniająca otaczającej nas rzeczywistości. Rozwój technologii deepfake, zwłaszcza w czasie rzeczywistym, podważył fundament tego modelu bezpieczeństwa. W efekcie pojawia się pytanie o charakterze nie tylko technologicznym, ale przede wszystkim prawnym — czy ciężar dowodu w 2026 roku spoczywa na obywatelu, czy na instytucji finansowej, która zaufała wadliwej technologii?

Deepfake jako narzędzie codziennej przestępczości
Kilka lat temu deepfake'i były ciekawostką ze świata nowych technologii. Dziś dla przestępców to często zwyczajne, podstawowe narzędzie pracy. Według raportów branżowych, między innymi Entrust, już co piąta próba oszustwa biometrycznego opiera się na twarzy wygenerowanej lub zmanipulowanej przez AI. Rozwój deepfake'ów sprawił, że twarz, dotąd uznawana za najbardziej wiarygodny identyfikator, stała się czymś, co można wygenerować. Nie będzie to miało postaci statycznego zdjęcia czy nagrania, ale dynamicznej, reagującej na polecenia symulacji.
Najbardziej dotychczas spektakularny przypadek oszustwa przy pomocy deepfake miał miejsce w 2024 roku w Hongkongu. Pracownik firmy uczestniczył w wideokonferencji z „zarządem". Problem polegał na tym, że zarząd nie istniał i był w całości wygenerowany przez AI. W wyniku tej rozmowy wykonano kilkanaście przelewów o łącznej wartości około 25 mln dolarów. Wydarzenie to pokazało, że człowiek ma w tej chwili ograniczone możliwości, aby odróżnić rzeczywistość od symulacji, a jeśli została dobrze przygotowana — może to być praktycznie niemożliwe. Wszystko to sprawia, że w ostatnim roku straty związane z deepfake'ami liczono już w setkach milionów dolarów kwartalnie, a prognozy mówią o dziesiątkach miliardów rocznie w ciągu najbliższych lat. Problem, który do niedawna był marginalny, staje się normą wśród sposobów oszukiwania.
W Polsce cisza przed sprawami, które nadejdą
W Polsce podobne przypadki nie trafiły jeszcze na pierwsze strony gazet w kontekście bankowości i biometrii, ale to nie znaczy, że problem nie istnieje. Deepfake był już powszechnie wykorzystywany w tzw. scamach inwestycyjnych czy podszywaniu się pod znane osoby — oszustwa deepfake to temat, który w ostatnich latach zyskał na znaczeniu także w polskiej debacie prawnej. Komisja Nadzoru Finansowego oraz organy ścigania wprost wskazują na rosnącą skalę tego zjawiska. Eksperci mówią zdecydowanie, że system ochrony tożsamości nie nadąża za rozwojem AI. W tej układance brakuje tylko jednego elementu — dużej sprawy sądowej przeciwko bankowi, ale prawdopodobnie to tylko kwestia czasu.
Polskie prawo w ograniczonym zakresie chroni wykorzystywanie wizerunku. Zastosowanie mają głównie przepisy ustawy o prawie autorskim i prawach pokrewnych, które wymagają zgody na rozpowszechnianie wizerunku, a Kodeks cywilny reguluje ochronę dóbr osobistych, w tym wizerunku i głosu. Z kolei RODO traktuje wizerunek jako dane wrażliwe wymagające szczególnej ochrony.
W przepisach Kodeksu karnego wykorzystanie deepfake może wypełniać znamiona np. czynu zabronionego kradzieży tożsamości (art. 190a § 2), zmuszania do określonego zachowania (art. 191), przestępstw przeciwko wolności seksualnej (art. 202), zniesławienia lub zniewagi (art. 212 i 216) lub oszustwa (art. 286). Żadna jednak ze wskazanych regulacji nie zapewnia pełnej i skutecznej ochrony. Warto przy tym pamiętać, że choć pytanie o deepfake legalność pojawia się coraz częściej, przepisy wciąż nie nadążają za technologią.
Prawo już zna odpowiedź — tylko jeszcze nie zadano właściwego pytania
Chociaż deepfake jest stosunkowo nowym zjawiskiem, prawo od dawna mierzy się z podobnym problemem związanym z sytuacją, gdy klient twierdzi, że nie autoryzował transakcji, a system twierdzi coś przeciwnego. W takich sprawach — opartych na przepisach Dyrektywy PSD2 (Payment Services Directive 2) i utrwalonym orzecznictwie — wykształciła się jasna zasada, że to bank musi udowodnić, że transakcja była autoryzowana prawidłowo. Nie wystarczy powiedzieć, że użyto poprawnych danych, a system zadziałał zgodnie z procedurą.
Sądy wielokrotnie podkreślały, że to za mało, ponieważ dane można przechwycić. System można obejść. Natomiast klient nie musi rozumieć technicznych mechanizmów oszustwa, aby być jego ofiarą.
Linia orzecznicza, która może zdecydować o przyszłości
Wskazane podejście ma ogromne znaczenie w kontekście deepfake'ów, ponieważ skoro nawet poprawne dane logowania nie są dowodem, to trudno uznać, że obraz twarzy — który można dziś wygenerować — ma większą wartość dowodową. Nie ma jeszcze wyroków dotyczących deepfake w bankowości, ale istnieje bogata linia orzecznicza dotycząca nieautoryzowanych transakcji płatniczych. W praktyce banki od lat niechętnie realizują obowiązek natychmiastowego zwrotu pieniędzy za nieautoryzowane transakcje, a UOKiK wielokrotnie musiał interweniować w tej sprawie. Właśnie ta linia orzecznicza jest tutaj kluczowa.
Wykorzystanie w oszustwie deepfake nie powinno zmieniać zasad, a jedynie je wzmacniać. Analogicznie jak w sytuacji nieautoryzowanych przez rzeczywistego właściciela konta transakcji, system bankowy może zostać oszukany przez syntetyczną twarz. W praktyce powinno to oznaczać, że bank musi udowodnić odporność systemu na deepfake i zastosowanie dodatkowych zabezpieczeń. Klient nie musi udowadniać, jak doszło do oszustwa, ponieważ nie musi znać się na sztucznej inteligencji. Wystarczy, że powie: „to nie byłem ja".
Prawo zaczyna rozumieć ryzyko
Unia Europejska już dostrzegła problem. RODO wprowadziło zasadę rozliczalności, według której to administrator danych ma wykazać, że działa zgodnie z prawem. AI Act idzie krok dalej, uznając systemy biometryczne za rozwiązania wysokiego ryzyka. Oznacza to, że im bardziej zaawansowana technologia, tym większa odpowiedzialność jej użytkownika. Bank, który wdraża rozpoznawanie twarzy, nie może traktować go jako „czarnej skrzynki". Musi rozumieć jego ograniczenia. Musi przewidywać scenariusze nadużyć. Musi być gotowy je wyjaśnić — a jeśli nie jest w stanie, powinien ponieść konsekwencje.
Granica odpowiedzialności klienta — kiedy rażące niedbalstwo wchodzi w grę
Czy w takim razie klient zawsze jest bezpieczny? Nie do końca. Prawo nadal przewiduje sytuacje, w których odpowiedzialność może zostać przerzucona na użytkownika. Dotyczy to jednak przypadków skrajnych — tzw. rażącego niedbalstwa. Nie chodzi o zwykłą ostrożność. Chodzi o sytuacje, w których ktoś świadomie udostępnia swoje dane, ignoruje oczywiste zagrożenia, współpracuje z oszustem. Mechanizm ten jest dobrze znany z przypadków kradzieży na BLIK, gdzie brak elementarnej ostrożności użytkownika przesądzał o odmowie zwrotu środków.
W przypadku deepfake'ów granica ta staje się jednak wyjątkowo trudna do uchwycenia. Czy publikowanie własnego wizerunku w internecie jest zaniedbaniem? Czy udział w nagraniu może zostać wykorzystany przeciwko nam bez naszej wiedzy?
Prawo dopiero będzie musiało odpowiedzieć na te pytania.
Zmiana, która dopiero się zaczyna — koniec ery wizualnego dowodu
Deepfake nie jest tylko kolejnym narzędziem przestępczym. Jest sygnałem, że zmienia się sama natura dowodu. Przez dekady opieraliśmy się na tym, co widzimy. Obraz był dowodem. Twarz była tożsamością. Dziś jedno i drugie można wygenerować. Może to oznaczać, że systemy oparte na wizualnej weryfikacji będą coraz częściej zawodzić. Zrodzi to pytania o zasadność ich stosowania, ponieważ dzisiejsze argumenty tracą powoli rację bytu. Można nawet zastanawiać się, czy jeśli użycie deepfake'ów będzie postępować, tego rodzaju sytuacja nie wygeneruje nawet potrzeby powrotu — choćby w ograniczonej liczbie — do bankowych oddziałów. Dzisiaj pomysł taki wydaje się całkowicie niedorzeczny, ale nie wiemy, jak daleko pójdzie rozwój tej technologii i związana z tym skala przestępstw.
W tym nowym świecie jedno pozostaje niezmienne — odpowiedzialność nie znika, ona się ewentualnie przesuwa. Nie na użytkownika, który nie jest w stanie odróżnić symulacji od rzeczywistości, ale na instytucję, która zdecydowała się zaufać technologii. Skoro bank uznaje obraz za dowód, to musi być gotowy udowodnić, że obraz ten był prawdziwy. Jeśli nie jest w stanie tego dokonać — nie może oczekiwać, że zrobi to za niego klient.
Być może to jest najważniejsza lekcja epoki deepfake — że w świecie, w którym prawie wszystko można podrobić, odpowiedzialność należy do tego, kto decyduje, co jest dla niego wiarygodne.
zobacz więcej:
28.03.2026 13:24, Piotr Janus
28.03.2026 12:22, Piotr Janus
28.03.2026 10:36, Rafał Chabasiński
28.03.2026 9:24, Marcin Szermański
28.03.2026 8:26, Rafał Chabasiński
28.03.2026 8:16, Mariusz Lewandowski

„Proszę zatrzymać zepsuty produkt". Sklep tylko udaje, że jest miły i tak naprawdę wpuszcza cię w pułapkę
28.03.2026 7:20, Piotr Janus

Właściciele mieszkań w blokach masowo kupują panele na farmach. Rachunki za prąd spadają im o kilkadziesiąt procent
28.03.2026 6:42, Aleksandra Smusz
28.03.2026 4:30, Aleksandra Smusz
27.03.2026 21:47, Aleksandra Smusz
27.03.2026 19:12, Marcin Szermański
27.03.2026 18:00, Rafał Chabasiński
27.03.2026 16:31, Mateusz Krakowski
27.03.2026 15:24, Rafał Chabasiński
27.03.2026 14:16, Miłosz Magrzyk
27.03.2026 13:29, Marcin Szermański
27.03.2026 12:42, Aleksandra Smusz
27.03.2026 12:03, Mateusz Krakowski
27.03.2026 11:09, Edyta Wara-Wąsowska

Inspekcja Handlowa ma dla nas smutne dane. Nieprawidłowości w blisko 50 proc. skontrolowanych punktów handlowych
27.03.2026 10:11, Marcin Szermański
27.03.2026 9:13, Edyta Wara-Wąsowska
27.03.2026 8:53, Marcin Szermański
27.03.2026 7:35, Jakub Kralka
27.03.2026 6:25, Aleksandra Smusz
27.03.2026 5:31, Mateusz Krakowski



























