Już teraz AI odpowiada za nawet połowę oszustw bankowych. Konieczne są zmiany

Finanse Prywatność i bezpieczeństwo Technologie Dołącz do dyskusji
Już teraz AI odpowiada za nawet połowę oszustw bankowych. Konieczne są zmiany

W amerykańskim dwutygodniku “Fortune” pojawiła się śmiała teza, którą wygłosił Adam Ennamli, ekspert General Bank of Canada. Według niego już nawet połowa wszystkich prób oszustw bankowych jest dokonywana z wykorzystaniem sztucznej inteligencji. To alarmujące zjawisko, które pokazuje, jak szybko zmienia się krajobraz cyberprzestępczości. Banki oraz instytucje finansowe stają więc przed ogromnym wyzwaniem – jak skutecznie przeciwdziałać coraz bardziej wyrafinowanym metodom oszustów?

Sztuczna inteligencja w służbie oszustów

Liczba oszustw bankowych cały czas rośnie. W 2023 roku Amerykanie stracili z tego tytułu ponad 10 mld dolarów – to wzrost o 14% w stosunku do roku 2022. Podobne zjawisko zaobserwować można również w Polsce. Według danych z 2024 roku, klienci banków stracili łącznie około 500 mln zł na skutek nieautoryzowanych transakcji. Najczęściej stosowane metody oszustw to phishing oraz fałszywe oferty inwestycyjne. Zdaniem ekspertów za sprawą AI straty z tytułu oszustw w USA już w 2027 roku wzrosną nawet do 40 mld dolarów. 

Adam Ennamli na łamach magazynu “Fortune” skomentował:

Dzięki generatywnej sztucznej inteligencji oszuści mogą znacząco zwiększyć skalę swoich operacji przy niskich kosztach i tworzyć duże ilości wiadomości phishingowych oraz profili w mediach społecznościowych, które omijają tradycyjne systemy ochrony przed oszustwami. Każda wiadomość jest w pełni dostosowywana do odbiorcy i może zawierać publicznie dostępne informacje osobiste, co ją uwiarygadnia w oczach odbiorcy. 

Zmiany w bankach i instytucjach finansowych są konieczne 

Poziom zabezpieczeń wykorzystywanych w bankach i innych instytucjach finansowych jest niesatysfakcjonujący. W styczniu ubiegłego roku ofiarą oszustów padł pracownik jednego z większych przedsiębiorstw w Hongkongu. Myślał, że rozmawia online z dyrektorem finansowym i wydał mu aż 25 mln dolarów. W rzeczywistości jednak oszuści wykorzystali w tym przypadku zaawansowaną technologię deepfake oraz sztuczną inteligencję, aby stworzyć realistycznie wyglądającą wideokonferencję.

Rosnąca liczba przestępstw z użyciem AI to niewątpliwie ogromne wyzwanie dla banków i innych instytucji. Oszuści coraz częściej wykorzystują np. sklonowane głosy oraz syntetyczne wideo do pozorowania rozmów z obsługą banku. W ten sposób chcą uzyskać dostęp do kont bankowych, podszywając się pod klientów. Na celowniku znajdują się m.in. osoby starsze oraz klienci z niską zdolnością kredytową, którym oferowane są pozornie atrakcyjne produkty finansowe w zamian za podanie poufnych informacji.

Jak można się chronić?

Eksperci podkreślają, że konieczne jest jak najszybsze wprowadzenie nowych standardów zabezpieczeń, które będą bardziej odporne na zagrożenia związane z AI. Banki powinny rozwijać biometrię behawioralną, bardziej zaawansowane systemy uwierzytelniania dwuskładnikowego oraz analizę wzorców zachowań klientów w czasie rzeczywistym. Dodatkowo coraz większą rolę powinna odgrywać edukacja konsumentów na temat nowych metod oszustw i sposobów ich unikania.