W amerykańskim dwutygodniku “Fortune” pojawiła się śmiała teza, którą wygłosił Adam Ennamli, ekspert General Bank of Canada. Według niego już nawet połowa wszystkich prób oszustw bankowych jest dokonywana z wykorzystaniem sztucznej inteligencji. To alarmujące zjawisko, które pokazuje, jak szybko zmienia się krajobraz cyberprzestępczości. Banki oraz instytucje finansowe stają więc przed ogromnym wyzwaniem – jak skutecznie przeciwdziałać coraz bardziej wyrafinowanym metodom oszustów?
Sztuczna inteligencja w służbie oszustów
Liczba oszustw bankowych cały czas rośnie. W 2023 roku Amerykanie stracili z tego tytułu ponad 10 mld dolarów – to wzrost o 14% w stosunku do roku 2022. Podobne zjawisko zaobserwować można również w Polsce. Według danych z 2024 roku, klienci banków stracili łącznie około 500 mln zł na skutek nieautoryzowanych transakcji. Najczęściej stosowane metody oszustw to phishing oraz fałszywe oferty inwestycyjne. Zdaniem ekspertów za sprawą AI straty z tytułu oszustw w USA już w 2027 roku wzrosną nawet do 40 mld dolarów.
Adam Ennamli na łamach magazynu “Fortune” skomentował:
Dzięki generatywnej sztucznej inteligencji oszuści mogą znacząco zwiększyć skalę swoich operacji przy niskich kosztach i tworzyć duże ilości wiadomości phishingowych oraz profili w mediach społecznościowych, które omijają tradycyjne systemy ochrony przed oszustwami. Każda wiadomość jest w pełni dostosowywana do odbiorcy i może zawierać publicznie dostępne informacje osobiste, co ją uwiarygadnia w oczach odbiorcy.
Zmiany w bankach i instytucjach finansowych są konieczne
Poziom zabezpieczeń wykorzystywanych w bankach i innych instytucjach finansowych jest niesatysfakcjonujący. W styczniu ubiegłego roku ofiarą oszustów padł pracownik jednego z większych przedsiębiorstw w Hongkongu. Myślał, że rozmawia online z dyrektorem finansowym i wydał mu aż 25 mln dolarów. W rzeczywistości jednak oszuści wykorzystali w tym przypadku zaawansowaną technologię deepfake oraz sztuczną inteligencję, aby stworzyć realistycznie wyglądającą wideokonferencję.
Rosnąca liczba przestępstw z użyciem AI to niewątpliwie ogromne wyzwanie dla banków i innych instytucji. Oszuści coraz częściej wykorzystują np. sklonowane głosy oraz syntetyczne wideo do pozorowania rozmów z obsługą banku. W ten sposób chcą uzyskać dostęp do kont bankowych, podszywając się pod klientów. Na celowniku znajdują się m.in. osoby starsze oraz klienci z niską zdolnością kredytową, którym oferowane są pozornie atrakcyjne produkty finansowe w zamian za podanie poufnych informacji.
Jak można się chronić?
Eksperci podkreślają, że konieczne jest jak najszybsze wprowadzenie nowych standardów zabezpieczeń, które będą bardziej odporne na zagrożenia związane z AI. Banki powinny rozwijać biometrię behawioralną, bardziej zaawansowane systemy uwierzytelniania dwuskładnikowego oraz analizę wzorców zachowań klientów w czasie rzeczywistym. Dodatkowo coraz większą rolę powinna odgrywać edukacja konsumentów na temat nowych metod oszustw i sposobów ich unikania.