Sztuczna inteligencja to nie tylko ChatGPT. Z AI coraz częściej korzystają również hakerzy

Prywatność i bezpieczeństwo Technologie Dołącz do dyskusji
Sztuczna inteligencja to nie tylko ChatGPT. Z AI coraz częściej korzystają również hakerzy

Sztuczna inteligencja to dziedzina informatyki traktująca o projektowaniu systemów i aplikacji, które potrafią uczyć się i podejmować decyzje na podstawie zebranych danych. Wraz z postępem technologicznym i zwiększeniem się dostępności narzędzi do uczenia maszynowego AI stała się nie tylko instrumentem biznesowym. Jak działa sztuczna inteligencja na usługach hakerów? W ten sposób korzystają z niej przestępcy.

Mapa cyberzagrożeń – sztuczna inteligencja na usługach hakerów 

Mimo popandemicznego spowolnienia w wielu sektorach w branży związanej z bezpieczeństwem cyfrowym i w szeroko pojętym świecie nowych technologii nie ma czasu na nudę. Z „Barometru cyberbezpieczeństwa” KPMG wynika, że w 2022 roku 58 proc. firm w Polsce zarejestrowało co najmniej jeden incydent naruszenia bezpieczeństwa; co trzecia zetknęła się ze złośliwym oprogramowaniem – ransomware. Niepokoi fakt, że aż jedna trzecia przedsiębiorstw zauważyła wzrost intensywności prób naruszeń ich cyfrowej przestrzeni. To najwyższy wynik od początku tego badania. Rosnąca aktywność hakerów wynika m.in. z możliwości szerszego zaprzęgnięcia w cyberataki sztucznej inteligencji.

AI po stronie zła

Sztuczna inteligencja to świetny kompan każdego hakera. Cyberprzestępcy wykorzystują ją w celu skuteczniejszego maskowania swoich działań i minimalizowania możliwości wykrycia. Także automatyzują za jej pomocą swoją „pracę”. Algorytmy uczenia maszynowego wykorzystują do skomplikowanych analiz (weryfikowania słowników haseł), wykrywania luk w zabezpieczeniach i tworzenia bardziej realistycznych wiadomości phishingowych, jeszcze trudniejszych do rozpoznania przez internautów. Mimo że już teraz phishing zbiera żniwo. Tylko w 2021 roku CERT Polska zarejestrował blisko 30 tys. unikatowych naruszeń bezpieczeństwa krajowej cyberprzestrzeni. Lwia część z nich to właśnie phishing.

Zdolność sztucznej inteligencji do generowania wiarygodnych, ale w gruncie rzeczy fałszywych informacji – tzw. deepfake’ów – to obecnie największe zagrożenie. Przestępcy wykorzystują tę opcję do tworzenia materiałów z fałszywym obrazem opracowanym na podstawie baz wzorcowych. To metoda, w której do manipulacji wykorzystywane są głównie wizerunki znanych osób – np. aktorów albo piosenkarzy, co pozwala uwierzytelnić przekaz.

Sztuczna inteligencja w białym kapeluszu

Na szczęście AI nie pomaga wyłącznie ludziom o złych zamiarach. Tak samo jak mają do niej dostęp cyberprzestępcy, jest osiągalna również dla tzw. białych kapeluszy. To „hakerzy” działający w dobrej wierze. Przykładem takiego narzędzia jest SIEM (Security Information and Event Management). Wykorzystuje on najnowszą technologię do analizy danych i wykrywania nieprawidłowych zachowań w systemach informatycznych.

Stała weryfikacja dużych zbiorów informacji umożliwia wczesne wykrycie anomalii i innych podejrzanych zachowań w bazie. To pozwala szybko zareagować, jednocześnie zmniejszając ryzyko ataku. Zabezpieczenie sieci nie będzie pełne bez regularnych szkoleń pracowników w zakresie bezpieczeństwa online. Tylko świadomość skali zjawiska i technik manipulacji stosowanych przez hakerów pozwoli zatrudnionym w miarę szybko rozpoznawać fałszywe wiadomości i nieprawidłowe żądania. Niewiedza i lenistwo pracowników to dwie cechy, które znacznie ułatwiają hakerskie praktyki. Algorytmy mogą pomóc w identyfikacji słabych haseł (co sprzyja hakerom). Ale także szyfrowaniu danych, co z kolei utrudnia im zadanie.

Rynek wart miliardy

Z raportu firmy Acumen Research and Consulting z 2022 roku wynika, że wzrost liczby cyberataków już napędza wzrost wartości rynku produktów cyberbezpieczeństwa opartych na sztucznej inteligencji. Szacuje się, że do końca tej dekady wartość tego rynku sięgnie blisko 134 mld dolarów, w porównaniu z prawie 15 mld dolarów w roku ubiegłym.