15 przelewów, które nie powinny się wydarzyć
Zacznijmy od tego, że Arup to nie żadna podejrzana firma działająca z piwnicy. To 78 lat tradycji, Opera w Sydney w portfolio, La Sagrada Familia na liście projektów, 18,500 ludzi w 34 krajach. Brytyjska instytucja, która przetrwała dwie wojny światowe, kryzysy gospodarcze i pandemię. Solidna jak Big Ben. I która w styczniu 2024 roku przekazała cyberprzestępcom 25,6 miliona dolarów, bo jeden pracownik zrobił coś, co każdy z nas by zrobił, uwierzył własnym oczom.

Arup odegrało kluczową rolę w powstaniu Opery w Sydney
Historia zaczyna się, jak każda banalna historia o oszustwie, od emaila. CFO z londyńskiej centrali pisze do pracownika w Hong Kongu: „Pilna, poufna transakcja". Pracownik patrzy na wiadomość i jego wewnętrzny alarm piszczy jak czujnik dymu podczas gotowania jajecznicy. „Phishing" – myśli. I ma rację w byciu podejrzliwym. Bo przecież nikt normalny nie pisze o „pilnych, poufnych transakcjach". To czerwona flaga wielkości billboardu nad autostradą.
Ale potem - i tu właśnie zaczyna się prawdziwa psychologia oszustwa - przychodzi zaproszenie na wideokonferencję. I tam, na ekranie, jak w normalny firmowy czwartek, wszyscy. Szef. Koledzy. Znajome twarze, które widzi od miesięcy, może lat. Słyszy ich głosy. Widzi te charakterystyczne gesty, jak jeden poprawia okulary, jak drugi kiwa głową. Wszystko się zgadza. Więc robi to, co zrobiłby każdy rozsądny człowiek, przestaje się martwić i wykonuje polecenie.
15 przelewów. Pięć różnych kont. 25,6 miliona dolarów.
Tydzień później (dokładnie, tydzień!) podczas rutynowego kontaktu z centralą w Londynie prawda wychodzi na jaw jak nieuczciwy polityk podczas przesłuchania. Nikt w brytyjskiej centrali nie zlecał żadnych transakcji. Nikt nie organizował żadnej wideokonferencji.
W spotkaniu wideo każdy uczestnik był fałszywym obrazem wygenerowanym przez sztuczną inteligencję – policja w Hong Kongu podsumowała to później z takim spokojem, jakby mówiła o pogodzie. Słońce, 22 stopnie, wszyscy byli deepfake'ami.
Oszuści wzięli nagrania z prawdziwych firmowych wideokonferencji, materiały publicznie dostępne, może prezentacje z YouTube, może wykłady z konferencji branżowych. Nakarmili tym algorytmy. I w kilka godzin dostali perfekcyjną iluzję. Każdy gest odtworzony z chirurgiczną precyzją. Każda intonacja głosu. Każde spojrzenie.
Krótka historia tego, jak hakowanie przestało wymagać talentu
Żeby zrozumieć, jak daleko zaszliśmy w tym absurdzie, musimy cofnąć się do 2019 roku. CEO brytyjskiego oddziału znanej firmy energetycznej (nazwa nie została ujawniona) dostaje telefon od swojego szefa z niemieckiej centrali. Głos brzmi znajomo, akcent się zgadza. Ton, maniera mówienia,wszystko na miejscu. „Pilny przelew, €220,000 dla dostawcy". CEO wykonuje polecenie. Tylko że to nie był jego szef. To był pierwszy znany w historii deepfake głosowy wykorzystany w oszustwie.
Europol wtedy ogłosił, że to prawdopodobnie pierwszy atak AI tego typu. Świat bezpieczeństwa był w szoku. Konferencje, panele ekspertów, artykuły w każdej gazecie technicznej. Wszyscy wiedzieli, że to dopiero początek. Problem w tym, że „początek" brzmiał jak odległa przyszłość, jak coś, co będzie za 10, może 20 lat.
Ewolucja cyberprzestępczości AI: 2019-2024
2019
Pierwszy deepfake głosowy
CEO brytyjskiej firmy energetycznej traci €220,000 po telefonie od "szefa".
Europol: "prawdopodobnie pierwszy atak AI tego typu".
Szok światowy
2021
Wzrost o 350% rok do roku
Pojawienie się WormGPT i FraudGPT. Ransomware-as-a-Service dostępny w darknecie.
Demokratyzacja cyberprzestępczości.
Niski próg wejścia
2023
Deepfake w systemach bankowych
USA: wzrost z 0,2% do 2,6% (+1300%). Polska: 360k domen phishingowych
zablokowanych przez CyberTarczę Orange.
Nowa normalność
2024
Arup - deepfake WIDEO
Londyńska firma traci $25,6M. Pracownik widzi CFO i kolegów na video -
wszyscy deepfake'ami. 15 przelewów w tydzień.
25,6 mln USD strat
A tu nagle jest 2024. I według badań brytyjskiej firmy Think Cloud stworzenie przekonującego klonu głosu zajmuje 15 minut. To mniej czasu niż zamówienie pizzy z dostawą. Mniej niż przeczytanie felietonu w niedzielnej gazecie. Narzędzia? Dostępne online. Często darmowe z instrukcjami na youtubie. Nie potrzebujesz już być informatycznym geniuszem z MIT, teraz wystarczy być nieuczciwym i umieć używać Google'a.
I teraz najlepsze, znana firma od cyberochrony Kaspersky informuje, że 70% dzisiejszych cyberprzestępców nie ma żadnej - dosłownie żadnej - wcześniejszej wiedzy technicznej. Pięć lat temu ci ludzie nie odróżniliby Pythona od węża w zoo, a aktualnie połowa z nich używa już AI w swoich atakach. W Stanach Zjednoczonych liczba przypadków wykorzystania deepfake w oszustwach skoczyła z 0,2% do 2,6% w ciągu zaledwie jednego roku. To wzrost o 1300%. Tysiąc trzysta procent. Gdyby twoje oszczędności rosły w takim tempie, już byś siedział na Malediwach.
W Polsce, bo nie myślmy, że to problem „gdzieś tam", 627 tysięcy zgłoszeń naruszeń bezpieczeństwa w 2024 roku. O 60% więcej niż rok wcześniej, a to tylko zgłoszenia. Ile jest niezgłoszonych? Ile firm wstydzi się przyznać, że dało się nabrać algorytmowi?
Cyberprzestępczość demokratyzuje się jak kiedyś Netflix. WormGPT i FraudGPT, nazwy brzmią jak jakiś żart, ale to prawdziwe narzędzia dostępne w clearnecie! Nie trzeba już nawet podstawowych umiejętności dostawania się do „darknetu” żeby uzyskać narzędzia do popełniania przestępstw. Tworzą scenariusze phishingu, piszą złośliwe oprogramowanie i generują przekonujące emaile szybciej niż wykwalifikowany copywriter po trzeciej kawie. Ransomware-as-a-Service działa dosłownie jak McDonald's, format franczyzowy, niskie koszty wejścia, szkolenia dla „pracowników". Roczne przychody z tego biznesu? Dwadzieścia miliardów dolarów. To więcej niż roczne PKB takich państw jak Luksemburg czy Cypr, a równowartość PKB chociażby Łotwy.
I tu jest ten piękny, tragiczny paradoks naszych czasów bo AI wyrównała szanse. Tylko że w wyścigu, którego nikt rozsądny nie chciał.
Skoro jest akcja to jest też reakcja
Ta sama technologia, która okradła Arup z 25 milionów, może też firmę uratować. To wyścig zbrojeń, w którym obie strony używają dokładnie tych samych narzędzi, a czasami nawet tych samych algorytmów. To jak mecz bokserski, w którym obaj zawodnicy dostali instrukcje od tego samego trenera.
Po stronie atakujących mamy cały arsenał nowoczesnej broni cyfrowej. Deepfake wideo jak w przypadku Arup, deepfake głosu jak brytyjska energetyka w 2019. Phishing pisany przez ChatGPT, który zna cię z LinkedIn lepiej niż twoja rodzina z Facebooka. Malware, które uczy się omijać antywirusy tak, jak nastolatki uczą się omijać kontrolę rodzicielską. Cele? Zawsze te same, infrastruktura krytyczna. Energetyka, bo tam efekt widać natychmiast. Zdrowie, bo tam są dane, którymi można szantażować. Finanse, bo... no cóż, finanse to finanse.
W takim razie jak możemy się przed tym chronić?
Czasem wystarczy zwykła procedura
Maj 2024, Londyn - światowy gigant reklamowy WPP staje w obliczu podobnego zagrożenia gdy ktoś tworzy fałszywe konto WhatsApp CEO Marka Reada wykorzystując publicznie dostępne zdjęcia z LinkedIn i konferencji, po czym wysyła zaproszenie na wirtualne spotkanie z dopiskiem „pilna sprawa", ale pracownicy zamiast kliknąć sprawdzają przez inne kanały, dzwonią bezpośrednio i weryfikują, co kończy się odkryciem fejka bez żadnych strat finansowych, zwykła procedura uratowała potencjalne miliony dolarów.
WPP przetrwał bo miał jasne zasady i ludzi, którzy je stosowali w praktyce, podczas gdy Arup stracił 25 milionów bo zabrakło jednego telefonu do centrali w Londynie z pytaniem „hej szefie, dostałem od ciebie maila o pilnej transakcji, wszystko okej?" i tu dochodzimy do nieprzyjemnej prawdy, że najlepsze narzędzie obronne to nie AI trzeciej generacji ani kwantowa kryptografia, tylko człowiek z procedurą w ręku i odwagą jej użycia, nawet jeśli oznacza to zakwestionowanie polecenia od szefa lub wydaje się to nadmierną ostrożnością graniczącą z paranoja.
Dwa scenariusze • Dwa finały
|
✗
Arup
Otrzymał email
Zobaczył video
Uwierzył oczom
Nie zweryfikował
| |
✓
WPP
Otrzymał wiadomość
Zatrzymał się
Zadzwonił
Zweryfikował
|
Różnica? Jeden telefon.
Specjaliści od cyberbezpieczeństwa powtarzają od lat kilka prostych zasad, CERT Orange Polska wymieniał je już setki razy, ale skoro ludzie nadal używają „admin123", powtórzmy jeszcze raz:
- Hasło minimum 15 znaków z uwierzytelnianiem dwuskładnikowym zamiast imienia dziecka. Sprawdź: czy twoje hasło nie wyciekło do Internetu! -> Have I Been Pwned
- Regularny backup bo ransomware nie pyta o zgodę przed zaszyfrowaniem twoich dysków
- Zatrzymanie się przed kliknięciem w każdy link w celuweryfikacji czy domena nie ma literówki (bo "micr0soft.com" to nie Microsoft).
- Wielokanałowa weryfikacja każdej podejrzanej prośby, widzisz szefa na video? zadzwoń do niego, słyszysz CFO przez telefon? napisz maila i poczekaj na odpowiedź.
- Regularna edukacja zespołu zamiast jednego śmiertelnie nudnego szkolenia BHP w roku.
Gdy AI walczy z AI
Ale wracając do tego jak technologia może nie tylko zagrażać ale też chronić, tu zaczyna się fascynująca część, bo okazuje się, że równie skutecznym sposobem na powstrzymanie AI jest... inna AI, tyle że ta po dobrej stronie mocy.
Weźmy Darktrace, brytyjski system, który nie czeka aż pojawi się znany wirus z bazy danych (bo przecież nowe zagrożenia nie mają jeszcze „kartoteki"), tylko działa jak detektyw z obsesją na punkcie nietypowych wzorców zachowań. Wyobraź sobie pracownika ochrony, który zna każdy dźwięk w budynku, każdy krok, każde otwarcie drzwi i nagle w środku nocy słyszy, że ktoś chodzi inaczej niż zwykle, otwiera nie te drzwi co trzeba, pyta o rzeczy których normalnie nikt nie pyta. Dla zwykłego człowieka to może nic, dla Darktrace to sygnał alarmowy.
W 2024 roku system wykrył atak w europejskiej firmie finansowej bo zauważył, że jeden komputer, normalny, używany codziennie przez księgową do Excela i maili nagle zaczął komunikować się z 47 różnymi serwerami na trzech kontynentach w ciągu 12 minut, co dla człowieka brzmi jak "no cóż, może synchronizuje pliki", ale dla algorytmu jest czerwonym alarmem. Zanim haker zdążył zaszyfrować choćby jeden plik, Darktrace odciął komputer od reszty sieci pozostawiając napastnika w szoku, a firmę z nietkniętymi danymi i fascynującą historią do opowiedzenia na branżowych konferencjach.
A jeśli chcemy przykładu z polskiego podwórka to weźmy CyberTarczę Orange, która od kilku lat wykorzystuje mechanizmy sztucznej inteligencji do filtrowania zagrożeń na poziomie DNS, czyli zanim w ogóle dotrą do twojego komputera i zanim ty w ogóle zdążysz zastanowić się czy dany link jest podejrzany. Algorytmy analizują miliardy zapytań dziennie, uczą się wzorców ataków i blokują to co wygląda choćby o milimetr niepokojąco. Tylko w 2023 roku AI stojąca za CyberTarczą powstrzymała ponad 360 tysięcy domen phishingowych, czyli prawie tysiąc potencjalnych groźnych ataków dziennie.
Zero Trust Architecture, czyli filozofia „nigdy nie ufaj, zawsze weryfikuj" brzmi jak paranoja w czystej postaci, ale w świecie gdzie twój szef na ekranie może być deepfake'iem wygenerowanym w 15 minut a głos w słuchawce sklonowanym przez AI, paranoja przestaje być chorobą psychiczną i staje się strategią przetrwania, gdyby brytyjska firma energetyczna w 2019 wymagała dwóch podpisów na każdy przelew powyżej €200,000 oszuści nie ukradliby ani eurocenta, a gdyby pracownik Arup zadzwonił do Londynu przed pierwszym z 15 przelewów to 25 milionów nadal byłoby w firmowej kasie, bo technologia jest ważna ale człowiek z procedurą i odwagą jej użycia jest ważniejszy.
Co nas czeka w przyszłości?
Unia Europejska próbuje nadążyć za rzeczywistością ale ta zmienia się szybciej niż procedury legislacyjne mogą to uchwycić, NIS2 od 2024 roku nakłada konkretne obowiązki na firmy w sektorach krytycznych takich jak energetyka, zdrowie, transport i IT czyli dokładnie tam gdzie cyberataki bolą najbardziej, a AI Act który ma w pełni zacząć obowiązywać od sierpnia 2026 wprowadzi ramy prawne dla sztucznej inteligencji w tym zakaz nieoznaczonych deepfake'ów, co brzmi pięknie ale tylko na papierze. Pytanie którego nikt głośno nie chce zadać brzmi: czy prawo w ogóle ma jakąkolwiek szansę nadążyć za AI? Szczera odpowiedź brzmi: nie, absolutnie nie, ale przynajmniej próbuje co już jest czymś.
Prognozy na 2025 rok nie napawają optymizmem, według ankiety Trend Micro 93% liderów bezpieczeństwa spodziewa się że ich firmy będą atakowane codziennie jak sprawdzanie poczty czy picie kawy, deepfake w czasie rzeczywistym który pozwoli prowadzić spontaniczną nieprzewidzianą rozmowę z AI-generowanym rozmówcą jest już praktycznie gotowy, liczba ataków ransomware wzrosła o 126% w pierwszym kwartale 2025 roku a Deloitte szacuje że straty spowodowane oszustwami wspomaganymi przez AI wzrosną z 12 miliardów dolarów w 2023 do 40 miliardów w 2027, jednocześnie 85% specjalistów finansowych uważa deepfake za egzystencjalne zagrożenie dla bezpieczeństwa ich organizacji i trudno się dziwić gdy patrzy się na historię Arup gdzie 25 milionów to nie jest błąd w zaokrągleniu ani koszt który można odpisać jako „różne" tylko katastrofa o realnych konsekwencjach.
Wszyscy mogą być fałszywi
Wracamy więc do pracownika Arup, który nie był głupi ani naiwny, był zwykłym człowiekiem, który zobaczył to, co AI chciała mu pokazać, znajome twarze i głosy, więc uwierzył bo wierzymy swoim zmysłom.
Pięć lat temu deepfake głosowy za €220 tysięcy wywołał szok światowy, dziś deepfake wideo za 25 milionów to spektakularne ze względu na skalę ale nadal jedno z wielu takich oszustów dziennie.
Pytanie nie brzmi czy możesz być zaatakowany tylko czy będziesz następnym Arup z 15 przelewami, czy WPP które miało procedury i przetrwało? Bo w 2025 można podrobić każdego.
Artykuł powstał we współpracy z Orange Polska