Skip to main content
Home » Cyberbezpieczeństwo » Nowe oblicza phishingu i deepfake – jak nie dać się oszukać w erze AI?
Cyberbezpieczeństwo

Nowe oblicza phishingu i deepfake – jak nie dać się oszukać w erze AI?

Szacowany czas czytania: 4 minuty

Fałszywe wiadomości, wygenerowany głos i realistyczne nagrania wideo sprawiają, że współczesne cyberoszustwa są trudniejsze do rozpoznania niż kiedykolwiek wcześniej. W erze AI zagrożeniem nie jest już wyłącznie technologia, ale także sposób, w jaki reagujemy na komunikaty pod presją czasu.

Alicja Marzec

IT Program & Project Manager, specjalizująca się w obszarze transformacji cyfrowej, cyberbezpieczeństwa oraz zarządzania projektami technologicznymi; Stowarzyszenie Women Go Cyber

Dlaczego phishing stał się dziś bardziej niebezpieczny?

Jeszcze kilka lat temu większość wiadomości phishingowych można było rozpoznać po błędach językowych lub podejrzanych linkach. Obecnie sztuczna inteligencja umożliwia tworzenie wiadomości poprawnych stylistycznie, dopasowanych do branży, stanowiska i konkretnego odbiorcy. Atak coraz częściej wygląda jak zwykła wiadomość od współpracownika lub partnera biznesowego.

A deepfake?

To obecnie jedno z największych wyzwań dla cyberbezpieczeństwa. Deepfake pozwala wygenerować obraz lub głos osoby, która wydaje się autentyczna. W praktyce wystarczy kilkadziesiąt sekund próbki głosu, aby stworzyć realistyczne nagranie przypominające przełożonego czy członka zarządu.

Skala zjawiska

Według raportu Signicat liczba oszustw wykorzystujących deepfake wzrosła o 2137 proc. w ciągu ostatnich trzech lat, a 42,5 proc. prób fraudowych w sektorze finansowym ma już charakter AI-driven. Oznacza to, że sztuczna inteligencja coraz częściej wspiera działania przestępców nie w przełamywaniu systemów, ale w manipulowaniu decyzjami ludzi.

Tam, gdzie pojawia się AI, rośnie nie tylko wygoda, ale także skala nowych zagrożeń.

Badania zespołu Harvard Kennedy School pokazują, że wiadomości phishingowe generowane automatycznie przez modele językowe osiągają 54 proc. skuteczności kliknięć, podczas gdy klasyczne, niespersonalizowane kampanie phishingowe tworzone ręcznie osiągały ok. 12 proc. Co istotne, równie wysoki wynik – 54 proc. – uzyskały wiadomości przygotowane przez doświadczonych specjalistów social engineeringu. Oznacza to, że AI nie tyle przewyższa najlepszych ekspertów, ile pozwala osiągnąć ich skuteczność znacznie szybciej, taniej i na dużą skalę. W praktyce przewaga sztucznej inteligencji polega na automatyzacji personalizacji: narzędzie w kilka sekund analizuje publicznie dostępne informacje o odbiorcy i tworzy komunikat dopasowany do jego roli, języka oraz kontekstu zawodowego.

Dlaczego te ataki są skuteczne?

Najsilniej działa presja czasu. Komunikaty zawierające słowa „pilne”, „natychmiast” lub „tylko teraz” ograniczają moment refleksji i zwiększają prawdopodobieństwo automatycznej reakcji. Współczesny cyberatak coraz częściej nie próbuje włamać się do systemu – próbuje skłonić człowieka do wykonania określonej czynności.

Jak chronić się przed nowymi zagrożeniami?

Nietypowe polecenia finansowe, zmiany danych lub pilne prośby powinny być zawsze potwierdzane drugim kanałem komunikacji. Coraz więcej organizacji wdraża zasadę podwójnej autoryzacji decyzji oraz procedury dodatkowej weryfikacji komunikatów pochodzących od osób decyzyjnych.

Najbardziej skuteczny cyberatak nie zawsze przełamuje system – coraz częściej wykorzystuje zaufanie człowieka.

Co to oznacza dla firm?

W najbliższych latach można spodziewać się, że ataki wykorzystujące AI będą coraz bardziej spersonalizowane i trudniejsze do wychwycenia, ponieważ narzędzia generatywne rozwijają się szybciej niż standardowe procedury bezpieczeństwa w wielu organizacjach. Oznacza to, że przewagę zyskają firmy, które potraktują bezpieczeństwo nie wyłącznie jako obszar technologiczny, lecz element kultury organizacyjnej. Coraz większego znaczenia nabierają procedury komunikacyjne: obowiązek potwierdzania nietypowych poleceń drugim kanałem, zasada podwójnej autoryzacji decyzji finansowych oraz budowanie nawyku weryfikacji nawet pozornie wiarygodnych komunikatów.

Można również zakładać, że w przyszłości standardem staną się narzędzia automatycznie wykrywające manipulację głosem, obrazem i treścią generowaną przez AI, jednak nawet najbardziej zaawansowane systemy nie zastąpią czujności człowieka. W praktyce to właśnie połączenie technologii, procedur i świadomości pracowników będzie decydować o realnej odporności organizacji.

Firmy już dziś powinny uczyć pracowników nie tylko rozpoznawania cyberzagrożeń, ale także rozumienia mechanizmów cyfrowej manipulacji, ponieważ to właśnie człowiek coraz częściej staje się celem nowoczesnego ataku.

Next article