Deepfake to stosowana przez przestępców zaawansowana technika wykorzystująca sztuczną inteligencję (AI) do tworzenia realistycznych fałszywych nagrań wideo, zdjęć lub głosu. Nazwa pochodzi od połączenia zwrotu „deep learning” (głębokie, w znaczeniu zaawansowane, uczenie) i „fake” (fałszywy).
Przykłady użycia techniki deepfake:
Proces przygotowania do ataku opartego o deepfake realizowany jest przez przestępców w trzech etapach:
Jak rozpoznać deepfake?
Choć materiały opracowywane z pomocą AI są coraz lepszej jakości, to często zawierają zauważalne błędy, takie jak na przykład:
Podstawowym elementem umożliwiającym rozpoznanie techniki deepfake jest sprawdzenie źródła informacji – uzyskanie pozytywnej odpowiedzi na pytania:
Jak się chronić przed atakami?
Przykłady użycia techniki deepfake:
- podmieniona twarz (np. znanej osoby) na nagraniu wideo mówiąca coś, czego ta osoba nigdy by nie powiedziała,
- sfałszowany głos (np. policjanta, bankiera, przełożonego) wydający polecenie dotyczące określonego działania (np. realizacji transakcji bankowej),
- fałszywa wiadomość (np. celebryty) zawarta w reklamie produktu lub usługi.
Proces przygotowania do ataku opartego o deepfake realizowany jest przez przestępców w trzech etapach:
- zbieranie danych – gromadzenie dostępnych (np. w mediach, w tym w mediach społecznościowych) nagrań lub zdjęć danej osoby, w celu poddania ich analizie przez AI,
- uczenie maszynowe – program jest trenowany w zakresie mimiki, głosu, ruchów, aby jak najwierniej naśladować daną osobę,
- generowanie fałszywego przekazu – przy pomocy AI tworzone jest spreparowane nagranie lub zdjęcie, wyglądające na autentyczne.
Jak rozpoznać deepfake?
Choć materiały opracowywane z pomocą AI są coraz lepszej jakości, to często zawierają zauważalne błędy, takie jak na przykład:
- elementy nienaturalne – np. brak mrugania, brak spójności ruchu, zbyt gładka skóra,
- dziwny głos – np. mechaniczny ton, nienaturalne pauzy, zła artykulacja lub akcentowanie,
- niedokładności drugiego planu – np. rozmazane krawędzie, nieprawidłowy cień, błędy w zachowaniu osób w tle,
- niespójności – np. przedstawiana osoba wypowiada treści wskazujące na inną godzinę, porę dnia czy roku niż widać na zegarze lub za oknem na nagraniu.
Podstawowym elementem umożliwiającym rozpoznanie techniki deepfake jest sprawdzenie źródła informacji – uzyskanie pozytywnej odpowiedzi na pytania:
- czy nagranie pochodzi z oficjalnego, rzetelnego kanału informacyjnego?
- czy inne media potwierdzają tę informację?
Jak się chronić przed atakami?
- Uważaj na wiadomości zawierające polecenia – np. nigdy nie wykonuj przelewów na podstawie samej rozmowy telefonicznej lub wideo. Zawsze zadzwoń osobiście na znany numer telefonu (np. podany na stronie banku), aby potwierdzić autentyczność dzwoniącego.
- Chroń swoje dane w sieci – np. ogranicz udostępnianie w mediach społecznościowych zdjęć i filmów (danych niezbędnych oszustom do realizacji ataku).
- Wszędzie, gdzie jest to możliwe stosuj uwierzytelnianie wieloskładnikowe – to rozwiązanie stanowi dodatkowe zabezpieczenie utrudniające przejęcie konta i wykorzystanie go do ataku.
- Nie działaj pod wpływem emocji, presji czasu czy autorytetu.
- Ucz się – zapoznaj się z rozwiązaniami takimi jak Deepware Scanner (rozwiązanie oparte o AI) czy Microsoft Video Authenticator, które pomagają sprawdzać autentyczność nagrań.
- Dziel się wiedzą – rozmawiaj ze współpracownikami i bliskimi o tego typu zagrożeniach.
- zgłoś oszustwo – na Policji oraz do banku,
- zapewnij nienaruszalność dowodów – zapisz podejrzane wideo lub wiadomość,
- ostrzeż innych – jeśli deepfake użył Twojego wizerunku, poinformuj znajomych w mediach społecznościowych.