W 2025 r. oszustwa typu deepfake pochłonęły 1,1 miliarda dolarów z kont firm w USA, co stanowi potrojenie kwoty 360 milionów dolarów w roku poprzednim. Do połowy ubiegłego roku liczba udokumentowanych incydentów wzrosła już czterokrotnie w porównaniu z łączną liczbą incydentów w roku 2024. Większość zespołów zajmujących się marką i komunikacją korporacyjną pozostaje niebezpiecznie niedostatecznie przygotowana.
Kadra kierownicza stoi obecnie w obliczu syntetycznych zagrożeń z dwóch stron: klonowania ich zdjęć w celu autoryzacji fałszywych transferów lub wyrządzania szkody reputacji oraz głosów generowanych przez sztuczną inteligencję podszywających się pod urzędników państwowych, członków zarządu i partnerów biznesowych wykorzystywanych do manipulacji nimi.
W 2019 roku anonimowy brytyjski dyrektor ds. energii odebrał telefon od osoby, którą uważał za swojego dyrektora generalnego. Akcent i subtelne zmiany spółgłosek były prawidłowe, nawet rytm był znajomy. Dopiero po przelaniu 243 000 dolarów dowiedzieli się, że głos po drugiej stronie telefonu jest syntetyczny. W zeszłym roku oszuści sklonowali włoskiego ministra obrony i obwołali elitę biznesową kraju. Co najmniej jeden wysłał prawie 1 milion euro, zanim dowiedział się o oszustwie.
Ale te marki miały szczęście. Weź pod uwagę skutki, jeśli syntetyczny film przedstawiający Twojego dyrektora generalnego zamieszczającego niewłaściwe komentarze, ogłaszającego fałszywą fuzję lub krytykującego organ regulacyjny szybko rozprzestrzenił się w mediach społecznościowych, zanim Twój zespół zdążył zareagować. Deepfakes nie są już ciekawostką cyberbezpieczeństwa. Stanowią obecnie zagrożenie dla bezpieczeństwa, ryzyko finansowe i poważne zagrożenie dla reputacji.
Luka w komunikacji jest większa niż luka w bezpieczeństwie
Większość zagrożeń związanych z deepfake skupia się na algorytmach wykrywania i protokołach weryfikacji. Dostawcy cyberbezpieczeństwa oferują rozwiązania, a działy IT aktualizują zasady. Jednak niewielu z nich odpowiada na kluczowe pytanie dla CMO i CCO: co stanie się z Twoją marką, jeśli wizerunek Twojego dyrektora generalnego zostanie wykorzystany do oszustw, dezinformacji lub ataków personalnych?
Przez dwie dekady doradzałem kadrze kierowniczej podczas kryzysów reputacyjnych, w tym dochodzeń regulacyjnych i wrogich kampanii medialnych. Istnieją ustalone wytyczne dotyczące takich sytuacji. Nie ma jednak ustalonego protokołu w przypadku incydentów takich jak syntetyczny obraz dyrektora generalnego zezwalający na oszukańcze przejęcie lub sfabrykowany film przedstawiający założyciela, który staje się wirusowy.
Widoczność kadry kierowniczej jest teraz dwukierunkowa
Każdy post w mediach społecznościowych, przemówienie programowe, pojawienie się podcastu i rozmowa o zarobkach z udziałem Twojego dyrektora generalnego dostarcza potencjalnych danych szkoleniowych dla atakujących. Widoczność, która buduje marki wykonawcze i humanizuje przywództwo, zapewnia również próbki głosu i mapowanie twarzy potrzebne w mediach syntetycznych.
Nie wszystkie ataki kończą się sukcesem. W zeszłym roku oszuści zaatakowali dyrektora generalnego globalnej firmy reklamowej. Utworzyli fałszywe konto WhatsApp, korzystając z jego zdjęcia, zorganizowali rozmowę w aplikacji Microsoft Teams z głosem sklonowanym przez sztuczną inteligencję, przeszkolonym na materiałach YouTube i poprosili dyrektora wyższego szczebla o sfinansowanie nowego przedsięwzięcia biznesowego. Pracownik odmówił i firma nic nie straciła, ale wyrafinowanie próby ujawniło, jak daleko zaawansowana jest technologia.
Liczba deepfake’ów wzrosła z 500 000 w 2023 r. do ponad ośmiu milionów w 2025 r. Oszustwa polegające na klonowaniu głosu wzrosły o 680 procent w ciągu jednego roku. Oczekuje się, że do 2027 r. przewidywane straty wynikające z oszustw wykorzystujących sztuczną inteligencję osiągną 40 miliardów dolarów. Jednak tylko 32 procent dyrektorów przedsiębiorstw uważa, że ich organizacje są przygotowane na poradzenie sobie z incydentem związanym z deepfake.
Trzy pytania, na które powinien teraz odpowiedzieć każdy zespół ds. komunikacji
Po pierwsze, czy masz protokół ujawniania ataków na media syntetyczne? Jeśli wygenerowana przez sztuczną inteligencję replika Twojego dyrektora generalnego zostanie wykorzystana do oszustwa lub dezinformacji, kto się komunikuje, kiedy i jakimi kanałami?
Po drugie, czy wykonałeś głębokie ćwiczenie na blacie? Symulacje kryzysowe powinny teraz uwzględniać scenariusze, w których wizerunek dyrektora jest wykorzystywany do wewnętrznych oszustw, zewnętrznej dezinformacji lub obu tych celów.
Po trzecie, czy skoordynowałeś sekwencję reakcji z działami prawnymi, cyberbezpieczeństwa i relacji inwestorskich? Kryzys typu deepfake to zdarzenie związane z oszustwem, potencjalny obowiązek ujawnienia informacji i zagrożenie dla marki jednocześnie. Pojedyncze odpowiedzi zawiodą.
Działaj przed atakiem.
Firmy, które przetrwają tę epokę, opracowują teraz protokoły kryzysowe, zanim na filmach, których nigdy nie nagrały, nie pojawią się twarze ich dyrektorów, mówiące rzeczy, których nigdy nie powiedzieli, autoryzujące transakcje, których nigdy nie zatwierdziły. Wizerunek Twojego dyrektora generalnego jest atutem marki. Jest to także wektor ataku.
Zespoły ds. komunikacji i marki, które traktują deepfake jako cudzy problem (problem z cyberbezpieczeństwem, problem informatyczny, problem oszustwa finansowego), zamiast formułować strategie, będą musiały pisać przeprosiny.
Opinie wyrażane w komentarzach Fortune.com są wyłącznie poglądami ich autorów i niekoniecznie odzwierciedlają opinie i przekonania Fortune.

