Skip to main content
Найшвидше зростаюча AI-загроза

Що таке Deepfake-атака

Синтетичні AI-голос і відео, що видають себе за керівників у реальному часі, націлені на фінансові команди, HR та C-suite, щоб санкціонувати шахрайські перекази й вилучити чутливі дані.

Автор Перевірено

Deepfake-атаки озброюють AI-генеровані голос і відео проти фінансів і керівників

Deepfake — це синтетичний медіаконтент, вироблений AI-моделями, зазвичай генеративно-змагальними мережами (GAN) чи дифузійними архітектурами, що відтворює обличчя, голос або манеру цільової особи з достатньою точністю для подолання людського розпізнавання. У безпековому контексті deepfakes — не новинка. Це механізм доставки шахрайства, нашарований поверх компрометації ділового листування, вішингу, вейлінгу та CEO fraud. Сам синтетичний медіаконтент рідко є атакою. Атака — це переказ, витік даних або скидання облікових даних, які deepfake розблоковує.

Канонічний випадок — Arup, глобальна інженерна фірма. На початку 2024 року поліція Гонконгу підтвердила, що працівник фінансового підрозділу гонконгського офісу Arup санкціонував пʼятнадцять переказів на суму близько 200 мільйонів гонконгських доларів (приблизно 25 мільйонів доларів США), приєднавшись до відеоконференції, де всі інші учасники, включно з CFO, були deepfake у реальному часі. Працівник був підозрілим щодо першого листа, але заспокоївся, побачивши і почувши на дзвінку те, що виглядало як знайомі колеги. Arup публічно підтвердила інцидент. Це найбільший задокументований публічний deepfake-шахрайський випадок з єдиним працівником.

Двома роками раніше відеодіпфейки, що працювали б у реальному часі, були дослідницькою демонстрацією з очевидними артефактами. Голосові клони 2022 року, що живили першу хвилю вішинг-атак, потребували кількох хвилин чистого вихідного аудіо і давали впізнавану невідповідність каденції. До 2024 року Regula Forensics опитала 1 000 організацій і виявила, що 49% зустрічалися з deepfake-шахрайством проти своїх потоків ідентифікаційної верифікації або співробітників. До 2025 року real-time face-swap і голосові клон-інструменти працюють на одній споживчій GPU. Розрив у точності, що захищав підприємства у 2022, закрито.

Для покупців, що порівнюють human risk management вендорів, питання вже не «чи покриваєте ви deepfakes». Питання в тому, чи відображає ваш тренінг те, як deepfakes реально приходять: у поєднанні зі спуфленим email-тредом, реальним запрошенням на зустріч і callback на номер, контрольований зловмисником. Далі на сторінці: як розгортається deepfake-атака, три задокументовані кейси, восьмиконтрольний фреймворк захисту, на який сходяться лідери фінансів і безпеки, та як RansomLeak тренує рефлекс верифікації через вправу whaling-with-a-deepfake.

Як розгортається deepfake-атака

1

Вибір цілі

Зловмисники профілюють організації для пошуку керівників із публічною голосовою присутністю та фінансових команд, що обробляють високовартісні перекази. Поширені цілі — CFO, контролери казначейства, менеджери accounts payable, M&A-команди угод і помічники керівників. Лістингові компанії, фірми в активному M&A і family offices надмірно представлені у даних кейсів, бо їхнє керівництво одночасно видиме й уповноважене переміщати гроші.

2

Збір зразків голосу і відео

Зловмисник збирає 30-90 секунд чистого вихідного аудіо з earnings-дзвінків, конференційних виступів, подкаст-інтервʼю, YouTube keynote і LinkedIn-відеопостів. Відеодіпфейки потребують кількох хвилин добре освітлених кадрів. Для C-suite цілей це тривіально. Для middle-level фінансиста, якого видають за вендора, зловмисники збирають із внутрішніх записів town-hall, витеклих через скомпрометовану поштову скриньку, або з публічних виступів на вебінарах.

3

Файн-тюнінг моделі

Голосове клонування працює на комерційних API (ElevenLabs, Resemble.ai, PlayHT) або open-source проєктах (Tortoise-TTS, RVC, Coqui). Відеодіпфейки використовують SimSwap, Roop, DeepFaceLive чи комерційні аватар-платформи (HeyGen, Synthesia, D-ID), застосовані off-policy. Real-time пайплайни маршрутизують потік webcam через face-swap модель і синтезований голос менш ніж за 200 мс затримки, що значно нижче порогу, при якому людина сприймає затримку.

4

Привід і доставка

Deepfake майже ніколи не приходить холодним. Він їде на реальному email-треді чи захопленій поштовій скриньці, часто вендора чи помічника керівника, скомпрометованого тижнями раніше. Поширені вектори доставки — вейлінг-лист, за яким слідує voicemail з клонованим голосом, що підтверджує запит, запрошення Teams чи Zoom, де зловмисник приєднується як керівник, або WhatsApp-голосова нотатка з номера, спуфленого під особистий. Привід — терміновість: угода, що закривається, дедлайн регулятора, конфіденційне розслідування.

5

Тиск і вилучення

Опинившись на дзвінку чи з voicemail, зловмисник тисне на необоротну дію: переказ новому отримувачу, скидання MFA для акаунта керівника, експорт даних payroll або клієнтських PII. Тиск загорнутий у мову конфіденційності («не залучайте легал поки що»), що пригнічує латеральну верифікацію, яка спіймала б шахрайство. Вікно від першого контакту до переказу часто менше двох годин.

Реальні кейси deepfake-атак

Arup, Гонконг, 2024: 25 мільйонів доларів утрачено через deepfake-відеоконференцію

У січні 2024 року фінансовий працівник у гонконгському офісі Arup отримав лист від когось, хто видавав себе за UK-CFO, із запитом на конфіденційну транзакцію. Працівник був підозрілим, поки не приєднався до відеодзвінка з «CFO» і кількома іншими впізнаваними керівниками. Усі інші особи на дзвінку були deepfake у реальному часі, згенеровані з публічно доступних кадрів керівництва Arup. Переконаний, працівник провів пʼятнадцять переказів на пʼять гонконгських банківських рахунків загальною сумою 200 мільйонів гонконгських доларів (близько 25 мільйонів доларів). Поліція Гонконгу підтвердила шахрайство в лютому 2024, а Arup публічно визнала інцидент. Жодної технічної компрометації не сталося — лише синтетичні обличчя і голоси на рутинному корпоративному відеодзвінку.

UK-енергетична фірма, 2019: 243 000 доларів переведено після CEO-дзвінка з клонованим голосом

У кейсі, вперше повідомленому The Wall Street Journal і страховиком фірми Euler Hermes, UK-CEO неназваної енергетичної компанії отримав телефонний дзвінок від того, що звучало як CEO німецької материнської компанії, з інструкцією перевести 220 000 євро (близько 243 000 доларів) угорському постачальнику протягом години. Клонований голос ніс легкий німецький акцент і характерну каденцію керівника. Переказ пройшов. Другий дзвінок попросив ще один переказ, на якому CEO запідозрив, і шахрайство було розкрито. Це один із перших публічно задокументованих CEO-фрод із клонованим голосом і шаблон, за яким пішов кожен наступний кейс.

Ferrari, 2024: deepfake-CEO-дзвінок заблокований challenge-питанням про особисте знання

У липні 2024 року керівник Ferrari отримав WhatsApp-повідомлення, а потім телефонний дзвінок від голосу, що сильно нагадував CEO Бенедетто Ваньу і стверджував, що конфіденційне поглинання потребує негайних дій. Номер і фото профілю були спуфлені. Керівник запідозрив через тонкі відмінності інтонації і поставив питання, на яке зміг би відповісти лише справжній CEO (за повідомленнями, про назву книги, яку Ванья нещодавно рекомендував). Deepfake-дзвінок раптово завершився. Ferrari повідомила про спробу і сповістила органи. Кейс зараз цитується як підручниковий приклад того, як challenge-фраза-захист спрацював у реальному часі.

Як захиститися від deepfake-атак

Верифікація кодовим словом і challenge-фразою

Встановіть ротаційне кодове слово або challenge-питання про особисте знання для будь-якого переказу, зміни вендора, скидання MFA або запиту на чутливі дані, ініційованого голосом або відео. Кодове слово ніколи не повинне переміщатися через email, Slack чи Teams chat. Кейс Ferrari показує, що контроль працює під живим тиском, коли політика реально практикується.

Подвійна авторизація з callback на відомий номер

Вимагайте схвалення двох осіб для кожного переказу понад board-set поріг і callback на телефонний номер, перелічений у вашому внутрішньому довіднику чи HRIS, ніколи не на номер, наданий в оригінальному запиті. Callback — найбільш леверажний контроль, бо він змушує зловмисника на канал, який він не контролює.

OPSEC особистого пристрою керівника і соціальних медіа

Обмежуйте обсяг чистих зразків голосу і відео керівника, доступних онлайн. Заохочуйте CFO, CEO і членів ради тримати подкаст і відеовиступи за подіями, що публікують лише уривки, уникати LinkedIn-відеопостів якщо це не потрібно, і вимикати неавтентифікований доступ до voicemail. Експозицію не можна усунути, але її можна зменшити.

Out-of-band верифікація на окремому каналі

Для будь-якого термінового запиту, отриманого на одному каналі (email, Teams, voicemail), підтверджуйте на іншому каналі перед дією. Якщо запит приходить email і підкріплюється voicemail від того ж актора, поводьтеся з обома як з одним каналом. Out-of-band означає свіжий, внутрішньо джерельний контактний шлях.

Deepfake-aware тренінг фінансів і HR

Загальні модулі поінформованості не виносять на поверхню підказки, що мають значення. Фінанси, казначейство, HR, помічники керівників і IT-хелпдеск потребують сценарних вправ, що поєднують спуфлений лист, клонований voicemail і deepfake-відеодзвінок. Патерн Arup тепер добре задокументований і чітко мапується у tabletop-вправу.

MFA-resistant автентифікація для downstream-дій

Успішний deepfake-дзвінок часто закінчується запитом push-схвалити MFA prompt або зачитати одноразовий код. Переведіть акаунти керівників на phishing-resistant MFA (FIDO2-апаратні ключі, платформенні passkeys), щоб навіть повністю переконаний працівник не міг віддати придатний фактор по телефону.

Інструменти runtime-детектування

Розгортайте детектування там, де приземляється дзвінок. Pindrop і Reality Defender аналізують голос на синтез-артефакти на вхідних дзвінках. Microsoft Video Authenticator і Intel FakeCatcher оцінюють відеокадри на ймовірність deepfake. Точність детектування недосконала проти останніх моделей, тому розглядайте їх як додатковий шар, не як основний контроль.

Post-incident плейбук із FBI IC3 і репортингом правоохоронних органів

Стейджте відповідь заздалегідь. Знайте, хто дзвонить у банк, щоб відкликати переказ, хто повідомляє кіберстрахування, хто подає заяву в FBI Internet Crime Complaint Center (IC3) або локальний еквівалент (Action Fraud у Великій Британії, поліцію Гонконгу в кейсі Arup). Вікна відновлення вимірюються в годинах, не в днях. Задокументований плейбук вартує більше за технологію детектування, коли переказ уже пройшов.

Як RansomLeak тренує співробітників виявляти deepfakes

Підписна вправа на цю тему — whaling-with-a-deepfake. Той, хто навчається, бере роль аналітика фінансової команди, який отримує терміновий лист від CFO із запитом на конфіденційну транзакцію, а потім voicemail у клонованому голосі CFO і відеодзвінок, де CFO і двоє інших керівників, схоже, підтверджують переказ. Сценарій побудований прямо за публічним патерном Arup 2024 року, і кожен інтерактивний вибір мапується на реальний контроль: політика callback, перевірка кодового слова, робочий процес подвійної авторизації, out-of-band верифікація.

Вправа спроєктована, щоб будувати рефлекс верифікації, який найбільше потрібен фінансовим командам і помічникам керівників. Розпізнавання deepfake за візуальними артефактами ненадійне і стає таким щокварталу. Розпізнавання того, що терміновий, одноканальний запит на переміщення грошей є підозрілим незалежно від того, наскільки переконливо виглядає обличчя на дзвінку — стійке. Учні залишають з робочим процесом, який можуть повторити під тиском, не зі списком артефактів для запамʼятовування, що застаріє за пів року.

Весь контент RansomLeak постачається як SCORM 1.2 і SCORM 2004 пакети, тому deepfake-вправа падає прямо у вашу наявну LMS (Workday Learning, Cornerstone, Docebo, SAP SuccessFactors, Litmos) без bespoke-інтеграційної роботи. Записи завершення, оцінки і час-на-задачі звітують назад через стандартну SCORM-телеметрію у будь-який dashboard, що ваша команда безпеки чи комплаєнс уже читає.

Що таке deepfake-атака і як бізнес може захиститися?

Deepfake-атака використовує синтетичний медіаконтент, згенерований AI-моделями (генеративно-змагальні мережі чи дифузійні архітектури), щоб імперсонувати обличчя чи голос реальної особи переконливо до подолання людського розпізнавання. У бізнес-контексті deepfakes нашаровані поверх компрометації ділового листування, вейлінгу і вішингу для санкціонування переказів, зливання даних чи запуску скидання MFA. Кейс Arup 2024 року в Гонконгу, де фінансовий працівник санкціонував 25 мільйонів доларів через пʼятнадцять переказів після deepfake-відеоконференції, є канонічним публічним прикладом.

Зловмисники збирають 30-90 секунд чистого вихідного аудіо з earnings-дзвінків, подкастів і LinkedIn-відео для голосового клонування і кілька хвилин кадрів для відеодіпфейків. Інструментарій — комодіті: ElevenLabs, Resemble.ai і Tortoise-TTS для голосу; SimSwap, HeyGen і DeepFaceLive для відео. Regula Forensics виявила у 2024, що 49% організацій стикалися з deepfake-повʼязаним шахрайством проти співробітників або потоків ідентифікаційної верифікації. Розрив точності, що колись захищав підприємства, закрито.

Захист сходиться на фреймворку верифікації, не на технології детектування. Встановіть challenge-кодові слова для будь-якого голосового чи відеозапиту на переміщення грошей чи зміну вендора. Вимагайте подвійну авторизацію з callback-верифікацією на номер з вашого внутрішнього довідника, ніколи на той, що в оригінальному повідомленні. Зменшуйте експозицію голосу і відео керівників онлайн. Тренуйте фінанси, HR і помічників керівників на патерні Arup явно зі сценарними вправами.

Рекомендовані вправи

Сценарні симуляції з каталогу 100+.

Вейлінг з deepfake

Підписна deepfake-вправа, побудована за патерном Arup 2024: спуфлений email, клонований voicemail і живий deepfake-відеодзвінок.

Спробувати вправу

Компрометація ділового листування

Більшість deepfakes їде поверх активної BEC-операції. Ця вправа вчить email-тредовим основам, які deepfakes підсилюють.

Спробувати вправу

Вішинг

Голосово-клоновані deepfakes — це вішинг із синтетичним аудіо. Вправа з вішингу будує callback-рефлекс, що ловить обидва.

Спробувати вправу

Spear Phishing

Цільовий email — точка входу для більшості deepfake-полегшеного wire fraud проти фінансових команд і помічників керівників.

Спробувати вправу

Callback Phishing

Тренує дисципліну верифікації контактних номерів з довіреного джерела — найбільш леверажний deepfake-контроль.

Спробувати вправу

Соціальна інженерія

Deepfakes — це шар доставки поверх класичної соціальної інженерії. Ця вправа покриває базові патерни приводу.

Спробувати вправу

Дотичні терміни глосарія

Швидкі визначення термінів із цього посібника.

Часті запитання

Що питають security-лідери про цю загрозу.

Що таке deepfake?

Deepfake — це синтетичний медіаконтент, згенерований AI-моделями, зазвичай генеративно-змагальними мережами (GAN) чи дифузійними архітектурами, що відтворює обличчя, голос або манеру реальної особи з високою точністю. У кібербезпеці deepfakes використовуються, щоб імперсонувати керівників у voicemail і відеодзвінках і санкціонувати шахрайські перекази або релізи даних.

Поточне покоління голосових клонів потребує лише 30-90 секунд чистого вихідного аудіо. Real-time відеодіпфейки працюють на одній споживчій GPU і можуть приєднуватися до Zoom чи Teams-дзвінків наживо з sub-200ms затримкою.

Як зрозуміти, що відеодзвінок — це deepfake?

На візуальні підказки стає все важче покладатися, як моделі покращуються. Старіші артефакти (розмиті краї навколо волосся і вух, невідповідні відображення в очах, заморожене блимання) досі зʼявляються в budget-інструментарії, але здебільшого відсутні в premium real-time пайплайнах станом на 2025. Узгодженість освітлення, форма вуха і точність синхронізації губ у боковому профілі досі є корисними перевірками.

Надійний захист — процедурний, не перцептивний. Наполягайте на callback на відомий внутрішній номер для будь-якого термінового запиту, що переміщає гроші чи змінює облікові дані. Кейс Ferrari у 2024 був спіймано питанням про особисте знання, не виявленням візуальних артефактів.

Чи використовуються deepfakes у компрометації ділового листування?

Так. Більшість deepfake-шахрайства у 2024 і 2025 поставляється як шар поверх наявної BEC-операції. Зловмисник компрометує чи спуфить поштову скриньку, будує реалістичний email-тред, а потім підсилює запит voicemail із клонованим голосом або deepfake-відеодзвінком, щоб обійти рефлекс «перевір по телефону», який деякі компанії прийняли у відповідь на ранній BEC.

FBI Internet Crime Complaint Center (IC3) відстежує їх як BEC-варіанти. Заявлені збитки від BEC, включно з deepfake-полегшеними кейсами, склали 2,9 мільярда доларів у 2023 у самих лише Сполучених Штатах.

Скільки часу займає створення deepfake-голосу?

Голосове клонування, достатньо добре для одно-хвилинного voicemail чи короткого телефонного обміну, займає близько пʼяти хвилин обчислень на комерційних інструментах на кшталт ElevenLabs чи Resemble.ai при наявності 30-90 секунд чистого вихідного аудіо. Open-source моделі (Tortoise-TTS, RVC, XTTS) довше тюняться, але дають порівнянні результати з того ж вихідного матеріалу.

Real-time голосове клонування для живої розмови потребує файн-тюненого голосу і streaming-інференс пайплайну, що додає інженерних зусиль, але дедалі більше пакується в комерційні API.

Що має робити керівник, якщо підозрює deepfake?

Покладіть слухавку чи завершіть дзвінок негайно. Не ведіть переговори, не дозволяйте зловмиснику говорити далі і не санкціонуйте нічого на місці. Завершіть канал, на якому до вас достукалися.

Тоді верифікуйте на іншому каналі, використовуючи контактний шлях, який ви знайшли самі — телефонний номер з HRIS чи перевірку особисто. Сповістіть команду безпеки і керівництво фінансів паралельно, щоб будь-який переказ у польоті можна було відкликати. Якщо ви вже санкціонували переказ, контактуйте з банком-відправником протягом години і подавайте заяву в FBI IC3 чи відповідний правоохоронний орган із кіберзлочинів у вашому регіоні.

Чи можна детекторним ПЗ надійно ловити deepfakes?

Інструменти детектування (Reality Defender, Pindrop, Microsoft Video Authenticator, Intel FakeCatcher) працюють як ймовірнісна оцінка, не як бінарне судження. Їх точність проти останніх комерційних голосових і відеомоделей падає щокварталу, як якість генерації покращується.

Розглядайте детектування як defense-in-depth шар за процедурними контролями (callback-верифікація, кодові слова, подвійна авторизація). Надійний захист проти deepfake — не ловити синтетичний медіаконтент, а відмовлятися діяти на одноканальний запит на переміщення грошей чи реліз даних, незалежно від того, наскільки переконливо виглядає обличчя чи звучить голос.

Джерела та матеріали для подальшого читання

Першоджерела, на які посилається сторінка, та суміжні рекомендації.

Натренуйте команду проти цієї загрози

Запишіться на 30-хвилинну демонстрацію. Ми підберемо послідовність вправ і графік розгортання.