Перейти до вмісту

Deepfake соціальна інженерія: коли ви не можете довіряти власним очам

Deepfake social engineering - split view comparing a real person and their AI-generated deepfake clone

Ваш CFO приєднується до відеодзвінка з фінансовою командою в Гонконгу. Вона просить виконати серію грошових переказів загалом на $25 мільйонів. Її обличчя, її голос, її манери. Команда виконує. Весь дзвінок був deepfake.

Це сталося з Arup, британською інженерною фірмою, на початку 2024 року. Зловмисники відтворили CFO та кількох інших керівників, використовуючи публічно доступне відео. Кожна людина на тому дзвінку, крім цілі, була синтетичною.

Що таке deepfake соціальна інженерія?

Section titled “Що таке deepfake соціальна інженерія?”

Deepfake соціальна інженерія це використання AI-згенерованих синтетичних медіа для імітації реальних людей під час атак соціальної інженерії. Зловмисники використовують моделі машинного навчання для клонування голосів, генерації реалістичного відео конкретних осіб або створення фальшивих зображень для обману цілей з метою переказу коштів, передачі облікових даних або розкриття конфіденційної інформації. Згідно з Deloitte, збитки від шахрайства, пов’язаного з deepfake, досягли $12,3 мільярда у 2023 році та прогнозуються перевищити $40 мільярдів до 2027 року. Опитування Regula 2024 року виявило, що 49% компаній по всьому світу зазнали шахрайства з deepfake аудіо або відео. На відміну від традиційних атак соціальної інженерії, що покладаються на текст та психологічну маніпуляцію, deepfake додає рівень сенсорної довіри. Люди запрограмовані вірити тому, що бачать і чують. Коли обидва канали підтверджують ту саму особу, скептицизм вимикається.

Як клонування голосу працює в атаках?

Section titled “Як клонування голосу працює в атаках?”

Клонування голосу стало найдоступнішою deepfake-зброєю. Модель VALL-E від Microsoft продемонструвала у 2023 році, що трьох секунд аудіо достатньо для клонування голосу людини. Open-source альтернативи лише знизили планку відтоді.

Зловмисники витягують зразки голосу з дзвінків про прибутки, виступів на конференціях, YouTube-відео, подкаст-виступів і навіть привітань голосової пошти. CEO, який виступає на одній публічній події на квартал, надає достатньо матеріалу.

Найпоширеніший патерн атаки простий: телефонний дзвінок. Клонований голос CEO або CFO дзвонить співробітнику у фінансах і запитує терміновий грошовий переказ. Це турбо-версія вішинг-атаки. Співробітник чує голос свого шефа. Він виконує.

У 2023 році канадська енергетична компанія втратила $243 000, коли зловмисники використали клоноване аудіо голосу CEO для інструктування керуючого директора британської дочірньої компанії переказати кошти угорському постачальнику. Керуючий директор впізнав голос, включаючи легкий німецький акцент CEO.

Чому відео deepfake важче виявити, ніж ви думаєте?

Section titled “Чому відео deepfake важче виявити, ніж ви думаєте?”

Припущення “deepfake виглядають очевидно фальшиво” померло десь близько 2024 року. Інструменти заміни обличчя в реальному часі тепер можуть працювати на споживчому обладнанні під час живих відеодзвінків. Атака Arup продемонструвала, що навіть багатосторонні відеодзвінки можуть бути повністю синтетичними.

Виклик виявлення посилюється в бізнес-середовищі. Співробітники звикли до трохи погіршеної якості відео, мережевого тремтіння та поганого освітлення на дзвінках. Ці артефакти, які можуть сигналізувати про маніпуляцію, не відрізняються від звичайних проблем відеодзвінків.

Які патерни атак повинні розпізнавати співробітники?

Section titled “Які патерни атак повинні розпізнавати співробітники?”

Deepfake соціальна інженерія слідує передбачуваним патернам. Технологія змінюється швидко, але психологія за атаками будується на тих самих техніках маніпуляції, що живлять BEC-атаки та вейлінг-атаки.

Терміновий відеодзвінок

Section titled “Терміновий відеодзвінок”

Керівник приєднується до відеодзвінка і запитує негайну дію: грошовий переказ, скидання облікових даних, виняток з політики. Ключовий індикатор: вони чинять опір будь-якій спробі перейти на альтернативний метод верифікації.

Зловмисник дзвонить, видаючи себе за відомого керівника, і усно авторизує щось, що зазвичай потребує письмового затвердження. Фінансові команди, помічники керівників та персонал підтримки стикаються з найвищим ризиком.

Імітація постачальника

Section titled “Імітація постачальника”

Замість імітації внутрішнього керівника зловмисник клонує голос контакту постачальника і дзвонить для оновлення платіжних реквізитів. Це поєднує deepfake-технологію з тактиками маніпуляції рахунками з компрометації бізнес-пошти.

Зловмисник клонує голос менеджера IT-підтримки і дзвонить співробітникам, запитуючи облікові дані віддаленого доступу, скидання MFA або встановлення ПЗ.

Як співробітники можуть верифікувати особу в епоху deepfake?

Section titled “Як співробітники можуть верифікувати особу в епоху deepfake?”

Верифікація повинна вийти за межі “я впізнаю цю людину”. У світі, де обличчя та голоси можуть бути синтезовані, підтвердження особи вимагає позаканальних перевірок.

Використовуйте окремий канал. Якщо хтось запитує щось незвичне на відеодзвінку, покладіть слухавку і передзвоніть за відомим номером. Не номером, з якого вони дзвонили. Не номером у їхньому підписі електронної пошти. Номером, який ви маєте збереженим у ваших контактах або каталозі компанії.

Встановіть кодові слова. Деякі організації тепер призначають ротаційні кодові слова або фрази, які керівники повинні використовувати під час дзвінків, що стосуються фінансових транзакцій. Deepfake може відтворити голос, але не може створити слово, якого не знає.

Задавайте питання поза контекстом. “Що ми обговорювали на вчорашній зустрічі один-на-один?” або “Де ми проводимо виїзну нараду наступного місяця?” Оператор deepfake, що працює з публічною інформацією, не матиме відповідей на питання про внутрішні, непублічні події.

Стежте за порушеннями політики. Будь-який запит обійти нормальні робочі процеси затвердження повинен ініціювати верифікацію незалежно від того, хто, здається, запитує.

Довіряйте своїм інстинктам щодо часу. Deepfake-атаки скупчуються навколо моментів високого тиску: кінець кварталу, під час поглинань, коли керівники подорожують.

Чим навчання з виявлення deepfake відрізняється?

Section titled “Чим навчання з виявлення deepfake відрізняється?”

Стандартне навчання з кібербезпеки вчить співробітників перевіряти листи, перевіряти URL та повідомляти про підозрілі повідомлення. Навчання з deepfake вимагає інших навичок, бо поверхня атаки інша.

Співробітники повинні розуміти, що відеодзвінки та телефонні дзвінки більше не є доказом особи. Це фундаментальний зсув.

Навчання повинно включати знайомство з прикладами deepfake. Наша вправа “Вейлінг з deepfake” проводить співробітників через реалістичний сценарій, де вони отримують deepfake-відеодзвінок від свого “CEO” і повинні вирішити, як реагувати.

Поведінкове навчання важливіше за технічне виявлення. Артефакти на рівні пікселів, непослідовне моргання або проблеми синхронізації аудіо є ненадійними ознаками, які покращуються з кожним поколінням моделі. Захист на основі процесів (верифікація зворотним дзвінком, подвійна авторизація, кодові слова) працює незалежно від того, наскільки хорошою стає технологія deepfake.

Як організації адаптують свої політики безпеки?

Section titled “Як організації адаптують свої політики безпеки?”

Подвійна авторизація для фінансових транзакцій. Жоден грошовий переказ вище порогової суми не виконується лише на основі усної авторизації.

Протоколи верифікації зворотним дзвінком. Будь-який запит коштів, облікових даних або конфіденційних даних, отриманий по телефону або відео, повинен бути підтверджений зворотним дзвінком за номером з каталогу компанії.

Обмеження публічної експозиції голосів та облич керівників. Деякі організації почали зменшувати обсяг публічного відеоконтенту з участю керівників C-рівня.

Оновлені процедури звітування про інциденти. Співробітники потребують чіткого шляху для повідомлення про підозрювані deepfake-спроби, навіть якщо вони не впевнені.

Як виглядає ландшафт загроз попереду?

Section titled “Як виглядає ландшафт загроз попереду?”

Вартість створення deepfake падає, а якість покращується. Три розвитки визначатимуть ближчий ризик.

По-перше, deepfake в реальному часі під час живих відеодзвінків стануть нерозрізнимими від реальних учасників для випадкових спостерігачів.

По-друге, зловмисники поєднуватимуть deepfake-технологію зі скомпрометованою внутрішньою інформацією. Зловмисник, який спочатку зламує пошту компанії, читає внутрішні комунікації, а потім здійснює deepfake-дзвінок з використанням цього контексту, стає майже нерозрізнимим від реальної людини. Ця комбінація компрометації облікових даних та deepfake-імітації представляє наступну хвилю.

По-третє, мультимодальні атаки ескалюватимуть. Замість одного deepfake-дзвінка зловмисники будуть проводити координовані кампанії: AI-створений фішинговий лист, наступний deepfake-відеодзвінок та підтверджувальне текстове повідомлення, все від синтетичних версій тієї самої людини.

Організації, які впораються з цим добре, це ті, що будують звички верифікації зараз, до того, як технологія зробить виявлення неможливим.