Глибоке фейкове шахрайство: як можна довіряти чомусь в інтернеті?
- 2 хвилини тому
- Читати 6 хв

--- ПРИМІТКА: Фото вище — це діпфейк ---
ЙОГО ПОВТОРНЕ ВИКОРИСТАННЯ МОЖЕ КРИМІНАЛЬНО КРИМІНАЛЬНО ЗЛОЧИНОМ
Понеділок, 23 лютого 2026 року
На зорі кінематографа фальшивість була ремеслом — протезування, освітлення, дубляж, швидкий монтаж. Глядачі мали вірити, принаймні протягом усієї сцени, що каскадер — це актор, що студійний декор — це Париж, що голос, записаний у кабіні, природно належить губам на екрані. Ніщо з цього не було новим, і ніщо з цього не було переважно кримінальним. Це було розповіддю історій, рекламою, переконанням — іноді пропагандою — що здійснювалися за допомогою дорогих, спеціалізованих і, що найважливіше, дефіцитних інструментів.
Глибоке фейкове шахрайство — це те, що відбувається, коли дефіцит зникає.
Фраза «діпфейк» увійшла у суспільне життя не через університет чи урядову лабораторію, а завдяки грубій демократії інтернету. Наприкінці 2017 року користувач Reddit популяризував цей термін і практику — обличчя, які ентузіасти обмінювали на відео за допомогою споживчого обладнання та запозиченого коду. Те, що починалося як трансгресивне хобі, швидко перетворилося на шаблон. Методи вдосконалилися, інструменти стали простішими, і незабаром питання перестало полягати в тому, чи можна зробити переконливу підробку. Питання стало в тому, наскільки дешево, як швидко і в якому масштабі. Російські розвідувальні служби відіграли ключову роль у масштабуванні такого роду шахрайства та його використанні для дискредитації або приниження людей. Тепер ця технологія доступна кожному.
Цей перехід — від можливостей до індустріалізації — є справжньою історією шахрайства з використанням глибоких фейків.
Технічне коріння — до того, як слово існувало
Глибокі фейки не з'явилися з нічого у 2017 році. Академічні дослідники десятиліттями досліджували способи реанімації облич та синхронізації ротів із аудіо, часто з нешкідливою метою, такою як дубляж, доступність та кіновиробництво.
Знаковим прикладом є стаття 1997 року «Перезапис відео», у якій було продемонстровано, як можна змінити існуючі відеоматеріали таким чином, щоб людина ніби промовляла слова, які вона не вимовляла — рання форма автоматизованого повторного синтезу губ, побудована на основі методів машинного навчання, доступних на той час. Йшлося не про шахрайство; це був технічний доказ і, на перший погляд, зручність для виробництва.
Ще дві віхи відбулися зі збільшенням обчислювальної потужності та доступності даних.
У 2016 році лінія досліджень «Face2Face» продемонструвала відтворення облич у реальному часі — зміну виразів обличчя на відео таким чином, щоб це можна було відтворювати наживо, а не як кропітку вправу після обробки.
У 2017 році у фільмі «Синтез Обами» було показано, як сам лише звук може викликати правдоподібні рухи губ у відео публічної особи — знову ж таки, це було представлено як дослідження і знову явно з подвійним використанням.
Ці проекти мали значення, оскільки вони допомогли перетворити маніпулювання обличчями з ремесла на конвеєр — дані на вході, синтетична подібність на виході. Тим часом ширша революція глибокого навчання забезпечила універсальний механізм для створення та вдосконалення зображень, голосів і відео. Зростання генеративних методів у середині 2010-х років, яке широко обговорюється як поворотний момент в історії діпфейків, пришвидшило створення того, що можна було створити, і зменшило необхідні навички для цього.
На той час, коли слово «діпфейк» стало популярним, основний напрямок руху вже був визначений — більше реалізму, менше тертя, нижча вартість.
Від пустощів до монетизації
Ранні діпфейки часто поширювалися як видовище — доказ того, що цей трюк можливо виконати. Значна частина початкової популярності була зосереджена навколо сексуальних зображень без згоди, що створило похмуру тенденцію, яка зберігається — синтетичні медіа використовуються не лише для обману, а й для приниження та примусу. Однак кримінальна економіка прагматична. Куди йде увага, туди йдуть гроші; куди йдуть гроші, туди приходять організовані методи.
Головне розуміння для шахраїв просте: перевірки особи – це соціальні ритуали. Вони спираються на знайомі сигнали: обличчя на екрані, голос у телефоні, невеликий набір вербальних манер. Корпоративне життя, особливо після пандемії, значно збільшило кількість рішень, прийнятих на відстані. Переказ коштів авторизується через дзвінок; постачальник «перевіряється» через електронну пошту; керівник вищої ланки «схвалює» терміновий запит під час подорожі. У цьому середовищі синтетичні медіа – це не просто новинка. Це прискорювач соціальної інженерії.
Глибоке фейкове шахрайство не замінило старі афери, а радше зробило їх більш переконливими.
Компрометація ділової електронної пошти вже використовує ієрархію та терміновість. Додайте клонований голос, і вказівці сплатити стане важче протистояти. Романтичне шахрайство вже використовує емоції. Додайте короткий, переконливий відеокліп, і емоційний важіль зросте. Шахрайство з «доказом життя» вже давно спирається на фрагментарні докази; синтетичні носії роблять такі докази легшими для створення, а отже, важчими для довіри.
Вирішальний період — дешеві інструменти, велика кількість даних, віддалена довіра
Три сили перетворили шахрайство з використанням глибоких фейків з цікавості на буденність.
По-перше, комерціалізація інструментів. Те, що вимагало експертних знань, тепер постачається в пакетах — клонування голосу, заміна обличчя, синхронізація губ — зібраних за простими інтерфейсами. Бар'єр входу знизився, і тому коло потенційних злочинців розширилося.
По-друге, велика кількість навчальних матеріалів. Звичайні люди зараз публікують високоякісні аудіо- та відеозаписи себе як звичайну справу — у соціальних мережах, голосових нотатках, відеодзвінках, записах публічних виступів, подкастах. Сировина для видавання себе за себе є всюди, і вона часто пов'язана з іменами, посадами та особистими мережами.
По-третє, інституційний зсув у бік дистанційної верифікації. Банки, фірми та державні органи перевели процеси в онлайн — адаптацію клієнтів, внутрішні погодження, закупівлі, рекрутинг. Зручність стала конкурентною перевагою, а тертя розглядаються як недолік. Глибокі фейки використовують цю перевагу.
Правоохоронні органи публічно попереджають, що злочинці використовують штучний інтелект для створення переконливих голосових та відеоповідомлень на підтримку шахрайства проти окремих осіб та підприємств. Європейські оцінки поліцейської діяльності також стверджують, що штучний інтелект прискорює організовану злочинність та створює умови для використання синтетичних медіа для шахрайства та шантажу, ускладнюючи правоохоронні органи та встановлення винних.
Коли такі попередження звучать абстрактно, один випадок став показовим. У лютому 2024 року поліція Гонконгу описала шахрайство, в якому співробітника багатонаціональної компанії за допомогою відеоконференції з використанням технології deepfake змусили здійснити кілька переказів на загальну суму 200 мільйонів гонконгських доларів — близько 25 мільйонів доларів США. Значення полягало не лише в сумі. Річ була в методі. Обман не спирався на одну підроблену електронну адресу чи підроблений номер телефону; він спирався на штучну зустріч — імітацію соціальної реальності, в якій зазвичай приймаються корпоративні рішення.
Це майбутня небезпека глибоких фейків — шахрайства, яке імітує процес, а не просто ідентичність.
Сьогоднішній день — промисловий масштаб, нормована підозра
На початку 2026 року суперечка вже точиться не про те, чи існує шахрайство з використанням глибоких фейків, а про його масштаб та вплив на довіру. У звітах про нещодавні дослідження шахрайство з використанням глибоких фейків описується як таке, що відбувається в «промислових масштабах» — дешеві інструменти для видавання себе за іншу особу, швидке виконання, ширше коло цілей. Все, що потрібно, це фотографія людини, і можна створити ціле фейкове відео. Ця фраза має значення, оскільки вона відображає незручну правду — це не кустарний злочин, скоєний кількома технічно обдарованими ентузіастами. Це перетворюється на виробничу лінію.
Дві особливості сучасного шахрайства з використанням глибоких фейків є особливо руйнівними.
Перший – це перехід від відео до голосу. Люди напрочуд толерантні до недосконалого відео – збої можна пояснити пропускною здатністю, якістю камери, стисненням. Аудіо, навпаки, є інтимним та авторитетним; знайомий голос несе презумпцію автентичності. Якщо фінансовий директор вважає, що він чи вона чує свого головного виконавчого директора, рішення може бути прийнято до того, як сумніви виникнуть.
Друга — це поява того, що можна назвати правдоподібними атаками заперечення. Коли обман дешевий, жертву не лише обманюють, а й змушують доводити, що її обдурили. Організації можуть бути збентежені та змусити їх мовчати — ціни на акції, репутація, регуляторний контроль. Тим часом справжні записи можуть бути відхилені як штучні. Результатом є загальний туман, у якому правда стає дорогою.
Ось чому deep fake — це не просто тенденція кіберзлочинності. Це стрес-тест для соціальної інфраструктури довіри.
Куди це піде далі — ймовірні траєкторії
Ми повинні очікувати, що шахрайство з використанням глибоких фейків розвиватиметься за трьома напрямками.
Одним з них є масштаб — більше спроб, нижча цінність спроби, автоматизація таргетингу. Шахраї вже поводяться як маркетологи, тестуючи скрипти та вдосконалюючи коефіцієнти конверсії. Синтетичні медіа відповідають цій логіці.
Ще один спосіб — це точність імітації, створена на основі викрадених персональних даних та загальнодоступного контенту. Найефективніший обман — це не ідеальне обличчя, а правдоподібний контекст: впізнаваний голос, правильний внутрішній жаргон, посилання на реальний проект, правильна терміновість, що викликає тривогу.
Третій – це гібридизація – глибокі фейки у поєднанні зі звичайним компрометуванням. Вкрадена поштова скринька надає справжню історію електронної пошти; штучний голос надає авторитет; підроблений ідентифікатор абонента надає останній поштовх. Кожен елемент приховує слабкі сторони інших.
Що можна зробити — без магічного мислення
Не існує єдиного «детектора діпфейків», який би повернув невинність інтернету. Спочатку покращиться виявлення, а потім піде ухилення. Більш надійні засоби захисту є процедурними та культурними, розробленими на основі припущення, що аудіо та відео можуть брехати.
Корисні заходи зазвичай виглядають нудними, і саме тому вони працюють:
Відокремлення ідентифікаційних даних від інструкцій — жодні ризиковані платежі, скидання облікових даних чи розкриття даних не повинні бути дозволені виключно на вимогу знайомого обличчя чи голосу.
Вбудуйте тертя у високоризикові робочі процеси — зворотні дзвінки на відомі номери, схвалення великих переказів двома особами, періоди очікування на зміни банківських реквізитів постачальника.
Ставтеся до внутрішніх відеодзвінків як до ненадійного середовища, особливо якщо йдеться про гроші, доступ або конфіденційну інформацію.
Навчайте персонал на реальних прикладах — люди вчаться обережності не з гасел, а зі сценаріїв, що нагадують їхню щоденну роботу.
Страховики, регулятори та правоохоронні органи вже підштовхують компанії до цих дисциплін, частково тому, що збитки більше не є гіпотетичними.
Однак ширше суспільне питання залишається. У міру того, як синтетичні медіа стають нормою, ми можемо знову перейняти звички, від яких нас відмовлявся ранній інтернет – перевірку через вторинні канали, цінування особистого підтвердження, недовіру до емоційної безпосередності екрану. Спочатку це буде виглядати як культурний регрес. Насправді це може бути адаптацією.
Шахрайство з використанням глибоких фейків по суті не пов'язане з технологіями. Йдеться про використання людських спрощень — нашого бажання вірити в те, що виглядає і звучить знайомо, нашої готовності підкорятися владі, нашого страху відкласти термінове прохання. Технології лише індустріалізують ці інстинкти.
Старий вислів вашингтонської редакції звучав так: «Якщо твоя мати каже, що кохає тебе, перевір це». Діп-фейки беруть цей цинізм і перетворюють його на навичку виживання.

