Чи може штучний інтелект розпізнавати брехню краще, ніж люди?
- Matthew Parish
- 2 хвилини тому
- Читати 5 хв

Здатність виявляти обман завжди захоплювала філософів, психологів, юристів і шпигунів. Від сократівських діалогів до поліграфів людство давно боролося з питанням, як зрозуміти, коли людину обманюють. Двадцять перше століття представило нового суперника в цьому стародавньому змаганні: штучний інтелект. Складні алгоритми тепер аналізують мікровирази обличчя, модуляцію голосу, мову тіла і навіть лінгвістичні патерни. Однак питання залишається відкритим: хто кращий детектор брехні, людський розум чи машина, яка його імітує?
Людський талант до інтуїції та контексту
Люди – це соціальні тварини, які еволюціонували, щоб читати одне одного. Еволюційні психологи припускають, що виявлення обману пов'язане з інстинктами виживання: розрізнення правди від брехні визначає довіру, співпрацю та безпеку в соціальних групах. Люди покладаються не лише на міміку чи тон, а й на контекст стосунків, історію взаємодії та моральну інтуїцію. Кваліфіковані фахівці – слідчі, переговірники чи судді – розвивають інстинктивне відчуття вагань, ухилення від відповіді, надмірної точності в мові або відсутності точності. Однак навіть це дуже важко сформулювати: шокуючі або пам'ятні події часто згадуються роками з дуже конкретною точністю, тоді як більш випадкові та нічим не примітні події часто взагалі не пам'ятаються. Люди можуть пам'ятати дати, коли з ними траплялися надзвичайні або жахливі речі, можливо, все своє життя; було б дивно, якби ці спогади зникли. Це частина не до кінця зрозумілої психології травми.
Наукові експерименти давно показали, що точність виявлення брехні без сторонньої допомоги людиною надзвичайно низька, коливаючись приблизно від 50 до 60 відсотків — ледь перевищує випадковість. Те, що люди отримують у контекстуальному розумінні, вони втрачають через когнітивне упередження: вони схильні вірити тим, хто їм подобається, і не довіряти тим, хто їм не подобається; вони проектують чесність чи нечесність на інших на основі культури, емоцій чи попереднього досвіду. Результатом є глибоко людський, але ненадійний компас для пошуку істини. Деякі люди набувають надзвичайного таланту робити це, дотримуючись інтуїції, регулярно стикаючись із ситуаціями, в яких люди більш схильні брехати.
Звідси й досвід адвоката, який роками проводив перехресний допит свідків, який набуває шостого чуття (якщо він чи вона вміє це робити), що свідок, якому ставлять запитання, на які він зобов'язаний відповісти, якимось чином не говорить правду, або повністю вигадує свою історію, або прикрашає її. Якщо люди відрепетирували історію, раптове запитання про щось інше, що, здавалося б, не пов'язане з нею (що вони не відрепетирували), створює вагання, невпевненість та зміну поведінки. Але іноді цього не відбувається. Це мистецтво, а не наука, і незрозуміло, чи можуть машини навчитися тому ж шостому чуттю, оскільки воно не здатне до алгоритмічного вираження (принаймні, поки що). Книги про перехресний допит навчають правилам для початківців (наприклад, закриті питання, відсутність відкритих питань), і комп'ютери можуть вивчити ці правила; але з десятиліттями досвіду ці правила викидаються за двері, коли досвідчений допитувач вчиться викривати обман за допомогою цілеспрямованих відкритих питань, які залишають брехуна вільно викривати себе нісенітницею, яку він вигадує на місці.
Так само люди можуть навчитися брехати. Адвокати вчаться брехати від імені своїх клієнтів. Шпигуни вчаться ефективно брехати, щоб приховати свої справжні наміри. Вони вивчають методи, які використовують шукачі правди, щоб розрізняти правду та брехню, і маніпулюють власним дискурсом, щоб ухилитися від цих методів. Зрештою, машини можуть брехати, оскільки всі користувачі моделей великих мов усвідомлюють, коли їм ставлять запитання або коли вони займаються завданням, що вимагає знань, яких у них немає; тому вони просто вигадують. Люди, як правило, не здатні розбирати брехню машин без величезної кількості судово-медичного аналізу.
Алгоритмічне око: дані, закономірності та ймовірність
Штучний інтелект підходить до обману за допомогою розпізнавання образів. Системи машинного навчання, навчені на тисячах відеокліпів, можуть розпізнавати ледь помітні мікровирази обличчя, невидимі для недосвідченого ока. Алгоритми обробки природної мови можуть сканувати транскрипти на предмет лінгвістичних маркерів брехні: менше самопосилань, більше слів із негативними емоціями, більше когнітивного навантаження, що відображається у складності синтаксису. Інструменти аналізу голосу виявляють мікротремтіння в мовленні, яке виникає, коли людина перебуває у стресі або вигадує інформацію. Але відмінності між стресом, концентрацією (щоб якомога точніше висловити свої спогади) та обманом надзвичайно важко змоделювати.
Такі системи часто перевершують людей у лабораторних тестах. Дослідження Стенфордського університету 2022 року показало, що модель штучного інтелекту, яка аналізує вирази обличчя та тон голосу, виявляє обман з точністю 73%, порівняно з 54% для людей-спостерігачів. При об'єднанні з лінгвістичними даними точність зросла майже до 80%. Правоохоронні органи Сінгапуру використовують детектори брехні в поліцейських розслідуваннях з 1991 року, хоча їхні результати не є прийнятними в суді. Тому в жорстко контрольованих середовищах машина здається перевершуючою: швидшою, послідовнішою та вільною від людських упереджень. Але виявлення брехні рідко проводиться в лабораторних умовах; воно важливе натомість у судах, поліцейських дільницях, де два агенти розвідки зустрічаються, щоб перехитрити один одного, та в інших ситуаціях з високим рівнем адреналіну далеко від лабораторій Стенфордського університету.
Проблема неоднозначності та етики
Більше того, поза лабораторією правда рідко буває бінарною. Обман не завжди буває усвідомленим: люди неправильно пам'ятають, перебільшують або приховують емоції без наміру обманювати. Чудова книга Елізабет Лофтус 1979 року « Свідчення очевидців » розглядає той факт, що свідки жахливих або визначних подій мають звичку заповнювати прогалини у своєму досвіді, які вони не можуть згадати, і переконувати себе в істинності деталей, які вони заповнили. Багато помилкових переконань були засновані на таких звичках. Системи штучного інтелекту, навчені на маркованих даних, мають труднощі з такими нюансами. Вони можуть називати горе провиною, тривогу нечесністю, рухи очей брехнею або культурну стриманість обманом. Алгоритми залежать від навчальних даних, які часто відображають західні норми поведінки, і тому можуть неправильно інтерпретувати жести, інтонацію або вирази обличчя з інших культур.
Більше того, етичні проблеми наростають. Виявлення брехні за допомогою штучного інтелекту може легко стати нав'язливим або примусовим. При використанні під час прикордонного контролю, співбесід або поліцейських допитів це ризикує перетворити ймовірнісні оцінки на моральні вердикти. Моделі штучного інтелекту можуть мати проблеми з розрізненням юридичних тестів «на рівні ймовірності» та «поза розумним сумнівом», що призводить до їх використання в юридичних контекстах, що є надзвичайно морально нестійким. Крім того, хибнопозитивний результат від машини може зруйнувати кар'єру або життя. Непрозорість алгоритмічного мислення посилює проблему: людина-слідувач може виправдати свої підозри; модель штучного інтелекту не може пояснити, чому вона назвала когось брехуном.
До симбіозу людини та машини
Тому найперспективніший підхід може полягати не в конкуренції, а у співпраці. Люди мають емоційний інтелект та розуміння контексту; системи штучного інтелекту пропонують розпізнавання шаблонів та узгодженість. Коли алгоритми виявляють поведінкові аномалії, кваліфіковані інтерв'юери можуть інтерпретувати їх з урахуванням мотивів, передісторії та обставин. Комбіновані системи, що використовуються в розслідуваннях боротьби з тероризмом та фінансового шахрайства, вже використовують такі гібриди людини та машини, з результатами, перевершуючими будь-який з них окремо.
Висновок: Істина поза межами алгоритму
Виявлення обману — це мистецтво в рівній мірі, як і наука. Штучний інтелект може кількісно визначити мікровирази та структури речень, але він ще не може осягнути іронію, сором чи моральні вагання — тонкі складові людської правдивості. Найефективнішим детектором брехні залишається партнерство між аналітичною точністю та гуманним судженням: око машини, яке ніколи не моргає, та людське серце, яке розуміє, чому хтось може брехати (або може сказати правду), і яке може зрозуміти наслідки стресу, втоми, хвилювання та страждань для артикуляції речень та рухів тіла.

