top of page

Машини, розум і судження: чи можуть штучні системи перевершити людський розум?

  • Фото автора: Matthew Parish
    Matthew Parish
  • 30 серп.
  • Читати 6 хв
ree

Метью Періш


Вражаючий прогрес штучного інтелекту за останнє десятиліття спонукав багатьох запитати себе, чи зможуть обчислювальні системи колись зрівнятися з людьми або навіть перевершити їх у всіх аспектах прийняття рішень. У вузьких галузях – шахи, Го, згортання білків або розпізнавання пухлинних уражень у радіології – штучний інтелект вже продемонстрував перевагу. Проте залишається стійка підозра, що щось якісно відмінне задіяно в унікально людському акті формування суджень у середовищах, які не зводяться до явних правил. Судження передбачає не просто розрахунок, а й розсудливість, інтерпретацію та здатність реагувати на нові обставини, для яких ще не існує алгоритму. Філософи, математики та когнітивні теоретики боролися з цією проблемою з різних точок зору, і їхній внесок висвітлює як можливості, так і обмеження обчислювальних моделей.


Неповнота Геделя та межі формалізації


Теореми Курта Геделя про неповноту, вперше опубліковані в 1931 році, часто використовуються в дискусіях про межі штучного інтелекту. Гедель довів, що будь-яка достатньо багата формальна система нездатна довести всі істини в межах своєї області: завжди будуть істинні твердження, які неможливо вивести за правилами системи. Якби людське мислення було повністю формальним, то воно також мало б бути обмежене неповнотою; проте сам Гедель стверджував, що математики-люди можуть бачити істинність певних тверджень, які лежать поза формальною виводністю. Як зазначав Дуглас Хофштадтер у книзі «Гедель, Ешер, Бах» (1979), цей парадокс натякає на таємничу якість людського мислення: ми, здається, здатні подолати механічний формалізм, який самі винаходимо.


Хоча робота Геделя сама по собі не спростовує можливість машинного судження, вона підкреслює ключовий момент: жоден набір заздалегідь встановлених правил ніколи не може бути повним. Світ постійно генерує ситуації, для яких не достатньо жодного скінченного зводу правил. Людське судження процвітає саме в цьому невизначеному просторі. Якщо штучні системи хочуть наблизитися до людського рівня, вони повинні робити більше, ніж просто обчислювати; вони повинні наближатися до здатності долати заданий формалізм, коли це необхідно.


Девідсон і проблема радикальної інтерпретації


Філософія мови та дії Дональда Девідсона пропонує ще один виклик. У таких есе, як «Радикальна інтерпретація» (1973) та його основоположній книзі «Дослідження істини та інтерпретації» (1984), Девідсон стверджував, що розуміння висловлювань іншого агента вимагає не простого застосування словника значень, а цілісної інтерпретації поведінки на тлі переконань, бажань та намірів. Значення виникає не з формальних правил, а з інтерпретаційної практики, вбудованої в людське життя.


Це глибоко резонує з проблемою машинного судження. Системи штучного інтелекту спираються на величезні навчальні набори даних та ймовірнісний висновок. Вони чудово розпізнають образи, але їм бракує живого фону, який робить можливою людську інтерпретацію. Коли суддя зважує справу, коли дипломат читає жест за столом переговорів, або коли лікар ставить діагноз на основі неоднозначних симптомів, кожен з них спирається на шари неявного розуміння, які неможливо звести до кодифікованих правил. Суть Девідсона полягає в тому, що цей фон є конститутивним для самого значення; без нього не можна говорити про справжнє розуміння. Машини можуть імітувати аспекти інтерпретації, але без їхньої вбудованості в людську практику їхні судження ризикують бути поверхневими аналогами, а не справжніми проявами свободи дій.


Гофштадтер та плинність аналогії


Дуглас Р. Хофштадтер у своїй праці «Ґедель, Ешер, Бах» , а пізніше у своїй праці «Флуїдні концепції та творчі аналогії» (1995) наголошував на центральності аналогії в людському пізнанні. Він стверджував, що значна частина наших міркувань полягає не в застосуванні жорстких правил, а у відображенні структур з однієї області на іншу — пошуку резонансів, відповідностей та метафор. Аналогія — це те, що дозволяє нам осмислювати незнайомі ситуації шляхом порівняння зі знайомими. Вона також за своєю суттю є мінливою: «правила» аналогії самі по собі є змінними, змінюючись залежно від контексту.


Обчислювальні моделі досягли прогресу в створенні аналогій — свідченням є великі мовні моделі, що генерують метафори, або аналогічні розв'язувачі проблем у дослідженнях когнітивного штучного інтелекту — але ключове відкриття Гофштадтера залишається: аналогію не можна звести до алгоритму, не втративши її безмежної гнучкості. Сам акт визначення того, які характеристики ситуації є важливими для порівняння, вже передбачає певний вид судження, який не керується правилами. Таким чином, робота Гофштадтера підкреслює складність уявлення штучної системи, яка повністю опанувала б аналогію так багато, спонтанно, як це роблять люди.


Вільні від правил контексти судження


Судження відрізняється від застосування правил тим, що воно вимагає орієнтування в невизначених, обтяжених нормами або морально напружених контекстах. Арістотель у «Нікомаховій етиці» назвав цю здатність фронезіс , або практичною мудрістю: здатністю добре обмірковувати питання, які неможливо звести до універсальних правил.


Розглянемо три приклади:


  1. Юридичне рішення: Суддя повинен застосовувати закон, але статути часто нечіткі, прецеденти суперечливі, а факти унікальні. Акт «здійснення правосуддя» полягає не в механічному дотриманні правил, а у зважуванні справедливості, передбаченні наслідків та формулюванні причин, які балансують між вірністю закону та реагуванням на обставини.


  2. Моральне судження: Етичні дилеми рідко поступаються алгоритмічній ясності. Щоб вирішити, чи говорити болісну правду, чи приховувати її заради доброти, потрібна чутливість до контексту, стосунків та невимірних цінностей.


  3. Політичне судження: державні діячі повинні приймати рішення в умовах невизначеності, часто маючи неповну інформацію та конкуруючі принципи. Мистецтво політики полягає саме в тому, що воно не зводиться до технічної експертизи, а передбачає розсудливість, вчасність та відчуття можливого.


В усіх трьох випадках системи, засновані на правилах, можуть інформувати про рішення — за допомогою прецедентних баз даних, морального числення або політичного моделювання — але остаточний акт судження є незнизу людським.


Досягнення в машинному навчанні: виклик скептикам


Тим не менш, не слід недооцінювати вражаючий прогрес останніх років. Системи машинного навчання дедалі частіше демонструють поведінку, яка здається дивно схожою на судження. Вони можуть синтезувати величезні корпуси даних, виявляти тонкі кореляції та динамічно адаптуватися до зворотного зв'язку. Моделі великих мов наближаються до інтерпретаційної гнучкості; системи навчання з підкріпленням набувають стратегій, які виглядають як розсудливість. Більше того, машини можна навчити імітувати дискреційні процеси, поглинаючи тисячі минулих людських суджень, чи то в юриспруденції, медицині чи бізнесі.


Це породжує тривожну можливість того, що різниця між людським та машинним судженням може бути радше ступенем, ніж характером. Можливо, те, що нам здається незвідно людським — зважування справедливості, відчуття контексту — є просто статистичним відображенням вищого порядку, яке могли б відтворити достатньо розвинені системи.


Передбачення та судження: вирішальна відмінність


На цьому етапі корисно розрізнити дві пов'язані, але різні діяльності: прогнозування та судження. Штучний інтелект чудово справляється з прогнозуванням. Аналізуючи величезні обсяги даних, він може з надзвичайною точністю оцінити ймовірне наступне слово в реченні, ймовірність дефолту за кредитом або найефективніше лікування захворювання. Прогнозування, по суті, є ймовірнісною екстраполяцією на основі закономірностей у даних.


Однак судження передбачає більше, ніж просто прогнозування результатів. Воно передбачає їх оцінку з огляду на цінності, принципи чи цілі, які самі по собі не можна вивести з даних. Машина може передбачити, що розповідь правди призведе до образи, а приховування збереже гармонію; але вирішення того, що є вищим благом – правда чи гармонія – є актом судження, а не передбачення. Так само погодна модель може передбачати дощ, але рішення про скасування чи продовження великого святкування просто неба передбачає розсудливість, символізм та моральну уяву.


Ця відмінність пояснює, чому машини, якими б розвиненими вони не були, ризикують плутати статистичний успіх із мудрістю. Як зазначав Джон Серл у своєму відомому аргументі «Китайська кімната» (1980), маніпулювання символами відповідно до правил може відтворювати результати, не генеруючи розуміння. «Китайська кімната» — це уявний експеримент, розроблений для того, щоб показати, що комп’ютерна програма, якою б складною вона не була, не може мати справжнього розуміння чи свідомості . У цьому сценарії людина, яка не розмовляє китайською мовою, у кімнаті дотримується зводу правил для маніпулювання китайськими ієрогліфами, успішно видаючи себе за носія китайської мови для сторонніх, проте насправді вона не розуміє китайської. Серл стверджує, що, як і людина в кімнаті, комп’ютери маніпулюють лише символами (синтаксисом), не розуміючи їхнього значення (семантики), тим самим спростовуючи ідею сильного штучного інтелекту.


У будь-якому разі, передбачення без оцінки є потужним, але неповним. Змішувати ці два поняття — значить плутати точність з розсудливістю. Людський акт оцінки включає прогностичне розуміння, але додає оціночний та інтерпретаційний шар, який не піддається зведенню до статистики.


Епістемічний розрив: симуляція проти розуміння


Тим не менш, залишається ключове питання: чи розуміють машини судження, які вони імітують? Уявний експеримент Серла чітко підтверджує це: маніпулювання символами може призводити до результатів, невідрізних від розуміння, але без справжнього розуміння значення. Так само машини можуть одного дня перевершити суддів, лікарів чи дипломатів за середніми результатами. Але чи є це «судженням» у людському розумінні, є предметом дискусій.


Відповідь може залежати від того, як визначити судження поведінково (достатньо хороших результатів) чи феноменологічно (акт розуміння є важливим). З точки зору соціальної корисності, поведінкової достатності може бути достатньо; з точки зору філософії, відсутність справжнього розуміння зберігає категоріальне розмежування.


Постійна людська межа


Гедель нагадує нам про межі формальних систем; Девідсон показує нам, що значення вбудоване в людську практику; Гофштадтер підкреслює плинність аналогії в основі думки; Арістотель пропонує класичне пояснення практичної мудрості; а Серл застерігає нас від плутанини моделювання з розумінням. Разом вони припускають, що хоча обчислювальні системи дедалі більше конкуруватимуть і навіть перевершуватимуть людей у багатьох сферах прийняття рішень, повноцінне здійснення судження — як контекстно-залежний, інтерпретаційний та насичений значенням акт — завжди може зберігати людську перевагу.


Машини можуть радити, обчислювати, моделювати та оптимізувати. Вони можуть навіть перевершувати середні показники людей у певних завданнях, схожих на судження. Але доки судження передбачає навігацію в контекстах, які не зводяться до правил, які вимагають інтерпретації відповідно до життєвого людського досвіду, здається малоймовірним, що обчислення коли-небудь повністю затьмарять людську здатність до судження. Питання не стільки в тому, чи замінять нас машини, скільки в тому, чи змусять вони нас глибше задуматися над тим, що відрізняє людське судження, і чому воно залишається незамінним у світі, що переповнений алгоритмами.

 
 

Примітка від Метью Паріша, головного редактора. «Львівський вісник» – це унікальне та незалежне джерело аналітичної журналістики про війну в Україні та її наслідки, а також про всі геополітичні та дипломатичні наслідки війни, а також про величезний прогрес у військових технологіях, який принесла війна. Щоб досягти цієї незалежності, ми покладаємося виключно на пожертви. Будь ласка, зробіть пожертву, якщо можете, або за допомогою кнопок у верхній частині цієї сторінки, або станьте підписником через www.patreon.com/lvivherald.

Авторське право (c) Львівський вісник 2024-25. Усі права захищено. Акредитовано Збройними Силами України після схвалення Службою безпеки України. Щоб ознайомитися з нашою політикою анонімності авторів, перейдіть на сторінку «Про нас».

bottom of page