Плато для штучного інтелекту? (Я)
- Matthew Parish
- 2 дні тому
- Читати 9 хв

Питання про те, чи наближається штучний інтелект (ШІ) до «жорсткої стелі» — точки, за якою подальше вдосконалення стає надзвичайно дорогим, маргінальним або навіть неможливим, — є одночасно спекулятивним і нагальним. Темпи розвитку ШІ в останні роки, особливо у великих моделях і генеративних системах, вселяють як оптимізм, так і скептицизм. Спираючись на наукові дослідження в галузі ШІ, філософії, когнітивної науки та нещодавніх досліджень, ми стверджуватимемо, що хоча ми, ймовірно, ще не досягли абсолютної «межі», кілька структурних і концептуальних обмежень свідчать про те, що ми можемо незабаром зіткнутися зі зменшенням віддачі або принаймні зіткнутися з якісно іншими вузькими місцями, ніж у попередні десятиліття. Питання не в тому, чи досягне ШІ меж , а в тому, коли і в якій формі.
Природа прогресу в штучному інтелекті: масштабування, архітектура та зміни парадигм
Щоб оцінити, чи наближається штучний інтелект до плато, корисно поміркувати над тим, як ми дійшли до того, де ми є, і чи мають ці траєкторії безмежний потенціал.
1. Історичні рушійні сили: масштабування, обчислення та дані
Зокрема, в останнє десятиліття домінуючим рушієм прогресу в багатьох галузях штучного інтелекту (особливо в моделях великих мов програмування та моделях зору) було масштабування — більше даних, більше обчислювальних алгоритмів і більше параметрів. Ця парадигма масштабування виявилася надзвичайно ефективною: моделі, навчені з використанням дедалі більшої кількості ресурсів, як правило, забезпечують якісно кращу продуктивність, іноді в дивовижній узагальненості (емерджентна поведінка). Багато дослідників очікують подальших вигод від подальшого масштабування, хоча й з вищими витратами (обчислювальна потужність, енергоспоживання та екологічність). Дійсно, попереднє навчання великих базових моделей вже є надзвичайно дорогим, і ця крива витрат крута.
Однак, як зазначав Ілля Суцкевер та інші, дані – це обмежений ресурс: інтернет скінченний, а граничний виграш від більшої кількості необроблених текстових даних зменшується. Якщо моделі вичерпують «легкодоступні» дані, а віддача від додаткових параметрів або обчислень сповільнюється, то підхід, що базується лише на масштабуванні, може призвести до зменшення віддачі.
2. Архітектурні інновації проти поступового вдосконалення
Окрім масштабу, подальші прориви можуть вимагати нових архітектур, парадигм навчання або принципів пізнання (наприклад, включення символічного мислення, причинно-наслідкового висновку, моделей світу або втіленої взаємодії). Але такі зміни є складними, і можуть існувати концептуальні стелі того, наскільки далеко можна просунути одну парадигму, перш ніж вона потребуватиме заміни.
У цьому сенсі, навіть якщо сучасна парадигма має простір для вдосконалення, цей простір може бути обмежений на практиці складністю зміни парадигми. Деякі дослідники вважають, що ми можемо перебувати в перехідному періоді, коли масштабування досягає своїх меж, і наступний стрибок вимагає глибшого концептуального розуміння (наприклад, інтеграції міркувань, здорового глузду, планування).
Якщо таке глибше розуміння є важким або навіть недосяжним, ми можемо досягти практичного плато: покращення стають дедалі менш значними, вимагаючи експоненціально більших зусиль.
Фундаментальні та концептуальні обмеження
Окрім інженерних та вартісних обмежень, існують глибші обмеження, що виникають із природи інтелекту, пізнання та репрезентації. Вони можуть накладати обмеження на те, що ШІ в принципі може робити, або принаймні на те, що він може робити у формах, які ми зараз уявляємо.
1. Відсутність справжнього розуміння, здорового глузду та моделей світу
Класична критика полягає в тому, що сучасні системи штучного інтелекту, по суті, є системами зіставлення шаблонів: вони вивчають статистичні кореляції з великих корпусів даних, але їм бракує обґрунтованого розуміння світу. Вони не сприймають і не моделюють світ так, як це роблять люди, і їм важко з логічним мисленням, причинно-наслідковими зв'язками або концептуальним розумінням поза межами поверхневих шаблонів.
Наприклад, у розв'язанні текстових задач, що поєднують математику та семантику реального світу, сучасні системи все ще ненадійно працюють. Як стверджує Девіс (2023), системам штучного інтелекту важко подолати розрив між маніпулюванням символами та розумінням семантики.
Якщо цей розрив полягає не лише в масштабуванні, а в різниці в його характері, то просте вдосконалення поточних моделей може не подолати його.
2. Міркування провалюється у завданнях високої складності
Нещодавні емпіричні дослідження показують, що передові системи штучного інтелекту можуть зазнавати фундаментальних збоїв, стикаючись зі складними завданнями міркування. Наприклад, дослідники Apple виявили «повний колапс точності» в так званих великих моделях міркування (LRM), коли складність завдання перевищує певний поріг: міркування моделей різко погіршуються, гірше, ніж у більш наївних або простіших підходах.
Це говорить про те, що архітектура та механізми навчання LLM та моделей міркувань можуть бути крихкими: вони добре справляються із завданнями середнього рівня складності, але стикаються з твердими перешкодами при екстраполяції на міркування вищого порядку. Якщо це узагальнюється, це вказує на структурну стелю продуктивності в областях, що потребують інтенсивного міркування.
3. Інтерпретованість, узгодженість та довіра
Зі зростанням складності моделей ШІ їхня непрозорість стає більш гострою. Зрозуміти, чому система видає певну відповідь, стає все складніше, що породжує проблеми з пояснювальністю та довірою. Ця природа «чорної скриньки» обмежує впровадження у високовартісних сферах (медицина, право, політика).
Більше того, узгодження з людськими цінностями (змушування ШІ поводитися етично прийнятним та контрольованим чином) залишається глибокою невирішеною проблемою. Моделі можуть оптимізувати показники, які відрізняються від людських намірів. «Проблема узгодження» частково є обмеженням того, наскільки потужним може бути ШІ, залишаючись при цьому безпечним та надійним. (Див., наприклад, книгу Брайана Крістіана «Проблема узгодження» .)
Таким чином, навіть якщо технічно можлива вища продуктивність, її безпечне розгортання може стати надзвичайно складним, що на практиці фактично діятиме як верхня межа.
4. Символічне обґрунтування, втілення та проблема фрейму
Системам штучного інтелекту зазвичай бракує втілення (сенсорно-моторної взаємодії з фізичним світом) і тому вони мають труднощі з заземленням символів і концепцій у фізичній реальності. Деякі галузі штучного інтелекту стверджують, що справжній інтелект вимагає втіленої взаємодії, а не лише обробки тексту та зображень без тіла. Без заземлення система не може вивчити справді нові концепції поза межами свого навчального розподілу.
Пов’язано з цим, «проблема фрейму» у ШІ та філософії — складність визначення того, на які аспекти ситуації звернути увагу без вичерпного перерахування — вже давно є викликом для ШІ. У роботі з відкритими, динамічними середовищами визначення того, які змінні є релевантними, є нетривіальним. Ці проблеми можуть накладати когнітивні межі на те, що ШІ може надійно робити, особливо в неструктурованих реальних умовах.
5. Бар'єр складності компресора / Колмогорова
На більш теоретичному рівні можна вважати, що інтелект частково полягає у стисканні та моделюванні шаблонів. Але існують обмеження у стискальності даних та у компромісі між виразною здатністю та перенавчанням. Якщо вивчення більш складних представлень призводить до зменшення виграшу від стиснення (оскільки «сигнал» за межами певної точки є переважно шумом), то подальший виграш обмежений.
Іншими словами, існує теоретико-інформаційна межа: не всі закономірності можна вивчити з обмежених даних, і чим складніша закономірність, тим більше даних або сильніших індуктивних упереджень вам потрібно. Після певної межі подальше навчання може вимагати сильніших попередніх припущень або структурних індуктивних припущень, які важко виявити.
Практичні та соціально-технічні стелі
Навіть якщо «теоретичні» стелі високі, реальні обмеження можуть змусити їх досягти більш ранніх плато.
1. Обчислювальні, енергетичні та екологічні витрати
Пошук дедалі більших моделей є дедалі дорожчим з точки зору обчислень, енергії та вуглецевого сліду. У певний момент незначна вигода від додаткової обчислювальної потужності може перестати виправдовувати її вартість. Якщо навчання та логічний висновок стануть занадто ресурсомісткими, подальше масштабування може бути неможливим для більшості учасників.
2. Обмеження даних та спадна віддача
Як уже згадувалося, обсяг даних обмежений; «межа» нових, різноманітних, чистих даних звужується. Більше того, проблеми якості даних, що ускладнюються (упередженість, неправильне маркування, дублювання, зсув розподілу), ще більше знижують віддачу. Побудова моделей, які надійно узагальнюють у різних контекстах, вимагає більше, ніж просто масштабування; вона вимагає кращих методів адаптації даних та предметної області, що є складним завданням. Кількість людського внеску для забезпечення точного виводу ШІ стає експоненціально зростаючою.
3. Інституційні, регуляторні та безпекові обмеження
Розгортання штучного інтелекту в реальних системах (охорона здоров'я, транспорт, управління) має відповідати вимогам регулювання, сертифікації безпеки, відповідальності та громадської довіри. Ці додаткові рівні можуть уповільнити або перешкодити подальшому розгортанню найпотужніших систем. Навіть якщо ми зможемо створити кращі моделі, ми можемо вирішити не розгортати їх через юридичний чи етичний ризик.
4. Надмірна реклама, цикли реклами та неправильний розподіл
Деякі перспективи ШІ є спекулятивними або перебільшеними, що призводить до неправильного розподілу талантів та капіталу. Якщо ресурси будуть вкладатися в поступові вдосконалення, а не в ідеї, що змінюють парадигму, прогрес може зупинитися. Система рецензування та публікацій вже перевантажена експоненціальним зростанням результатів досліджень ШІ, що викликає занепокоєння щодо якості та відтворюваності. Справа в тому, що люди більше не можуть оцінити, чи матеріали виробляються моделями ШІ, і їм бракує можливості робити це або оцінювати, чи моделі ШІ виробляють точну інформацію.
5. Стелі взаємодії людини та доповнення
У багатьох застосуваннях штучний інтелект інтегрується в робочі процеси людини як помічник або підсилювач. Можливо, віддача від того, наскільки штучний інтелект може розширити людські можливості, перш ніж люди стануть вузьким місцем (у розумінні, нагляді, прийнятті рішень). Іншими словами, навіть якщо можливості штучного інтелекту зростатимуть, людське пізнання, культура та організації можуть обмежувати плідність його розвитку.
Ми «майже на місці»?
З огляду на ці теоретичні, емпіричні та інституційні обмеження, який стан справ сьогодні — і чи правдоподібно, що ми наближаємося до «піку» можливостей ШІ?
1. Емпіричні ознаки сплющення або колапсу
Нещодавній «крах точності» моделей міркування є червоним прапорцем: оскільки системи штучного інтелекту масштабуються в передбачуваній здатності міркувати, вони насправді можуть гірше виконувати завдання високої складності, що перевищують певний поріг.
Опитування дослідників штучного інтелекту (наприклад, « Тисячі авторів про майбутнє штучного інтелекту» ) показують широкий розкид прогнозів, багато хто очікує значних покращень у наступному десятилітті, але також нетривіальна меншість очікує стагнації або ефектів стелі.
Метадослідження майбутнього ШІ в стилі Дельфі (Alon et al. 2025) розглядають численні прогнози та вказують на те, що багато з них передбачають прориви або «ефект доміно» від нових парадигм, але також попереджають про вузькі місця в узгодженні, обчислювальних потужностях та суспільній прийнятності.
Таким чином, спільнота не є одностайною: багато хто все ще очікує подальшого зростання, але багато хто також бачить реальні ризики стагнування.
2. Деякі домени вже виглядають перенасиченими
У вузьких галузях, таких як класифікація зображень, розпізнавання мовлення, базові мовні завдання, прогрес наближається до насичення: досягнення є поступовими та дедалі дорожчими. Найпростіші результати вже зібрані. У багатьох практичних завданнях розрив між продуктивністю штучного інтелекту та людським рівнем скорочується, залишаючи складніші завдання (міркування, абстракція, здоровий глузд) відкритими.
Також, продуктивність у бенчмарках може маскувати крихкість: моделі можуть демонструвати невдачі в змаганні, нестабільність домену або погане узагальнення поза розподілом. Гарним прикладом є фільтрація резюме кандидатів на роботу за допомогою штучного інтелекту: модель штучного інтелекту, яка використовує правила для розбору тексту в резюме, може не враховувати якість резюме, оскільки воно не викладено у форматі, який розпізнають правила алгоритму штучного інтелекту.
3. Можуть знадобитися якісні зміни
Цілком ймовірно, що подальший прогрес виглядатиме якісно інакше: не плавним продовженням масштабування, а раптовими стрибками, пов'язаними з новими парадигмами (причинне навчання, гібридні символічно-нейронні системи, втілені агенти, інтерактивне навчання). Якщо ці парадигми важко виявити, прогрес може сповільнитися, доки не відбудуться прориви.
Іншими словами, ми можемо вступати в «долину спадної віддачі», поки не з'являться нові ідеї. Якщо парадигматичні зрушення рідкісні або важкі, то протягом певного періоду ШІ демонструватиме платоподібну поведінку, навіть якщо глибші стелі залишаються далеко.
Аргументи проти короткострокової стелі
Варто навести контраргументи. Думка про те, що ШІ близький до своєї межі, є песимістичною; є підстави вважати, що у нас ще довгий горизонт.
Непередбачені інновації: минула історія показує, що прориви іноді відбуваються з неочікуваних напрямків (наприклад, відродження глибокого навчання). Наступна парадигма може виникнути з нейронауки, квантових обчислень, самокерованого моделювання світу або архітектур, які ми ще не задумали.
Модульні системи та ансамблі: Інтелект може виникнути з модульної композиції спеціалізованих систем (зорове бачення, планування, теорія розуму, моделювання), а не з монолітних моделей. Масштабування та інтеграція таких модулів все ще може дати значні переваги.
Активне навчання та взаємодія: втілені агенти, що взаємодіють із середовищами (наприклад, робототехніка, навчання з підкріпленням), можуть отримувати самостійний досвід, не обмежений статичними наборами даних. Це говорить про нову вісь зростання поза межами текстового вебу.
Трансфер, метанавчання та відкритість: Системи, які навчаються навчатися або досліджують латентні структури, можуть краще узагальнювати, зменшуючи потребу в дедалі більшій кількості даних. Це може подолати поточні вузькі місця.
Тому обмеження ліміту не є неминучим у найближчій перспективі, особливо якщо з'являться нові ідеї. Але ці аргументи залежать від успіху змін парадигм, які є невизначеними.
Висновок: наближення до «практичної стелі», а не до абсолютної
З огляду на це, найбільш обґрунтованою позицією є обережна золота середина:
Ми (ще) не досягли абсолютної межі штучного інтелекту на рівні принципів: ймовірно, залишаються невивчені архітектури, стратегії інтеграції та парадигми, які могли б ще більше підвищити продуктивність.
Але ми можемо бути близькими до практичних граничних значень у багатьох сферах, особливо тих, де домінують масштабування та дані. Вигоди все ще існують, але вони експоненціально дорожчі, ризикованіші або поступовіші.
У міркуваннях, абстракції, розумінні на основі здорового глузду, узгодженні з безпекою та розгортанні в реальному світі вузькі місця вже є гострими, і подальший прогрес може вимагати якісних інновацій, а не лише грубої сили.
Таким чином, замість очікування безперервного експоненціального зростання, цілком імовірно, що в наступному десятилітті прогрес буде повільнішим, прориви вибірковими, а в багатьох сферах спостерігатиметься застоєм, доки не відбудуться нові концептуальні стрибки.
Коротше кажучи, штучний інтелект, можливо, ще не «досягне піку» в абсолютному сенсі, але ми, можливо, вступаємо у фазу, коли спадна віддача посилюється, а обмеження (обчислювальні, теоретичні, суспільні) стають такими ж вирішальними, як і алгоритмічна винахідливість. Рубіж ще не подолано, але його природа змінюється, і лише свіжі ідеї можуть пробити майбутні стелі.
---
Бібліографія
Баарс, Б. Дж. (1988). Когнітивна теорія свідомості. Кембридж: Видавництво Кембриджського університету.
Крістіан, Б. (2020). Проблема вирівнювання: машинне навчання та людські цінності. Нью-Йорк: WW Norton & Company.
Девіс, Е. (2023). «Міркування на основі здорового глузду та моделі великих мов». Препринт arXiv arXiv:2301.09723. Доступно за адресою: https://arxiv.org/abs/2301.09723
Дехаене, С. (2014). Свідомість і мозок: розшифровка того, як мозок кодує наші думки. Лондон: Viking.
Фрістон, К. (2010). «Принцип вільної енергії: єдина теорія мозку?» Nature Reviews Neuroscience , 11(2), с. 127–138.
ЛеКун, Ю. та ін. (2022). «Шлях до автономного машинного інтелекту». Чернетка Open Review , Meta AI. Доступно за адресою: https://openreview.net/forum?id=BZ5a1r-kVsf
Суцкевер, І. (2024). Зауваження у статті «Штучний інтелект з можливістю міркування буде менш передбачуваним», Reuters , 14 грудня. Доступно за посиланням: https://www.reuters.com/technology/artificial-intelligence/ai-with-reasoning-power-will-be-less-predictable-ilya-sutskever-says-2024-12-14/
Тононі, Г. (2004). «Теорія інтеграції інформації у свідомості». BMC Neuroscience , 5(1), с. 42.
Алон, Н. , Кемп, К. , Тегмарк, М. та ін. (2025). «Прогнозування можливостей та меж штучного інтелекту: дослідження Дельфі». Futures , 156, стаття 102319. Доступно за посиланням: https://doi.org/10.1016/j.futures.2024.102319
Команда з питань впливу штучного інтелекту (2023). Тисячі авторів про ШІ про майбутнє ШІ: синтез опитувань . Звіт про вплив ШІ. Доступно за адресою: https://aiimpacts.org/wp-content/uploads/2023/04/Thousands_of_AI_authors_on_the_future_of_AI.pdf
Президентська панель AAAI (2025). Штучний інтелект 2025: напрямки, дебати та залежності . Звіт AAAI. Доступно за посиланням: https://aaai.org/wp-content/uploads/2025/03/AAAI-2025-PresPanel-Report_FINAL.pdf
Дослідницька група Apple Machine Intelligence (2025). «Про колапс точності міркувань у великих моделях міркувань». Неопублікований робочий документ , посилання на який наведено в The Guardian від 9 червня 2025 року. Доступно за посиланням: https://www.theguardian.com/technology/2025/jun/09/apple-artificial-intelligence-ai-study-collapse