Закон Європейського Союзу про штучний інтелект
- 2 хвилини тому
- Читати 4 хв

Неділя, 22 лютого 2026 року
Закон Європейського Союзу про штучний інтелект – це не просто жест технологічної обережності. Це щільний та високоструктурований регуляторний інструмент, розроблений ідіомою законодавства про внутрішній ринок, але водночас натхненний конституційною філософією. Якщо Загальний регламент про захист даних прагнув дисциплінувати використання персональних даних, то Закон про штучний інтелект має на меті дисциплінувати розгортання систем, які дедалі більше опосередковують саму людську думку.
Цей захід здійснюється відповідно до статті 114 Договору про функціонування Європейського Союзу, відомої правової основи для гармонізації правил, що впливають на функціонування єдиного ринку. Його розробники усвідомлювали, що різні національні режими для штучного інтелекту руйнуватимуть транскордонну торгівлю. Тому Закон має форму Регламенту, який безпосередньо застосовується в усіх державах-членах без необхідності національної транспозиції. Єдність не є випадковою рисою; це передумова.
В основі Закону лежить таксономія ризику. Ця класифікація не риторична, а юридична: зобов'язання застосовуються відповідно до категорії.
По-перше, це заборонені практики. До них належать певні форми підсвідомих маніпуляцій, які суттєво спотворюють поведінку людини, експлуатація вразливостей через вік чи інвалідність, а також системи соціального оцінювання, що використовуються органами державної влади та оцінюють надійність осіб у непов’язаних контекстах. Заборона є абсолютною — такі системи не можуть бути розміщені на ринку, введені в експлуатацію або використані в межах Союзу. Юридичний метод є прямолінійним, оскільки передбачувана загроза основоположним правам є гострою.
На другому місці йдуть системи високого ризику. Вони визначаються як за секторами, так і за функціями. У додатках до Регламенту перераховані такі сфери, як критична інфраструктура, освіта та професійна підготовка, зайнятість та управління працівниками, доступ до основних державних та приватних послуг, правоохоронна діяльність, міграція та прикордонний контроль, а також здійснення правосуддя. У цих сферах штучний інтелект може суттєво впливати на життєві шанси — доступ до працевлаштування, кредитів, притулку чи самої свободи.
Для таких систем Закон встановлює режим, що нагадує законодавство про безпеку продукції в поєднанні з адміністративним конституціоналізмом. Постачальники повинні впроваджувати систему управління ризиками протягом усього життєвого циклу моделі. Вони повинні забезпечити, щоб дані навчання, валідації та тестування були релевантними, репрезентативними та не містили помилок, наскільки це можливо. Необхідно розробити технічну документацію, яка демонструє відповідність вимогам. Для забезпечення відстеження необхідні можливості автоматичного ведення журналу. Необхідно вбудувати механізми людського нагляду, щоб оператори могли втручатися або скасовувати результати, де це необхідно.
Перш ніж система з високим рівнем ризику буде введена в обіг, вона повинна пройти оцінку відповідності. У деяких випадках це може бути проведено постачальником самостійно; в інших, особливо за відсутності гармонізованих стандартів, нотифікований орган — незалежна організація з оцінки відповідності, призначена державою-членом, — повинен перевірити відповідність. Після встановлення відповідності система отримує маркування CE, знайоме з інших регульованих продуктів на єдиному ринку.
Закон також накладає зобов'язання щодо постринкового моніторингу. Постачальники повинні використовувати систему збору, документування та аналізу даних про роботу систем високого ризику. Серйозні інциденти або несправності, які є порушеннями основних прав, повинні повідомлятися національним органам нагляду.
Застосування дотримання законодавства покладається, головним чином, на держави-члени, які повинні призначити один або декілька компетентних органів. На рівні Союзу Бюро штучного інтелекту в рамках Європейської комісії координує нагляд за найсучаснішими моделями загального призначення. Адміністративні штрафи можуть сягати значних відсотків від світового річного обороту, що повторює стримувальну архітектуру GDPR.
Окремий та політично чутливий компонент стосується моделей штучного інтелекту загального призначення, включаючи моделі з великими мовами програмування, здатних використовувати широкий спектр наступних застосувань. Регламент розрізняє звичайні системи загального призначення та ті, що вважаються такими, що становлять «системний ризик» через масштаб та можливості. Постачальники таких моделей повинні проводити оцінку моделей, проводити змагальне тестування, оцінювати та пом’якшувати системні ризики, документувати споживання енергії та повідомляти про серйозні інциденти. Зобов’язання щодо прозорості вимагають розкриття інформації про те, що контент був створений або маніпульований штучним інтелектом, особливо в контекстах, схильних до обману.
У цьому відношенні Закон стосується передових технологій. На відміну від традиційного галузевого регулювання, він повинен передбачати моделі, які можна точно налаштувати для непередбачуваного використання. Правове рішення полягає у багаторівневій відповідальності: розробники моделей вище за течією несуть базові зобов'язання, тоді як розгортачі нижче за течією беруть на себе обов'язки, що відповідають їхньому конкретному застосуванню.
В основі цих детальних положень лежить філософське зобов'язання. Регламент неодноразово посилається на основоположні права, закріплені в Хартії основоположних прав Європейського Союзу. Людська гідність, недискримінація, захист даних та ефективний судовий засіб правового захисту – це не декоративні посилання; це інтерпретаційні орієнтири. Закон передбачає, що алгоритмічні системи не є нейтральними артефактами, а соціально-технічними конструкціями, здатними закріплювати упередженість або розсіювати підзвітність.
Наполягання на людському контролі є символічним. Воно не вимагає, щоб люди вручну відтворювали машинний аналіз. Швидше, воно вимагає, щоб відповідальність залишалася невід'ємною. Повинна бути фізична або юридична особа, яка може пояснити, обґрунтувати та, за необхідності, виправити роботу системи. Закон чинить опір ідеї автономної влади, відокремленої від людського командування.
Критики стверджують, що режим є надмірно складним. Тягар дотримання вимог може непропорційно лягати на менші підприємства, які не мають юридичних відділів. Існує занепокоєння, що інновації можуть мігрувати до юрисдикцій з більш м’яким регулюванням. Більше того, темпи технічного розвитку можуть зробити статичні додатки застарілими, що вимагатиме частого ухвалення Комісією делегованих актів для оновлення класифікацій.
Однак європейська ставка є стратегічною. Вбудовуючи довіру в регуляторне середовище, Союз сподівається створити ринок, на якому споживачі, органи державної влади та міжнародні партнери зможуть покладатися на сертифіковані стандарти. Так само, як GDPR вплинув на глобальне управління даними, Закон про штучний інтелект прагне створити «Брюссельський ефект» у штучному інтелекті.
Для України, чиє прагнення до членства в Європейському Союзі тепер є конституційною доктриною, наслідки є суттєвими. Узгодження з acquis communautaire у сфері цифрового регулювання буде обов'язковою умовою для вступу. Українським розробникам систем штучного інтелекту, включаючи тих, хто займається оборонними програмами з потенціалом подвійного використання, дедалі більше потрібно буде документувати цілісність даних навчання, процеси зниження ризиків та структури людського командування, якщо їхні продукти мають поширюватися на європейському ринку. У воєнних умовах, коли машинне навчання допомагає в розвідці, цілеуказанні та логістиці, взаємодія між інноваціями та підзвітністю стає особливо делікатною.
Таким чином, Закон діє у двох площинах. Юридично він гармонізує ринкові умови за допомогою детальної архітектури зобов'язань, оцінок та санкцій. З філософської точки зору, він стверджує, що технологічний прогрес має залишатися підпорядкованим демократичним цінностям. Він підтверджує, що ефективність не затьмарює гідність, а передбачення не скасовує відповідальність.
Чи досягне система своїх цілей, залежить від спроможності правозастосування та адаптивного управління. Органи нагляду повинні набути технічної експертизи, що відповідає системам, які вони регулюють. Комісія повинна ретельно калібрувати делеговані повноваження, щоб уникнути регуляторного дрейфу. Суди неминуче будуть змушені тлумачити такі поняття, як системний ризик та достатній людський нагляд.
Штучний інтелект розвивається швидко; законодавство розвивається цілеспрямовано. Закон ЄС про штучний інтелект – це спроба скоротити цей часовий розрив за допомогою структури, запобіжних заходів та інституційної координації. Це заява про те, що Європа має намір не просто споживати інтелектуальні системи, а й конституціоналізувати їх.
Роблячи так, Європа ставить право в центр технологічної сучасності — не як гальмо інновацій, а як їхню основу.

