Надзор за искусственным интеллектом: какие нормы ЕС должна внедрить Украина

Понедельник, 26 января 2026, 09:00 - Станислав Юхименко, Институт экономических исследований и политических консультаций

Коли ми говоримо про євроінтеграцію в цифровій сфері, зазвичай згадуємо дані, кібербезпеку або електронні послуги.

Але є ще один "тихий" фактор, який напряму впливає на експорт, інвестиції та здатність українських компаній продавати технології в ЄС. Це правила доступу на ринок.

Для продуктів на основі штучного інтелекту такими правилами для експорту послуг в ЄС стає AI Act (Регламент ЄС 2024/1689) із ризикоорієнтованою логікою: що вищий ризик для прав людини та безпеки – то жорсткіші вимоги.

Український ринок ШІ у 2025 році оцінюється в $419,4 млн, в країні є понад 243 ШІ-компанії, а кількість AI/ML-спеціалістів – понад 6100

Тобто правила ЄС – це про значну частину сектора, який уже зараз живе експортом або планує його.

ЄС сам не встигає

У ЄС під AI Act будується дворівнева інституційна архітектура: є центральний рівень і національні органи, які відповідають за нагляд і правозастосування.

На рівні Єврокомісії створений Офіс ШІ, який виконує роль центрального вузла (реєстр високоризикових систем, приймання звітів про серйозні інциденти, адміністрування кодексів тощо).

А на національному рівні кожна держава має мати щонайменше:

  • орган ринкового нагляду (хто перевіряє і застосовує вимоги);
  • орган нотифікації (хто акредитує та призначає нотифіковані органи, які вже проводять оцінку відповідності/сертифікацію).
Основні категорії ризику ШІ

Для України це означає дуже приземлене питання: хто саме буде цими органами і як вони працюватимуть з бізнесом? 

Важливий момент: AI Act набирає чинності поетапно. У самому Регламенті прописаний графік. Відповідно до нього минулого року почали діяти заборони для систем із неприйнятним ризиком (із 2 лютого), а також стартували зобов'язання для моделей ШІ загального призначення (GPAI), а держави мали створити національні компетентні органи (із 2 серпня).

Наступний етап – 2 серпня 2026 року, коли вимоги нового закону почнуть повноцінно працювати для більшості високоризикових систем. Також мають запрацювати регуляторні "пісочниці".

І остання дата – 2 серпня 2027 року, коли мають бути виконані всі зобов’язання для окремих категорій "вбудованих" високоризикових систем.

Але є нюанс, який не можна ігнорувати.

ЄС сам зіткнувся з тим, що не встигає розробити технічні стандарти під вже описані регуляції.

Тому у 2025 році Єврокомісія запропонувала (але ще не схвалила) пакет законодавчих ініціатив під назвою "Цифровий омнібус", який фактично визнає: первинний графік був надто оптимістичним.

Зокрема, для систем високого ризику з Додатка III дедлайн пропонується перенести на 2 грудня 2027 (або прив’язати до затвердження стандартів), а для частини інтегрованих систем – на 2 серпня 2028 року.

Це відкриває для України можливість імплементувати AI Act без поспіху, з урахуванням потреб бізнесу.

Скільки це коштуватиме для бізнесу?

Вартість відповідності залежить не стільки від "ШІ як такого", скільки від рівня ризику продукту і ролі компанії (постачальник системи чи користувач/впроваджувач).

Для більшості ШІ-рішень, які не підпадають під критерії високого ризику AI Act, витрати будуть переважно організаційні та юридичні, а не "сертифікаційні":

  • підготовка базової документації про призначення системи, обмеження і типові ризики;
  • прозорість для користувачів (наприклад, коли людина має знати, що взаємодіє з ШІ, або коли контент є синтетичним);
  • внутрішні політики: хто відповідає за якість даних, тестування, реагування на скарги.

Для багатьох компаній це означає не стільки гроші, скільки дисципліну й час.

Для високоризикових систем вимоги жорсткіші. Аналітичний центр Centre for European Policy Studies (CEPS) у 2021 році оцінював обсяги витрат, які мають розробники ШІ в ЄС. Основні статті витрат – процеси, документація, аудит/оцінка відповідності та контроль.

  • Система управління якістю (QMS) і технічна документація. Якщо компанія раніше не будувала QMS, старт може бути дорогим: одноразові витрати на побудову процесів, ролей, документації, тестування, управління ризиками – плюс постійні витрати на підтримку. За оцінками CEPS, витрати на створення повністю нової QMS можуть сягати 200–330 тис. євро одноразово, плюс близько 70 тис. євро щорічно на підтримку.
  • Оцінка відповідності / сертифікація. Для частини високоризикових систем потрібна зовнішня перевірка. Тут витрати складаються з оплати самої процедури (аудит/нотифікований орган) та внутрішньої підготовки до сертифікації (дані, тестові протоколи, логування, контроль змін, безпека, документація). Вартість сертифікації однієї високоризикової ШІ-системи із залученням європейського нотифікованого органу оцінюється в середньому в 17–23 тис. євро.
  • Персонал і перебудова розробки. У високому ризику часто найдорожче – не "сертифікат", а те, що компанія має перейти на більш повільний і контрольований цикл: більше тестів, більше перевірок, більше вимог до даних, формальні процедури релізу і реагування на інциденти. Тут важливий ефект масштабу: малим компаніям важче, бо фіксовані витрати (юристи, комплаєнс, QMS) "з’їдають" більшу частку бюджету.

Якщо припустити, що 10-15% українських ШІ-компаній продукуватимуть високоризиковані ШІ-моделі, загальні витрати бізнесу на виконання всіх вимог AI Act будуть вимірюватися десятками мільйонів євро протягом наступних 3-5 років.

Якщо компанія робить продукт на базі готової великої моделі (використовує моделі Google, OpenAI), і її робота – це переважно інтеграція та створення промптів, без суттєвого донавчання/модифікації моделі, тоді значна частина зобов’язань, пов’язаних саме з розробкою і підтримкою моделі, лежатиме на великому постачальнику моделі.

Розробник фінального продукту більше платить за рівень застосунку: правильне використання моделі, контроль сценаріїв, обмеження, тестування на своєму кейсі, інтерфейсну прозорість, процеси реагування.

Але тут не треба перебільшувати: якщо фінальний продукт сам є високоризиковою системою, то відповідальність за відповідність системи в цілому все одно нікуди не зникає. Просто частина витрат переноситься з розробника продукту до розробника базової моделі.

Але якщо компанія починає активно файнтюнити/переробляти модель, їй доведеться взяти на себе більше зобов’язань.

Що вже зараз має робити Україна?

Для України питання не в тому, чи потрібно наближатися до AI Act, чи ні. Після отримання статусу кандидата на вступ до ЄС і початку переговорного процесу про членство наближення до європейського законодавства стало питанням темпу, а не вибору.

AI Act є частиною acquis communautaire, і його імплементація неминуча.

Українські компанії опинилися в унікальній ситуації: ЄС сам готується відкладати дедлайни, визнаючи складність імплементації. Це дає можливість підготуватися більш виважено, без поспіху та зайвого тиску на бізнес.

Мінцифри вже запустило регуляторну пісочницю для ШІ, де компанії можуть добровільно тестувати свої розробки з огляду на майбутні вимоги. Наразі розробники можуть подавати заявки та отримувати зворотний зв'язок про те, як їхні продукти співвідносяться з європейськими стандартами.

Водночас важливо розуміти масштаб викликів.

Найважливіше для України зараз – не впасти в крайнощі. З одного боку, передчасна і надмірно жорстка імплементація може задушити власний ШІ-сектор, який набирає обертів.

З іншого боку, ігнорування європейських стандартів закриє шлях до одного з найбільших технологічних ринків світу.

Приклад самого ЄС показує, що пошук балансу між регулюванням та інноваціями – це процес, а не одноразове рішення. "Цифровий омнібус" засвідчив готовність Європи коригувати курс, коли стає зрозуміло, що початкові амбіції зіткнулися з практичними обмеженнями.

Гармонізація з AI Act для України – це не тільки виконання формальних вимог на шляху до ЄС. Це шанс побудувати довіру до українських технологій на міжнародному рівні, залучити інвестиції в сектор та позиціювати Україну як надійного партнера в розробці штучного інтелекту.

Публікації в рубриці "Експертна думка" не є редакційними статтями та відображають винятково точку зору авторів