Skip to main content
Регулювання AI у ЄС

Що таке Навчання з EU AI Act

EU AI Act training — це обовʼязок щодо робочої сили, закріплений у Article 4 Regulation (EU) 2024/1689, який набув чинності 2 лютого 2025 року для кожного провайдера й деплоєра AI-систем, що використовуються в Європейському Союзі. Обовʼязок діє незалежно від рівня ризику, а поетапний штрафний режим сягає €35 млн або 7% глобального річного обороту за найсерйозніші порушення.

Автор Перевірено

Article 4 EU AI Act робить навчання AI literacy обовʼязковим для кожного провайдера й деплоєра AI-систем

Artificial Intelligence Act, формально Regulation (EU) 2024/1689, — перший у світі горизонтальний AI-закон. Він набрав чинності 1 серпня 2024 року і застосовується поетапно протягом 2025–2027 років. Регламент регулює провайдерів, деплоєрів, імпортерів і дистрибʼюторів AI-систем, що використовуються в межах Європейського Союзу. Він також поширюється поза межі ЄС, коли вихід AI-системи використовується в Союзі, що втягує у сферу дії значну частину глобальної AI-економіки.

Перший набір обовʼязків уже діє. Із 2 лютого 2025 року заборонені AI-практики, перелічені в Article 5 (соціальний скоринг, нецільовий збір зображень обличчя, віддалена біометрична ідентифікація в реальному часі у публічних місцях правоохоронцями, маніпулятивні чи експлуататорські системи), не можуть бути розміщені на ринку ЄС. Та сама дата активувала обовʼязок Article 4 щодо AI literacy для кожного провайдера й деплоєра, незалежно від того, чи є AI-системи, які вони створюють або використовують, високоризикованими, обмеженого ризику або мінімального ризику. Обовʼязок щодо AI-обізнаності — найширший у регламенті, бо стосується персоналу, підрядників і будь-якої іншої особи, що оперує AI-системами від імені організації.

Із 2 серпня 2025 року стали застосовними правила для General-Purpose AI (GPAI) моделей і розділ про управління, включно з EU AI Office, національними компетентними органами та штрафним режимом Article 99. Із 2 серпня 2026 року застосовуються обовʼязки для високоризикованих AI-систем, перелічених у Annex III (біометрика, критична інфраструктура, освіта, працевлаштування, основні послуги, правоохорона, міграція, правосуддя, демократичні процеси). Повна застосовність для високоризикованих систем, вбудованих у регульовані продукти за Annex I, настає 2 серпня 2027 року. Штрафи поетапні: до €35 млн або 7% глобального річного обороту за порушення заборонених практик, до €15 млн або 3% за більшість інших обовʼязків, включно з literacy й деплоєрськими, до €7,5 млн або 1,5% за надання неправдивої інформації органам.

Для більшості організацій навчання Article 4 literacy — найдешевший перший крок до загальної готовності за AI Act. Воно вже застосовне зараз, а документація, яку воно генерує, прямо живить глибші обовʼязки, що настають у 2026 і 2027 роках (людський нагляд за Article 14, обовʼязки деплоєрів за Article 26, оцінка впливу на основоположні права за Article 27 і прозорість за Article 50). Решта сторінки картує регламент, позицію щодо правозастосування, що формується всередині AI Office та національних органів, і рольовий підхід до вправ, що дає докази, які регулятор прийме.

Як EU AI Act регулює AI literacy і навчання робочої сили

1

Сфера дії: провайдер, деплоєр, імпортер чи дистрибʼютор

Регламент визначає чотири ролі та призначає різні обовʼязки кожній. Провайдер розробляє AI-систему або замовляє її розробку та розміщує на ринку ЄС під своїм іменем чи торговою маркою. Деплоєр використовує AI-систему під своїм керуванням у ході професійної діяльності (банк, що запускає модель кредитного скорингу, лікарня з системою тріажу, рекрутер, який скринить резюме AI-шортлістером). Імпортер розміщує AI-систему з третьої країни на ринку ЄС. Дистрибʼютор робить її доступною без модифікацій. Більшість підприємств — це деплоєри багатьох систем і провайдери кількох. Article 4 literacy застосовується однаково до провайдерів і деплоєрів.

2

Article 4: обовʼязок щодо AI literacy у силі з 2 лютого 2025 року

Article 4 вимагає від провайдерів і деплоєрів вживати заходів для забезпечення достатнього рівня AI literacy у свого персоналу та будь-яких інших осіб, що мають справу з оперуванням і використанням AI-систем від їхнього імені. Literacy має бути відкаліброваною під технічні знання, досвід, освіту й навчання залучених людей, контекст, у якому використовуватимуться системи, та осіб або групи, на яких системи будуть застосовані. EU AI Office на початку 2025 року опублікував Living Repository і Q&A на тему Article 4, де пояснив: відповідність вимагає програми, а не разового семінару.

3

Рівні ризику: заборонений, високий ризик, обмежений ризик, мінімальний ризик

Article 5 повністю забороняє вісім категорій. Annex III перелічує вісім доменів, де системи є високоризикованими за замовчуванням і підлягають найважчим контролям за Articles 8–27, включно з ризик-менеджментом, управлінням даними, прозорістю до деплоєрів, людським наглядом і пост-маркетинговим моніторингом. Системи обмеженого ризику (чат-боти, розпізнавання емоцій, біометрична категоризація, deepfake) несуть обовʼязки прозорості за Article 50. Системи мінімального ризику не несуть жодних додаткових обовʼязків поза Article 4 literacy. Клас ризику визначає, які глибші тренувальні обовʼязки накладаються поверх базової програми literacy.

4

Articles 14 і 26: людський нагляд та обовʼязки деплоєрів

Article 14 вимагає від провайдерів високоризикованих AI-систем проєктувати їх так, щоб ними могли ефективно наглядати фізичні особи протягом періоду використання системи. Article 26 покладає операційний бік цього обовʼязку на деплоєрів: призначити нагляд фізичним особам, які мають необхідну компетенцію, навчання, повноваження й підтримку. Банк, що запускає високоризиковану кредитну модель, мусить назвати персонал нагляду, навчити його можливостям і обмеженням моделі та надати реальні повноваження перевизначати виходи. Тренувальний запис для тих названих наглядачів — це найбільш імовірний документ, який національний орган запитає першим.

5

Article 27: Fundamental Rights Impact Assessment для деплоєрів державного сектору й операторів основних послуг

Article 27 вимагає від деплоєрів, які є органами публічного права, приватними операторами, що надають публічні послуги, та операторами певних високоризикованих систем (кредитоспроможність, ціноутворення страхування життя і здоровʼя), виконати Fundamental Rights Impact Assessment (FRIA) перед першим використанням. FRIA охоплює намічену мету, період і частоту використання, категорії осіб, на яких впливатиме система, специфічні ризики шкоди, заходи людського нагляду й мітигації. Оцінку слід надіслати національному органу нагляду за ринком. Підготовка FRIA сама по собі є literacy-важкою вправою, що виграє від структурованого навчання юридичних, ризикових, продуктових та інженерних команд.

6

Article 50: прозорість для чат-ботів, deepfake і виходу GPAI

Article 50 застосовується до систем обмеженого ризику й до виходу GPAI. Провайдери AI-систем, що взаємодіють із фізичними особами, мають інформувати їх про взаємодію з AI, якщо це не очевидно. Деплоєри розпізнавання емоцій або біометричної категоризації мають інформувати уражених осіб. Деплоєри, що генерують або маніпулюють зображенням, аудіо чи відео, що становлять deepfake, мають розкривати штучну природу. Провайдери GPAI-моделей, що видають синтетичний контент, мають маркувати вихід у машиночитаному форматі. Кожен обовʼязок перетворюється на специфічні робочі процеси персоналу й розкриття, які має покрити навчання робочої сили.

7

Штрафи Article 99, EU AI Office і національні компетентні органи

Правозастосування йде через національні компетентні органи (кожна держава-член призначає принаймні один notifying authority і один market surveillance authority) та EU AI Office, що сидить усередині DG CNECT у Брюсселі. AI Office безпосередньо керує наглядом за GPAI і координує European Artificial Intelligence Board. Штрафи Article 99 поетапні: до €35 млн або 7% глобального річного обороту за порушення Article 5; до €15 млн або 3% за невідповідність більшості інших обовʼязків, включно з literacy, прозорістю й обовʼязками деплоєрів; до €7,5 млн або 1,5% за надання неправдивої інформації. SME й стартапи стикаються з нижчим із двох значень, а не з вищим.

Як регулятори і EU AI Office інтерпретують AI literacy за Article 4

Гайданс EU AI Office щодо Article 4 і Q&A, опубліковані на початку 2025 року

AI Office Комісії опублікував Living Repository on AI Literacy і публічне Article 4 Q&A в перші місяці 2025 року. Q&A роз’яснює, що "достатній рівень" калібрується індивідуально, а не за єдиним курикулумом, що обовʼязок поширюється на персонал і підрядників незалежно від рангу ролі, і що провайдери та деплоєри мають вести документацію literacy-заходів, які вони впровадили. Office чітко зазначив: одного онбординг-відео недостатньо для відповідності Article 4. Living Repository запрошує організації ділитися дизайнами програм, що дало публічну колекцію прийнятних патернів від фінансових послуг, державного управління й великих індустріальних деплоєрів.

Підготовка національних компетентних органів у Франції, Іспанії, Італії, Німеччині та Нідерландах

Держави-члени розгортають наглядову архітектуру паралельно з поетапними датами застосовності. Іспанія створила Agencia Española de Supervisión de Inteligencia Artificial (AESIA) у Ла-Корунʼї — перше спеціалізоване національне AI-агентство в ЄС. Франція позиціонує CNIL як кандидата на роль провідного органу. Італія розділила роботу між AgID для AI-політики та Garante для AI-нагляду, повʼязаного з приватністю. Німеччина сигналізує BNetzA як імовірного провідника, а федеральні й земельні органи захисту даних зберігають свою роль. Нідерланди закріпили за Autoriteit Persoonsgegevens (AP) координаційну роль у нагляді за AI. Кожен орган публікує перехідні гайданси й приймає добровільні подання за AI Pact Комісії, що наразі є найближчим проксі для того, як виглядатиме документація Article 4 у формальному розслідуванні.

Патерни ранніх відповідних компаній серед великих мультинаціональних корпорацій

Хвиля великих мультинаціональних компаній (банки, страховики, телекоми, індустріальні групи, фірми професійних послуг) розгорнула протягом 2025 року корпоративні програми AI literacy на випередження глибших обовʼязків деплоєрів за Article 26, що настають 2 серпня 2026 року. Публічні зобовʼязання за EU AI Pact, які Комісія опублікувала з названими підписантами, дають часткову колекцію того, хто й до яких заходів зобовʼязався. Поширений патерн — базовий модуль для всього персоналу, що використовує будь-який AI-інструмент на роботі, глибший модуль для технічних ролей, що будують або оперують AI-системами, і модуль для названих наглядачів за Articles 14 і 26. Ранні рухачі ставляться до literacy-запису як до документа аудит-захисту і структурують свої LMS-доказові пакети відповідно.

Як RansomLeak задовольняє вимоги навчання EU AI Act

Article 4: достатній рівень AI literacy у робочій силі

Спеціалізований курс EU AI Act охоплює регламент, поетапний таймлайн, чотири рівні ризику й щоденні практики, яких Article 4 очікує від персоналу й підрядників, що оперують AI-системами. Кожен модуль постачається як SCORM 1.2 і SCORM 2004, тож записи завершення стікають у LMS, яку AI Office або національний орган перевірятиме під час запиту. Програма відкаліброваною за роллю, що є саме тією калібровкою, яку Article 4 явно вимагає.

Article 5: обізнаність щодо заборонених AI-практик

Модуль Prohibited AI Practices тренує персонал розпізнавати вісім заборонених категорій (підсвідома маніпуляція, експлуатація вразливості, соціальний скоринг, превентивне поліцейство на основі профілювання, нецільовий збір зображень обличчя, розпізнавання емоцій на робочому місці й в освіті, біометрична категоризація за чутливими атрибутами, віддалена біометрична ідентифікація в реальному часі у публічних місцях правоохоронцями) та ескалувати будь-яку пропозицію закупівлі, побудови чи деплою, що перетинає межу. За цим стоїть штрафний рівень €35 млн / 7%, тому обізнаність продуктових, закупівельних і юридичних команд — найвищий за впливом тренувальний витрат.

Article 10: управління даними для тренувальних, валідаційних і тестових AI-даних

Модуль AI Data Governance охоплює очікування Article 10 щодо релевантності, репрезентативності, точності, повноти, перевірки на упередження та виборів підготовки даних, які впливають на поведінку системи. Інженерні, дата- й ризикові команди вчать документацію, що демонструє оборонний пайплайн управління даними до того, як високоризикована система запрацює. Той самий доказовий пакет підтримує обовʼязок щодо технічної документації за Article 11.

Article 14: значущий людський нагляд для високоризикованого AI

Модуль Meaningful Human Oversight тренує людей, яких призначать наглядати за високоризикованими AI-системами, щодо можливостей і обмежень тих систем, automation bias і коли та як перевизначати чи ігнорувати вихід. Article 14 трактує значущий нагляд як проєктний і операційний обовʼязок, що вимагає названих, навчених і уповноважених людей, а не галочки. Модуль виробляє індивідуальний тренувальний запис, який Article 26 вимагає від деплоєрів зберігати.

Article 26: обовʼязки деплоєрів для високоризикованого AI

Модуль High-Risk AI Deployer Obligations проводить персонал на боці деплоєра через призначення людського нагляду, використання вхідних даних у межах інструкцій провайдера, моніторинг операцій, збереження логів щонайменше шість місяців, обовʼязки інформування працівників, призупинення використання, якщо система становить ризик для здоровʼя, безпеки чи основоположних прав, та звітування про інциденти. Provider vs. Deployer Responsibilities прояснює, які обовʼязки належать кожній ролі по життєвому циклу.

Article 27: робочий процес Fundamental Rights Impact Assessment

Модуль Fundamental Rights Impact Assessment охоплює структуровану оцінку, яку деплоєри державного сектору та оператори певних високоризикованих систем мусять виконати перед першим використанням. Юридичні, ризикові, продуктові та інженерні команди вчать сім елементів, які оцінка має охопити, обовʼязок повідомлення національному органу нагляду за ринком і звʼязок із Data Protection Impact Assessment за Article 35 GDPR, де залучені персональні дані.

Article 50: прозорість, розкриття deepfake і синтетичний контент

Модуль AI Transparency and Disclosure покриває обовʼязки, повернуті до користувача: розкривати фізичним особам, що вони взаємодіють з AI, маркувати deepfake-зображення, аудіо й відео як штучні, і маркувати синтетичний контент GPAI у машиночитаному форматі. Комунікаційні, маркетингові, продуктові й інженерні команди вчать зміни робочого процесу, що задовольняють Article 50, та винятки (художні, сатиричні, фікційні твори, виявлення кримінальних правопорушень), що застосовуються.

Article 99: обізнаність щодо штрафного режиму для керівників і ризик-власників

Модуль EU AI Act Penalties and Enforcement дає керівникам, юридичним і ризиковим власникам чітке бачення трирівневого штрафного стека, ролі EU AI Office та національних компетентних органів, кепу для SME й стартапів, та факторів, які органи зважують при калібровці штрафів (тяжкість, тривалість, намір, співпраця, попередні порушення). Він виробляє виконавчий брифінг-запис, якого більшість дошок зараз просять перед внутрішнім аудитом і зустрічами ризик-комітету.

Як RansomLeak будує готову до аудиту програму EU AI Act

RansomLeak постачає спеціалізований курс EU AI Act Compliance, побудований навколо 16 інтерактивних 3D-вправ, що покривають усю поверхню регламенту: базу Article 4 (AI Literacy Essentials, Using AI Tools Responsibly at Work, Safe GenAI Usage, Sensitive Data Exposure Through AI), роботу з класифікацією ризику (AI Risk Classification, Provider vs. Deployer Responsibilities, Prohibited AI Practices, High-Risk AI Deployer Obligations), обовʼязки щодо даних і нагляду (AI Data Governance, AI Bias and Discrimination, Meaningful Human Oversight, AI and Data Protection), стек прозорості (AI Transparency and Disclosure, General-Purpose AI Model Obligations) і шар забезпечення (AI Governance in Your Organization, Fundamental Rights Impact Assessment, AI Incident Reporting, EU AI Act Penalties and Enforcement). Кожна вправа поміщає того, хто навчається, у реалістичний сценарій, змушує приймати рішення під реалістичним тиском і завершується зворотним звʼязком, що називає статтю, обовʼязок і практичний наступний крок.

Програми скоупуються за роллю, а не пошлюються всім підряд на одну глибину, що є саме тією калібровкою, яку Article 4 явно вимагає. Розробники й ML-інженери отримують модулі управління даними, упереджень і провайдерські. Оператори на боці деплоєра (аналітик, що запускає кредитну модель, рекрутер, що використовує шортлістер, радіолог, що використовує тріажний інструмент) отримують модулі обовʼязків деплоєра, людського нагляду й звітування про інциденти. Юридичні, ризикові й комплаєнс-команди беруть Fundamental Rights Impact Assessment, Penalties and Enforcement та модулі Governance. Керівники й дошка проходять брифінг-трек щодо штрафної експозиції та позиції правозастосування названих органів.

Кожне завершення виробляє готовий до аудиту запис: член робочої сили, роль, дата, версія модуля, результат оцінки і статус завершення SCORM. Доказовий пакет структурований так, що національному компетентному органу або EU AI Office можна відправити індивідуальний запис для названих наглядачів і узагальнення за когортою для ширшої робочої сили. Курс оновлюється у міру руху регламенту: коли AI Office публікує новий гайданс, коли національний орган випускає наглядові очікування, і коли поетапні дати застосовності втягують у силу нові обовʼязки 2 серпня 2026 року й 2 серпня 2027 року.

Що таке навчання EU AI Act і коли воно стало обовʼязковим?

EU AI Act training — це обовʼязок щодо робочої сили в Article 4 Regulation (EU) 2024/1689, що вимагає від кожного провайдера й деплоєра AI-систем забезпечити достатній рівень AI literacy серед персоналу й підрядників, які оперують тими системами від їхнього імені. Обовʼязок набув чинності 2 лютого 2025 року і застосовується незалежно від того, чи є AI-системи високоризикованими, обмеженого ризику чи мінімального ризику.

Ширший регламент набув чинності 1 серпня 2024 року і застосовується поетапно. Заборонені AI-практики (Article 5) і обовʼязок Article 4 щодо literacy стали застосовними 2 лютого 2025 року, правила GPAI і штрафний режим — 2 серпня 2025 року, обовʼязки високого ризику — 2 серпня 2026 року, а повна застосовність для продуктів Annex I — 2 серпня 2027 року. Штрафи за Article 99 сягають €35 млн або 7% глобального річного обороту за порушення заборонених практик.

EU AI Office (всередині DG CNECT) і національні компетентні органи наглядають за відповідністю. AI Office на початку 2025 року опублікував гайданс Article 4 і Living Repository, де роз’яснив, що відповідність вимагає задокументованої програми, відкаліброваної за роллю, а не одного відео. Навчання — найдешевший перший крок до загальної готовності за AI Act, бо записи, які воно виробляє, також живлять Articles 14, 26, 27 і 50.

Рекомендовані вправи

Сценарні симуляції, що задовольняють цей стандарт.

AI Literacy Essentials

Базовий модуль Article 4: що таке AI, як поводяться системи, використовувані на роботі, де вони можуть давати збій, і щоденні практики, що задовольняють обовʼязок щодо literacy для кожного співробітника й підрядника.

Спробувати вправу

Prohibited AI Practices

Тренує персонал розпізнавати вісім заборон Article 5 та ескалувати будь-яку пропозицію закупівлі, побудови чи деплою, що перетинає межу, на випередження штрафного рівня €35 млн / 7% обороту.

Спробувати вправу

AI Risk Classification

Проводить юридичні, ризикові, продуктові та інженерні команди через заборонений, високоризикований (Annex III), обмежений і мінімальний класи та обовʼязки, що активуються кожним рівнем за EU AI Act.

Спробувати вправу

Provider vs. Deployer Responsibilities

Прояснює, які обовʼязки належать провайдерам за Articles 9–22 і які належать деплоєрам за Article 26 — найпоширеніше джерело контрактної плутанини у відносинах з AI-вендорами.

Спробувати вправу

Meaningful Human Oversight

Модуль Article 14: тренує названих наглядачів високоризикованих AI-систем щодо можливостей, обмежень, automation bias та умов, за яких перевизначати чи ігнорувати вихід.

Спробувати вправу

High-Risk AI Deployer Obligations

Проводить персонал на боці деплоєра через Article 26 (призначення нагляду, вхідні дані в межах інструкцій, моніторинг, збереження логів, інформування працівників, призупинення на ризик, звітування про інциденти) на випередження дати чинності 2 серпня 2026 року.

Спробувати вправу

Fundamental Rights Impact Assessment

Покриває структуровану оцінку Article 27, яку деплоєри державного сектору й оператори певних високоризикованих систем мусять виконати й повідомити національному органу нагляду за ринком перед першим використанням.

Спробувати вправу

AI Transparency and Disclosure

Модуль Article 50: розкриття чат-ботів, повідомлення про розпізнавання емоцій і біометричну категоризацію, маркування deepfake та обовʼязок машиночитаного маркування для синтетичного виходу GPAI.

Спробувати вправу

Дотичні терміни глосарія

Швидкі визначення термінів із цього стандарту.

Часті запитання

Що питають GRC- та security-лідери про цей стандарт.

Що таке AI literacy за Article 4 EU AI Act?

Article 4 Regulation (EU) 2024/1689 вимагає від провайдерів і деплоєрів AI-систем вживати заходів, щоб забезпечити, наскільки можливо, достатній рівень AI literacy серед свого персоналу й будь-яких інших осіб, що мають справу з оперуванням і використанням AI-систем від їхнього імені. Literacy має бути відкаліброваною під технічні знання, досвід, освіту й навчання залучених людей, контекст, у якому використовуються системи, та уражених осіб.

Обовʼязок набув чинності 2 лютого 2025 року і застосовується до кожного провайдера й деплоєра незалежно від рівня ризику. EU AI Office на початку 2025 року опублікував Living Repository і публічне Q&A, де роз’яснив, що одного онбординг-відео недостатньо для відповідності Article 4 і що організації мають вести документацію literacy-заходів, які вони впровадили.

Чи вимагає EU AI Act навчання AI для всіх співробітників?

Article 4 застосовується до персоналу й будь-яких інших осіб, що мають справу з оперуванням і використанням AI-систем від імені організації. На практиці це означає всіх, хто використовує AI-інструмент як частину роботи, включно з офісними асистентами продуктивності, копілотами обслуговування клієнтів, кодинг-асистентами, маркетинговими генераторами та будь-яким вбудованим AI у бізнес-софті. Article 4 не вимагає однакової глибини для всіх; він вимагає калібровки за роллю.

Для більшості підприємств практична відповідь — базовий literacy-модуль для всього персоналу, що торкається будь-якого AI-інструменту на роботі, з глибшими специфічними за роллю модулями для розробників, операторів на боці деплоєра, названих наглядачів за Articles 14 і 26, юридичних і ризикових команд та керівників. Article 26 окремо вимагає від деплоєрів високоризикованих AI-систем забезпечити, що фізичні особи, призначені для нагляду, мають необхідну компетенцію, навчання, повноваження й підтримку.

Коли тренування AI literacy стає обовʼязковим за EU AI Act?

Обовʼязок Article 4 щодо AI literacy став застосовним 2 лютого 2025 року, через шість місяців після того, як регламент набув чинності 1 серпня 2024 року. Та сама дата запустила заборону восьми заборонених AI-практик у Article 5. Обидва обовʼязки вже діють і підлягають правозастосуванню зараз.

Інші віхи застосовності — 2 серпня 2025 року (правила GPAI-моделей, розділ управління, штрафний режим, національні компетентні органи), 2 серпня 2026 року (обовʼязки високого ризику для доменів Annex III і більшість залишкових положень), 2 серпня 2027 року (повна застосовність для високоризикованого AI, вбудованого у регульовані продукти за Annex I).

Що вважається достатнім рівнем AI literacy?

Регламент не визначає "достатнього" відносно єдиного бенчмарка. Q&A EU AI Office щодо Article 4 пояснює, що оцінка є контекстуальною: literacy має відповідати технічним знанням, досвіду, освіті й навчанню залучених людей, способу використання AI-систем і людям, на яких ті системи впливають. Обробник претензій, що використовує AI-тріаж, потребує іншої literacy, ніж дата-сайєнтист, який її побудував.

На практиці органи шукатимуть задокументовану програму, а не одиничну тренувальну подію, відкаліброваною за роллю, оновлену, коли регламент чи AI-системи змінюються, та підкріплену доказами того, що названі особи завершили модулі, релевантні їхній роботі. AI Pact Комісії і Living Repository on AI Literacy дають публічну колекцію дизайнів програм, які AI Office вважає прийнятними.

Кому потрібне навчання людського нагляду за Article 14 EU AI Act?

Article 14 застосовується до провайдерів високоризикованих AI-систем і вимагає, щоб ті системи були спроєктовані й розроблені так, аби ними могли ефективно наглядати фізичні особи протягом періоду, у який AI-система використовується. Article 26 покладає операційний бік цього обовʼязку на деплоєрів високоризикованих AI-систем: призначити нагляд фізичним особам, які мають необхідну компетенцію, навчання, повноваження й підтримку для виконання роботи.

На практиці кожному названому наглядачу високоризикованої AI-системи потрібне таргетоване навчання щодо можливостей і обмежень системи, automation bias, умов, за яких перевизначати чи ігнорувати вихід, та шляху ескалації. Тренувальний запис для тих осіб — це документ, який національний компетентний орган найімовірніше запитає першим під час розслідування.

Які штрафи за EU AI Act?

Article 99 встановлює трирівневий штрафний стек. Порушення заборонених AI-практик у Article 5 несуть найвищий рівень: до €35 млн або 7% глобального річного обороту за попередній фінансовий рік, залежно від того, що вище. Невідповідність більшості інших обовʼязків (управління даними, прозорість, обовʼязки деплоєра, обовʼязки провайдера GPAI, Article 4 literacy, де він застосовний) несе до €15 млн або 3% глобального річного обороту.

Надання неправильної, неповної чи оманливої інформації нотифікованим органам або національним компетентним органам несе до €7,5 млн або 1,5% глобального річного обороту. SME й стартапи стикаються з нижчим із двох значень, а не з вищим. Національні органи й EU AI Office враховують тяжкість, тривалість, навмисний або недбалий характер, співпрацю та попередні порушення при калібровці штрафів.

Чи застосовується EU AI Act до американських компаній?

Так, регламент має екстериторіальну дію. Він застосовується до провайдерів, що розміщують AI-системи на ринку ЄС або вводять їх в експлуатацію в Союзі, незалежно від того, де провайдер заснований. Він застосовується до деплоєрів, заснованих у ЄС. Він також застосовується до провайдерів і деплоєрів, заснованих поза межами ЄС, коли вихід, вироблений AI-системою, використовується в Союзі.

Цей останній гачок захоплює велику частину глобальної AI-економіки: SaaS-вендор з США, чию AI-фічу використовує французький клієнт, перебуває у сфері дії, і деплоєр з США, чий AI-вихід доставляється або використовується в межах ЄС, перебуває у сфері дії. Не-ЄС-провайдери мають призначити authorised representative у Союзі перед розміщенням високоризикованих AI-систем на ринку.

Який таймлайн повної застосовності EU AI Act?

Регламент набув чинності 1 серпня 2024 року і застосовується поетапно. 2 лютого 2025 року стали застосовними заборонені практики у Article 5 і обовʼязок Article 4 щодо AI literacy. 2 серпня 2025 року стали застосовними правила General-Purpose AI моделей, розділ управління (включно з EU AI Office і національними компетентними органами) та штрафний режим Article 99.

2 серпня 2026 року стає застосовною основна частина обовʼязків високоризикованого AI і більшість залишкових положень. 2 серпня 2027 року регламент стає повністю застосовним до високоризикованих AI-систем, вбудованих у продукти, охоплені Union harmonisation legislation, перелічені в Annex I. Організаціям слід послідовно вибудувати свою комплаєнс-програму проти цих дат, з Article 4 literacy і скринінгом заборонених практик як негайними пріоритетами.

Джерела та матеріали для подальшого читання

Першоджерела, на які посилається сторінка, та суміжні рекомендації.

Зробіть цей стандарт audit-ready

Запишіться на 30-хвилинну демонстрацію. Ми підберемо послідовність вправ, логіку призначень і експорт доказів, який очікує ваш аудитор.