in , ,

Забороняй і регулюй: закон про штучний інтелект в Європарламенті

Забороняй і регулюй: закон про штучний інтелект в Європарламенті
Олена Стойко
11 травня члени Європейського парламенту в комітетах з питань внутрішнього ринку та
громадянських свобод допрацювали проєкт, запропонований Європейською Комісією у квітні
2021 року, і ухвалили компромісний текст закону про штучний інтелект (Artificial Intelligence
Act). Текст був підтриманий 84-ма голосами проти 7, а 12 осіб утрималося.
У результаті обговорення в парламентських комітетах було звужено розуміння штучного
інтелекту (ШІ). Консервативні депутати Європарламенту домоглися узгодження визначення з
визначенням Організації економічного співробітництва та розвитку (ОЕСР) та його звуження,
хоча ліві фракції виступали за якомога ширше розуміння цієї технології та її результатів. Згідно
зі ст. 3(1) пропонованого закону, система штучного інтелекту – це «машинна система,
розроблена для роботи з різним рівнем автономії, яка може, з явними або неявними цілями,
генерувати такі результати, як прогнози, рекомендації або рішення, що впливають на фізичне
або віртуальне середовище». У попередній версії ШІ визначався як «програмне забезпечення,
яке розроблене із застосуванням одного або декількох методів і підходів, перелічених у Додатку
I, і може для певного набору визначених людиною цілей генерувати такі результати, як контент,
прогнози, рекомендації або рішення, що впливають на середовище, з яким вони взаємодіють».
Парламентарії також встановили жорсткіші заборони щодо ШІ. Згідно зі ст. 5
законопроєкту до заборонених видів діяльності належать:
– системи віддаленої біометричної ідентифікації в режимі реального часу у громадських
місцях
– системи віддаленої біометричної ідентифікації «після», за єдиним винятком –
використання системи правоохоронними органами для переслідування тяжких злочинів і тільки
після відповідного судового дозволу;
– системи біометричної категоризації з використанням чутливих характеристик
(наприклад, стать, раса, етнічна приналежність, громадянство, релігія, політична орієнтація);
– прогностичні поліцейські системи (засновані на профілюванні, місцезнаходженні або
історії злочинної поведінки);
– системи розпізнавання емоцій у правоохоронних органах, прикордонній службі, на
робочих місцях та в закладах освіти;
– невибіркове вилучення біометричних даних із соціальних мереж або записів камер
відеоспостереження для створення баз даних розпізнавання облич, що порушує права людини та
право на приватне життя.
Така пряма заборона на деякі види використання біометричних даних стала результатом
активного лобіювання з боку організацій громадянського суспільства та інших органів ЄС, які
наполягали на внесенні поправок для посилення захисту фундаментальних прав.
Також закон визначає кілька заборонених застосувань систем ШІ, які вважаються
шкідливими, наприклад, «маніпулятивні або оманливі методи» і соціальний скоринг, що
розглядається як неприйнятний ризик.
Допрацьований варіант запроваджує більш суворий режим для застосування ШІ з
високим ступенем ризику. Спочатку високий ризик визначався на основі переліку критичних

сфер і варіантів використання, наведених у Додатку III. У цьому додатку виділено чотири
категорії ризику: неприйнятний, високий, обмежений та мінімальний або відсутність ризику. У
ході розгляду на засіданнях комітетів було розширено категорію високого ризику, до якої було
включено шкоду здоров’ю, безпеці, основним правам людини або навколишньому середовищу.
Системи штучного інтелекту, що мають за мету вплинути на виборців в ході виборчої
кампанії, а також системи рекомендацій, що використовуються платформами соціальних мереж
(так звані дуже великі онлайн платформи» (Very Large Online Platform, VLOP згідно із Законом
про цифрові послуги (2022)), також були додані до високоризикованих.
Компоненти безпеки транспортних або цифрових мереж, які регулюються галузевим
законодавством, були виключені з Додатка III. У сфері освіти до категорії високого ризику
застосування ШІ додали моделі, що використовуються для оцінки відповідного рівня освіти або
виявлення шахрайства під час іспитів.
Якщо системи ШІ підпадають під дію Додатку III, але провайдери вважають, що
значного ризику немає, вони повинні будуть повідомити про це відповідний орган, який матиме
три місяці, щоб виступити проти цього. За цей час провайдери зможуть запустити своє рішення
зі штучного інтелекту, але за неправильну класифікацію будуть накладені штрафні санкції.
У новому варіанті чіткіше сформульовані зобов’язання постачальників послуг у сфері ШІ
з високим ступенем ризику, зокрема щодо управління ризиками, управління даними, технічної
документації та ведення записів.
За замовчуванням правила ШІ не поширюватимуться на системи ШІ загального
призначення (General Purpose AI, GPAI). Основна частина зобов’язань ляже на економічних
операторів, які інтегрують ці системи в додатки, що вважаються високоризиковими. Однак
постачальники GPAI повинні будуть підтримувати дотримання вимог операторами шляхом
надання всієї необхідної інформації та документації щодо моделі штучного інтелекту.
Більш жорсткі вимоги пропонуються для базових моделей, потужних систем ШІ
загального призначення, таких як Stable Diffusion, які можуть забезпечувати роботу інших
додатків ШІ. Зобов’язання стосуються управління ризиками, управління даними та рівень
надійності базової моделі, який має бути перевірений незалежними експертами.
У проєкті закріплені додаткові вимоги щодо прозорості для генеративних базових
моделей, таких як ChatGPT або Google Bard, зокрема:
– надавати інформацію про те, що контент був згенерований ШІ;
– при розробці моделей не допускати продукування нею нелегального контенту;
– публікувати інформацію про дані, захищені авторським правом, що були використані
для навчання.
Серед законодавців ЄС був досягнутий консенсус щодо забезпечення елемента
централізації в архітектурі правозастосування, особливо у випадку ситуацій, що виходять за
межі однієї держави. Спершу домінувало прагнення централізувати правозастосування через
Управління з питань ШІ (AI Office) – новий орган ЄС, який не дотягував би до рівня агентства.
Однак через бюджетні обмеження роль цього управління була зведена до допоміжної (надання
рекомендацій, координація спільних розслідувань тощо), хоча воно зберегло свій власний
секретаріат і виконавчого директора. Натомість на Єврокомісію було покладено завдання
вирішувати суперечки між національними органами влади щодо небезпечних систем штучного
інтелекту.
Основні повноваження щодо проведення розслідувань були повернуті на рівень
національних органів влади. Європейська комісія буде втручатися лише у найбільш серйозних
випадках, зокрема коли органи влади держави-члена заборонять систему, яка несе серйозні
ризики, попри дотримання вимог законодавства у сфері ШІ. Якщо ж справа стосуватиметься
двох або більше держав-членів, то провідну роль відіграватиме орган тої країни, де відбулося
порушення. При цьому передбачається проведення спільних розслідувань у випадку

широкомасштабного порушення, або такого, що заторкує 45 млн осіб щонайменше у двох
країнах. Широкомасштабне порушення стосується щонайменше трьох країн ЄС. Воно може
набути європейського виміру, якщо зачіпає колективні інтереси щонайменше двох третин країн
або населення ЄС.
Очікується, що під час сесії 12-15 червня 2023 року Європейський парламент на
пленарному засіданні прийме допрацьований законопроєкт. Після цього почнеться остання
стадія законодавчого процесу в Євросоюзі, коли розпочнуться тристоронні переговори між
законодавцями, країнами-членами та чиновниками Комісії, так звані «трилоги».

Рейтинг публікації

Коментарі

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Loading…

0

Можливості для розвитку українців від країн ЄС

Під час зустрічі в Берліні 14 травня 2023 року Президент України та Канцлер Федеративної Республіки Німеччина виступили з такою заявою