Правове регулювання штучного інтелекту: міжнародний досвід та українські перспективи — PRAVO.UA Правове регулювання штучного інтелекту: міжнародний досвід та українські перспективи — PRAVO.UA
прапор_України
2024

Генеральний партнер 2024 року

Видавництво ЮРИДИЧНА ПРАКТИКА
Головна » Новини » Правове регулювання штучного інтелекту: міжнародний досвід та українські перспективи

Правове регулювання штучного інтелекту: міжнародний досвід та українські перспективи

  • 10.11.2023 14:56
Ігор Реутов, партнер, адвокат АФ «Грамацький і Партнери»

 Стрімкий розвиток технології штучного інтелекту (надалі також — ШІ) підштовхує світ до пришвидшеної реакції та усвідомлення необхідності її правового регулювання.

У цьому матеріалі ми спробуємо розглянути основні концепції та проєкти законів, спрямовані на створення нормативного поля для штучного інтелекту, які існують на сьогодні у світі та Україні.

Декларації Блечлі

Прискорене вдосконалення технологій у галузі штучного інтелекту спонукає до термінового діалогу про регулювання — про це свідчить саміт з безпеки штучного інтелекту в Лондоні, організований прем’єр-міністром Великобританії 1-2 листопада 2023 року. За результатами саміту лідери 28 країн світу підписали Декларацію Блечлі, яка підтвердила необхідність забезпечення поваги прав людини, приватності та захисту даних, етичності, безпечності, а також можливості людського нагляду, зрозумілості для користувачів при розробці систем ШІ.

Одним із ключових аспектів Декларації Блечлі є усвідомлення ризиків використання ШІ для шкідливих цілей та необхідності розробки ризик-орієнтованих політик при регулюванні ШІ, які б унеможливили розробку систем ШІ, які можуть бути використані для дезінформації, дискримінації чи маніпуляції, тощо.

Слід відзначити, що, хоча підписання Декларації Блетчлі продемонструвало значний крок до визнання потенційних загроз штучного інтелекту, єдина глобальна система регулювання поки що залишається недосяжною і консенсусу щодо точної структури такого регулювання ще немає.

Стенфордські дискусії   

Незважаючи на усвідомлення потенційних викликів, пов’язаних із ризиками ШІ, а також розуміння необхідності глобального регулювання, зважаючи на глобальний характер таких викликів, ключові актори – Європейський Союз та США – визнають, що поки що не можуть знайти однакові підходи для такого регулювання. Про це, зокрема, йшлося під час експертного обговорення цієї проблеми 6 липня 2023 року у Стенфордського університеті в рамках Stanford HAI (Stanford University Human-Centered Artificial Intelligence). США та ЄС, для яких цифрові технології становлять 10% та 5-6% ВВП відповідно, по-різному бачать нормативне регулювання ШІ.

Виглядає так, що сфера регулювання штучного інтелекту може розвиватися за аналогією з захистом персональних даних: подібно до того, як в Європейському Союзі було введено GDPR, тоді як у Сполучених Штатах кожен штат має власні правила в цій області. Донині ця тенденція не зазнала змін.

Досвід Канади

У червні 2022 року уряд Канади представив свій проєкт закону про штучний інтелект та дані (AIDA), який, за твердженнями розробників, має на меті встановити гармонійний баланс у регулюванні ШІ.

AIDA спрямований на сприяння інноваціям та розширення доступу на міжнародні ринки для канадських компаній, які мають значну частку на світовому ринку систем ШІ.

Однак законопроєкт зустрів значну критику зі сторони захисників прав людини. Зокрема, висловлюються значні занепокоєння щодо того, що уряд Канади під час розробки законопроєкту віддав перевагу економічним та комерційним аспектам ШІ і не приділив достатньої уваги захисту прав людини.

Зважаючи на жорстку критику, складається враження, що розробникам законопроєкту доведеться врахувати точку зору опонентів.

Закон ЄС  про штучний інтелект (AI Act): схема майбутнього регулювання

Європейський Союз перебуває в авангарді нормативного регулювання ШІ. Проєкт закону ЄС про штучний інтелект (Artificial Intelligence Act) – на завершальній стадії переговорів. Очікується, що цей акт стане першою у світі всеосяжною законодавчою базою для штучного інтелекту.

За твердженнями законодавців, регуляція щодо штучного інтелекту має на меті надати технологічно нейтральне визначення систем штучного інтелекту та прийняти ризик-орієнтований підхід, який встановлює вимоги та обов’язки для розробки, введення на ринок і використання систем штучного інтелекту в ЄС.

Щодо визначення поняття «штучний інтелект» серед законодавців точаться дискусії. На даний момент (після розгляду в Європейському парламенті) пропонується таке: «система штучного інтелекту” (система ШІ) означає машинну систему, яка розроблена для функціонування з різними рівнями автономності та яка може для явних або неявних цілей генерувати результати, такі як прогнози, рекомендації або рішення, що впливають на фізичне чи віртуальне середовище».

Проєкт закону визначає загальні обов’язкові вимоги, які застосовуються до проєктування та розробки систем штучного інтелекту перед їх виведенням на ринок та встановлює вимоги до діяльності після такого виведення.

Законопроєкт ЄС про штучний інтелект класифікує системи штучного інтелекту на основі ризик-орієнтованого підходу та передбачає 4 категорії ризику: неприйнятний, високий, обмежений і мінімальний.

Неприйнятний ризик становлять системи ШІ, які є забороненими. До них належить штучний інтелект, який маніпулює людською поведінкою, щоб обійти свободу волі користувачів (наприклад, підсвідомі методи чи експлуатація вразливих груп), здійснює оцінку чи класифікацію фізичних осіб на основі їхньої поведінки, біометрична ідентифікація в режимі реального часу в публічних місцях (з деякими виключеннями).

Високий ризик включає системи ШІ, які використовуються у критично важливих сферах життя.

До цієї категорії включені системи ШІ, призначені для:

  • використання для віддаленої біометрії в реальному часі та постідентифікація фізичних осіб;
  • використання як компоненти безпеки в управлінні та функціонування дорожнього руху та постачання води, газу, опалення та електроенергії;
  • визначення доступу до освітніх закладів, оцінювання студентів у освітніх закладах та для оцінювання тестів, які зазвичай необхідні для вступу до навчальних закладів.
  • реклами вакансій, перевірки заявок, оцінювання кандидатів під час співбесід чи тестування;
  • прийняття рішень щодо просування по службі та звільнення трудових відносин, для розподілу завдань і моніторингу, а також оцінки ефективності та поведінки осіб у таких відносинах.
  • оцінки права фізичних осіб на державну допомогу чи пільги;
  • оцінки кредитоспроможності фізичних осіб, крім використання малими провайдерами для власного використання;
  • диспетчеризації служб швидкого реагування на надзвичайні ситуації, в тому числі силами пожежників та медичної допомоги.
  • створення індивідуальних оцінок з метою оцінки правоохоронними органами ризику вчинення фізичною особою правопорушення;
  • використання правоохоронними органами в якості поліграфа для виявлення емоційного стану фізичної особи;
  • оцінки достовірності доказів у кримінальному процесі;
  • оцінки ризику нелегальної імміграції;
  • перевірки автентичності проїзних документів та їх супроводження документації фізичних осіб та виявлення неавтентичних документів, перевірка їх засобів захисту;
  • допомоги компетентним державним органам у проведенні експертизи заявок на отримання притулку, візи та дозволу на проживання тощо;
  • допомоги судовим органам у дослідженні та тлумачення фактів і закону та застосування закону до конкретної сукупності фактів.

Такі системи, які і наступні, є дозволеними і вони підлягають жорстким зобов’язанням розробників, перш ніж їх можна буде вивести на ринок, включаючи адекватну оцінку ризиків, високоякісні набори даних для навчання ШІ (зниження ризиків і дискримінаційних результатів), детальну документацію для відстеження процесу прийняття рішень ШІ, чітку та адекватну інформація для користувача, надійний людський нагляд для мінімізації ризиків, а також високий рівень точності, безпеки та надійності тощо.

Обмежений ризик. До цієї категорії належать системи ШІ, які вимагають зобов’язань щодо прозорості. Наприклад, чат-боти мають бути розроблені таким чином, щоб користувачі знали, що вони взаємодіють із машиною.

Мінімальний ризик. Такі програми штучного інтелекту, як відеоігри чи фільтри спаму, вважаються мінімальним ризиком і можуть вільно розроблятися та використовуватися в межах ЄС.

Проєкт закону про штучний інтелект в першій редакції передбачав штрафи в розмірі до 30 мільйонів євро або 6% від загального світового річного обороту для компаній, які не дотримуються правил, підкреслюючи суворість закону та зобов’язання ЄС щодо безпечного розгортання штучного інтелекту. Після розгляду в Європейському парламенті такі показники збільшили до 40 мільйонів євро та 7% від загального світового річного обороту.

Слід зазначити, що переговори щодо законопроєкту ідуть напружено і стейкхолдерам важко узгодити єдині підходи. Про це також свідчить і те, що етап переговорів, який проходив у жовтні 2023 року, не привів до узгодженого результату. Наступне обговорення заплановане на грудень 2023 року.

Український концепт

В Україні над регулюванням технології штучного інтелекту також замислюються. Але нормативно-правова база поки що обмежена і далека від розробки конкретних законопроєктів.

Розпорядженням Кабінету Міністрів України від 2 грудня 2020 р. № 1556-р схвалено Концепцію розвитку штучного інтелекту в Україні, яка визначає пріоритетні сфери, в яких реалізуються завдання державної політики розвитку галузі штучного інтелекту. До них належать: освіта і професійне навчання, наука, економіка, кібербезпека, інформаційна безпека, оборона, публічне управління, правове регулювання та етика, правосуддя.

Реалізація Концепції передбачена на період до 2030 року. Зважаючи на війну, ці строки можуть бути скореговані.

В цьому самому контексті 7 жовтня 2023 року Міністерство цифрової трансформації України представило дорожню карту з регулювання штучного інтелекту в Україні. Дорожня карта передбачає два етапи:

  • на першому, який, як очікується, триватиме 2-3 роки (2023-2025 рр.), бізнесу буде надано можливість для підготовки до регулювання;
  • на другому — почнеться регуляторний процес, який передбачає імплементацію закону ЄС про штучний інтелект (AI Act) та розробку національного закону із врахуванням напрацьованого на першому етапі досвіду.

Впровадження Україною регуляторних моделей, запропонованих законом ЄС про штучний інтелект, сприятиме гармонізації національного законодавства у цій сфері. Таке вирівнювання стандартів не лише відповідатиме вимогам ЄС, але й забезпечуватиме вищий рівень безпеки та етичності у розробці систем штучного інтелекту в Україні.

Замість висновку

Слід визнати, що універсальні параметри для регулювання ШІ, а також можливість створення всесвітніх нормативів досі є об’єктом активних обговорень і консенсус щодо них не досягнутий. Незважаючи на це, є надія, що регулювання штучного інтелекту, яке розробляється як на міжнародному рівні, так і в Україні, буде встигати за швидкими змінами у цій прогресивній галузі, одночасно адекватно реагуючи на потенційні ризики.

Поділитися

Підписуйтесь на «Юридичну практику» в Facebook, Telegram, Linkedin та YouTube.

Баннер_на_сайт_тип_1
баннер_600_90px_2
2024
tg-10
Legal High School

СВІЖИЙ ВИПУСК

Чи потрібно відновити військові суди в Україні?

Подивитися результати

Завантажується ... Завантажується ...

PRAVO.UA