II Business & Legal IT Forum: «Найімовірніше, штучний інтелект буде розглядатися як джерело підвищеної небезпеки» — Роман Майданик — PRAVO.UA II Business & Legal IT Forum: «Найімовірніше, штучний інтелект буде розглядатися як джерело підвищеної небезпеки» — Роман Майданик — PRAVO.UA
прапор_України
2024

Генеральний партнер 2024 року

Видавництво ЮРИДИЧНА ПРАКТИКА
Головна » Новини » II Business & Legal IT Forum: «Найімовірніше, штучний інтелект буде розглядатися як джерело підвищеної небезпеки» — Роман Майданик

II Business & Legal IT Forum: «Найімовірніше, штучний інтелект буде розглядатися як джерело підвищеної небезпеки» — Роман Майданик

  • 05.10.2022 14:36

У Києві продовжує роботу II Business & Legal IT Forum, організований газетою «Юридична практика».

На завершення роботи сесії, присвяченої ІТ-індустрії під час війни, перед учасниками форуму зі спеціальною доповіддю «Штучний інтелект: виклики та перспективи» виступив арбітр Міжнародного комерційного арбітражного суду при Торгово-промисловій палаті України Роман Майданик.

За словами доповідача, сьогодні найбільший виклик стосовно унормування застосування штучного інтелекту пов’язаний з тим, що право у вигляді законів, підзаконних актів, судової практики практично не має чітких орієнтирів, як учасникам цих відносин регулювати свої ризики.

У соціологічному аспекті штучний інтелект розглядається як дії, пов’язані з використанням комп’ютерної програми, яка тією чи іншою мірою імітує розумові здібності людини.

З погляду інформатики штучний інтелект розглядається в контексті комп’ютерної програми у взаємозв’язку з його розробником.

Залежно від ступеня контролю людиною штучний інтелект поділяють на слабкий і сильний. Характерною особливістю штучного інтелекту є здатність здійснювати аналіз та приймати передбачувані рішення з огляду на дані, які в нього є.

Світові підходи

Також Роман Майданик зауважив, що сьогодні майже всі країни, які використовують штучний інтелект, регулюють це питання на рівні концепцій. Проте є й країни, які вже на рівні законів готові закріпити основи правового регулювання штучного інтелекту.

Зокрема, Європейський Союз працює над формуванням правових рамкових положень щодо застосування штучного інтелекту. ЄС застосував «підхід, заснований на ризику» в класифікації штучного інтелекту. Виділяють чотири групи штучного інтелекту:

  • з недопустимим ризиком (штучний інтелект у політичних кампаніях, або який передбачає незаконне збирання персональних даних);
  • з високим ризиком (використання програмного забезпечення для ідентифікації фізичних осіб за зовнішніми і фізіологічними даними);
  • з помірним ризиком;
  • з мінімальним ризиком.

«Цей поділ дає можливість, відповідно, створювати різний обсяг вимог для допуску до ринку та контролю над ними. При цьому ЄС бере до уваги, що використання штучного інтелекту повинно гарантувати, що не будуть порушені права громадян Союзу», — підкреслив Роман Майданик.

У США також готовий проєкт закону про штучний інтелект, в якому один із акцентів зроблено на недопустимості порушень прав споживачів через використання штучного інтелекту.

Це, за словами спікера, принципово відрізняє підхід ЄС та США від підходів, які застосовуються під час використання штучного інтелекту в Китаї.

«Китай сьогодні має найбільш амбіційну програму впровадження та використання штучного інтелекту під час здійснення правосуддя. У них уже на практиці впроваджено розгляд найбільш простих категорій справ з активною участю штучного інтелекту», — акцентував пан Майданик.

Українські перспективи

Що стосується підходів правового регулюванням штучного інтелекту в Україні, то, за словами Романа Майданика, на сьогодні найбільш поширеним є питання, хто повинен нести цивільно-правову відповідальність за помилки, допущені під час використання штучного інтелекту.

Друга група питань пов’язана з тим, який зв’язок штучного інтелекту з правом інтелектуальної власності, що сьогодні є усталеним у праві України.

Виділяють три можливі напрями, які може бути використано українським законодавцем:

  1. визнавати штучний інтелект об’єктом правового регулювання (цивільних прав);
  2. визнавати специфічним суб’єктом права (електронна юридична особа);
  3. поєднання двох напрямів — в одних випадках штучний інтелект буде розглядатися як об’єкт цивільних прав, а в інших — як юридична особа.

«Коли ми говоримо про відповідальність за шкоду, заподіяну внаслідок використання штучного інтелекту, найімовірніше, ми будемо йти шляхом дотримання норм цивільного кодексу про використання джерела підвищеної небезпеки. І в цьому випадку відповідальність нестиме особа, яка є володільцем цього об’єкта або яка є стороною договору управління. Тобто відповідальність буде нести така особа незалежно від того, була її вина чи ні», — зауважив Роман Майданик.

Поділитися

Підписуйтесь на «Юридичну практику» в Facebook, Telegram, Linkedin та YouTube.

Баннер_на_сайт_тип_1
баннер_600_90px_2
2024
tg-10
Legal High School

СВІЖИЙ ВИПУСК

Чи потрібно відновити військові суди в Україні?

Подивитися результати

Завантажується ... Завантажується ...

PRAVO.UA