прапор_України

Генеральний партнер 2022 року

Видавництво ЮРИДИЧНА ПРАКТИКА
Головна » Новини » II Business & Legal IT Forum: «Найімовірніше, штучний інтелект буде розглядатися як джерело підвищеної небезпеки» — Роман Майданик

II Business & Legal IT Forum: «Найімовірніше, штучний інтелект буде розглядатися як джерело підвищеної небезпеки» — Роман Майданик

  • 05.10.2022 14:36

У Києві продовжує роботу II Business & Legal IT Forum, організований газетою «Юридична практика».

На завершення роботи сесії, присвяченої ІТ-індустрії під час війни, перед учасниками форуму зі спеціальною доповіддю «Штучний інтелект: виклики та перспективи» виступив арбітр Міжнародного комерційного арбітражного суду при Торгово-промисловій палаті України Роман Майданик.

За словами доповідача, сьогодні найбільший виклик стосовно унормування застосування штучного інтелекту пов’язаний з тим, що право у вигляді законів, підзаконних актів, судової практики практично не має чітких орієнтирів, як учасникам цих відносин регулювати свої ризики.

У соціологічному аспекті штучний інтелект розглядається як дії, пов’язані з використанням комп’ютерної програми, яка тією чи іншою мірою імітує розумові здібності людини.

З погляду інформатики штучний інтелект розглядається в контексті комп’ютерної програми у взаємозв’язку з його розробником.

Залежно від ступеня контролю людиною штучний інтелект поділяють на слабкий і сильний. Характерною особливістю штучного інтелекту є здатність здійснювати аналіз та приймати передбачувані рішення з огляду на дані, які в нього є.

Світові підходи

Також Роман Майданик зауважив, що сьогодні майже всі країни, які використовують штучний інтелект, регулюють це питання на рівні концепцій. Проте є й країни, які вже на рівні законів готові закріпити основи правового регулювання штучного інтелекту.

Зокрема, Європейський Союз працює над формуванням правових рамкових положень щодо застосування штучного інтелекту. ЄС застосував «підхід, заснований на ризику» в класифікації штучного інтелекту. Виділяють чотири групи штучного інтелекту:

  • з недопустимим ризиком (штучний інтелект у політичних кампаніях, або який передбачає незаконне збирання персональних даних);
  • з високим ризиком (використання програмного забезпечення для ідентифікації фізичних осіб за зовнішніми і фізіологічними даними);
  • з помірним ризиком;
  • з мінімальним ризиком.

«Цей поділ дає можливість, відповідно, створювати різний обсяг вимог для допуску до ринку та контролю над ними. При цьому ЄС бере до уваги, що використання штучного інтелекту повинно гарантувати, що не будуть порушені права громадян Союзу», — підкреслив Роман Майданик.

У США також готовий проєкт закону про штучний інтелект, в якому один із акцентів зроблено на недопустимості порушень прав споживачів через використання штучного інтелекту.

Це, за словами спікера, принципово відрізняє підхід ЄС та США від підходів, які застосовуються під час використання штучного інтелекту в Китаї.

«Китай сьогодні має найбільш амбіційну програму впровадження та використання штучного інтелекту під час здійснення правосуддя. У них уже на практиці впроваджено розгляд найбільш простих категорій справ з активною участю штучного інтелекту», — акцентував пан Майданик.

Українські перспективи

Що стосується підходів правового регулюванням штучного інтелекту в Україні, то, за словами Романа Майданика, на сьогодні найбільш поширеним є питання, хто повинен нести цивільно-правову відповідальність за помилки, допущені під час використання штучного інтелекту.

Друга група питань пов’язана з тим, який зв’язок штучного інтелекту з правом інтелектуальної власності, що сьогодні є усталеним у праві України.

Виділяють три можливі напрями, які може бути використано українським законодавцем:

  1. визнавати штучний інтелект об’єктом правового регулювання (цивільних прав);
  2. визнавати специфічним суб’єктом права (електронна юридична особа);
  3. поєднання двох напрямів — в одних випадках штучний інтелект буде розглядатися як об’єкт цивільних прав, а в інших — як юридична особа.

«Коли ми говоримо про відповідальність за шкоду, заподіяну внаслідок використання штучного інтелекту, найімовірніше, ми будемо йти шляхом дотримання норм цивільного кодексу про використання джерела підвищеної небезпеки. І в цьому випадку відповідальність нестиме особа, яка є володільцем цього об’єкта або яка є стороною договору управління. Тобто відповідальність буде нести така особа незалежно від того, була її вина чи ні», — зауважив Роман Майданик.

Поділитися

Підписуйтесь на «Юридичну практику» в Facebook, Telegram, Linkedin та YouTube.

tg-10
4_TaxForce600_90
covid
На-сайт_балы_600х90
На-сайт1_600x90
top50_2020_600x90
ULF_0002
Vacancies_600x90_ua
doroszab2

Чи потрібно відновити військові суди в Україні?

Подивитися результати

Loading ... Loading ...

PRAVO.UA