Верховний Суд образився? — блог Юлії Курило — PRAVO.UA Верховний Суд образився? — блог Юлії Курило — PRAVO.UA
прапор_України
2024

Генеральний партнер 2024 року

Видавництво ЮРИДИЧНА ПРАКТИКА
Головна » Новини » Верховний Суд образився? — блог Юлії Курило

Верховний Суд образився? — блог Юлії Курило

  • 26.02.2024 11:15
Юлія Курило, керуючий партнер JKLAW

Аргументи, згенеровані штучним інтелектом, та реакція на них колегії з розгляду корпоративних спорів Касаційного господарського суду у складі Верховного Суду, що міститься в нещодавно опублікованій ухвалі від 08.02.2024 (справа № 925/200/22), викликали неабиякий резонанс.

Дуже емоційно як для процесуального документа, чи не так? Наведу цитату: «Протиставлення учасником судового процесу у процесуальній заяві висновків судової палати Верховного Суду з правового питання та штучного інтелекту, що немає нормативного регулювання та науково доведеного підґрунтя для використання, як підстава для роз`яснення рішення суду неминуче спричиняє проблеми з точки зору впливу на авторитет Верховного Суду, його судової практики та довіри до судової влади в цілому».

З дискусії, яка розгортається у фейсбуці, видно, що основною претензією колег до Верховного Суду з приводу ухвали є те, що колегія визначила пряму залежність між фактом генерування штучним інтелектом (ChatGPT) аргументу, який використав адвокат у заяві про роз’яснення судового рішення, та висновком про неповагу до суду й зловживанням правом. Окремі учасники дискурсу стверджують, що такі висновки фактично виключають подальшу можливість використовувати певні аргументи з посиланням на їх генерування штучним інтелектом. Як консервативно та необачно з боку Верховного Суду! Жартую…

У New York Times у жовтні 2023 року вийшла стаття «Може, ми дізнаємося більше про роботу ШІ?». Автор запитує: «Як багато нам відомо про ШІ?». І сам відповідає: «Практично нічого». Далі цитата: «Ці фірми (OpenAI, Google,Meta) зазвичай не оприлюднюють інформації про те, яка саме інформація була використана для тренування їхніх моделей або які процесори та інше обладнання використовується для підтримки роботи ШІ. Для користувачів ШІ немає інструкції з користування, не існує і повного переліку того, на що ШІ здатний, а також які протоколи безпеки ними використовуються. І хоча окремі моделі ШІ мають відкритий код <…> публіка досі не знає багато про те, як ШІ створюються та що відбувається після того, коли запуск системи відбувся».

ШІ ніщо без інформації. Інструменти машинного навчання обробляють тони даних. Так комп’ютер «навчається». Це відбувається без допомоги програміста, який би модерував цей процес. «Навчання» відбувається завдяки тому, що на великому масиві інформації програма навчається встановлювати залежності, закономірності та передбачати результат. У Washington Post написали: «Фундаментальна проблема великих мовних моделей полягає в їх ідіотизмі». «Ці моделі вірять в усе, що хтось їм скаже. В них нема налаштованого механізму оцінки надійності джерела інформації». Що в тих мережах тільки не публікують!

Використання ШІ під час надання юридичних послуг не є чимось абсолютно новим. Ми вже багато років спостерігаємо розвиток абсолютно роботизованих платформ надання юридичних послуг. Від генерування договорів до звернень із типовими скаргами. Приклади – заяви про відшкодування компенсації за затримку чи скасування рейсу в межах ЄС. У США працюють роботизовані системи оскарження штрафів за порушення правил дорожнього руху. Треба лиш увести необхідні дані, далі алгоритм зробить усе сам.

ChatGPT не створений для надання правової допомоги. Він відверто ухиляється від надання юридичних консультацій та висновків, так само відмовляється від пошуку та узагальнення певних матеріалів, проте він здатний генерувати відповіді на запитання юридичного характеру. На сайті Центру юридичної професії Гарвардської школи права розміщено публікацію, що версія ChatGPT 3.0 з успіхом склала іспит із цивільного процесу на рівні B/B+ та надала 12 із 15 правильних відповідей на тесті з етики юридичної професії.

American Bar Association присвятила свій жовтневий номер журналу за 2023 рік впливу ШІ на роботу юристів, зазначаючи, що якщо ви не використовуєте ШІ в вашій роботі, будьте впевнені: ваші опоненти вже роблять це, тож варто поспішати. Водночас експерти, опитані Forbes Magazine, застерігають, що використання ШІ для генерування юридичних висновків та процесуальних документів може стати основою для звинувачень у порушенні адвокатської етики (зокрема адвокатської таємниці). У Каліфорнії коментар до Етичних правил для адвокатів оновили з врахуванням вимог до використання ШІ. Зокрема, визнають порушенням норм етики використання інформації, згенерованої ШІ, без додаткової перевірки та застерігають від розголошення адвокатської таємниці під час підготовки процесуальних документів за допомогою ШІ.

У травні 2023 року вся юридична спільнота США здригалась від реготу, коли адвокати, що представляли інтереси постраждалого, який зазнав шкоди здоров’ю та судився з авіакомпанією, використали ChatGPT для написання процесуальних документів. Як з’ясувалося, використані ШІ цитати та посилання на відповідні джерела права (прецеденти) були фейковими (вигаданими). За це суддя з окружного суду Мангеттена призначив бідолахам покарання у вигляді штрафу по $5,000. У своєму рішенні він написав так: «Технологічний прогрес є зрозумілим, і немає нічого поганого в тому, аби використовувати надійних помічників на основі ШІ для полегшення адвокатами своєї роботи. Проте наявні правила покладають на адвокатів обов’язки бути своєрідним фільтром, забезпечуючи, щоб до суду потрапляла лише правдива інформація. <…> Адвокати проігнорували свій обов’язок у той момент, коли подали до суду юридичні висновки, яких не існує, з посиланням на фейкові цитати, створені штучним інтелектом ChatGPT, та в той момент, коли продовжували наполягати на цих висновках після того, як суд поставив їх існування під сумнів».

Після цього випадку федеральний суддя із суду Північного округу штату Техас постановив, що разом із процесуальними документами, поданими йому у справах, адвокати мають надавати сертифікат про невикористання ШІ під час підготовки процесуальних документів.

На жаль, використання фейкових прецедентів, згенерованих ШІ, триває як у США, так і у Великобританії. Так, нещодавно в Law Society of England&Wales також констатовано випадок, коли фізична особа без статусу адвоката, яка самостійно обстоювали свої інтереси в суді, принесла до суду цитати з прецедентів (судових рішень), які були вигадкою ШІ.

Немає сумніву, що ChatGPT може бути обмежено корисним інструментом у роботі юриста, але це чи може він бути першоджерелом, еталоном формування правової позиції?

Професійним обов’язком адвоката є діяти в найкращих інтересах клієнта. Це правило є універсальним для всіх юрисдикцій. У розумінні American Bar Association та відповідно до рекомендацій асоціацій адвокатів окремих штатів США щодо етичних обмежень у використанні ШІ в адвокатській діяльності знання технологій, які використовуються адвокатом під час надання правничої допомоги, та їх обмежень є передумовою для реалізації обов’язку діяти в найкращих інтересах клієнта. ChatGPT не є надійним джерелом інформації, він не створений для генерування юридичних аргументів, він не дотримується правил адвокатської етики та норм процесуального закону під час підготовки відповіді за запитом з юридичного питання чи під час підготовки документів в інтересах клієнта. Усе, що ми знаємо про ШІ, переконує нас, що аргументи, сформовані ШІ, – це зовсім не першоджерело, і тим паче не еталон правової думки!

Ухвалою ВС від 08.02.2024 у справі № 925/200/22 була залишена без розгляду заява про роз’яснення судового рішення, подана всупереч ч. 2 ст. 234 ГПК України. У мотивувальній та резолютивній частині Суд констатував зловживання правом із боку заявника, зокрема через посилання на аргументи, згенеровані ШІ. На моє глибоке переконання, пропозицію адвоката, висловлена в процесуальному документі, спрямованому на адресу суду, обговорити чи надати оцінку аргументу, згенерованому ChatGPT, без посилання на традиційні джерела, точно не варто розглядати як образу чи неповагу до суду. Її взагалі не варто розглядати, принаймні поки що.

Авторитет Верховного Суду, який так емоційно обстоюється в його ухвалі, не має нічого спільного з феноменом штучного інтелекту. Він побудований на високому рівні експертизи, послідовності та здатності пояснити своє рішення, на етиці та людяності. Адвокатам не потрібен штучний інтелект, щоби помічати суперечливість висновків, неоднакове застосування норм права або упередженість та відверте підігрування на догоду певній категорії учасників процесу, наприклад через «державні інтереси». Аналіз та критика, яку адвокати публічно висловлюють щодо текстів судових рішень, зокрема й Верховного Суду, є природним наслідком професійної діяльності, яка передбачає спільну із суддями відповідальність за те, щоби право допомагало нашій країні розвиватись, а звичайні люди та бізнес відчували, що їхні інтереси захищено.

 

Блог — матеріал, який відображає винятково точку зору автора. Як незалежне видання, «Юридична практика» може публікувати статті, що мають дискусійний характер або стосуються тих чи інших спірних питань. Точка зору редакції “ЮП” може не збігатися з поглядом автора блогу.

Поділитися

Підписуйтесь на «Юридичну практику» в Facebook, Telegram, Linkedin та YouTube.

Баннер_на_сайт_тип_1
YPpicnic600x900
баннер_600_90px_2
2024
tg-10
Legal High School

СВІЖИЙ ВИПУСК

Чи потрібно відновити військові суди в Україні?

Подивитися результати

Завантажується ... Завантажується ...

PRAVO.UA