Останніми місяцями багато говорили про те, як нова хвиля чат-ботів на основі ШІ, ChatGPT серед них, може перевернути численні галузі, включно з юридичною професією.
Однак, судячи з того, що нещодавно сталося у справі в Нью-Йорку, схоже, що може пройти деякий час, перш ніж висококваліфіковані юристи будуть зметені технологією.
Рекомендовані відео
Дивний епізод почався, коли Роберто Мата подав до суду на колумбійську авіакомпанію, стверджуючи, що він отримав травму під час рейсу до Нью-Йорка.
Пов'язані
- Найпопулярніші автори вимагають від фірм штучного інтелекту плату за використання їхніх робіт
- GPT-4: як використовувати чат-бот ШІ, який ганьбить ChatGPT
- Wix використовує ChatGPT, щоб допомогти вам швидко створити весь веб-сайт
Авіакомпанія Avianca попросила суддю відхилити справу, тож команда юристів Мати склала коротку цитату. півдюжини подібних випадків, які мали місце, намагаючись переконати суддю прийняти справу їх клієнта продовжувати, Нью-Йорк Таймс повідомили.
Проблема полягала в тому, що юристи авіакомпанії та суддя не змогли знайти жодних доказів справ, згаданих у записці. чому Тому що ChatGPT вигадав їх усіх.
Творець брифу Стівен А. Шварц — досвідчений юрист фірми Levidow, Levidow & Oberman — зізнався у письмовій заяві, що використовував Відомий чат-бот OpenAI ChatGPT для пошуку подібних випадків, але сказав, що він «виявив, що ненадійний».
Шварц сказав судді, що раніше не використовував ChatGPT і «тому не знав про можливість того, що його вміст може бути неправдивим».
Створюючи бриф, Шварц навіть попросив ChatGPT підтвердити, що випадки дійсно мали місце. Завжди корисний чат-бот відповів ствердно, заявивши, що інформацію про них можна знайти в «авторитетних юридичних базах даних».
Юрист, який опинився в центрі шторму, сказав, що «дуже шкодує» про те, що використав ChatGPT для створення брифа, і наполягав, що «ніколи не робитиме цього в майбутньому без повної перевірки його автентичності».
Дивлячись на те, що він описав як юридичне подання, повне «фальшивих судових рішень, з фальшивими цитатами та фальшивими внутрішніми цитати», і описуючи ситуацію як безпрецедентну, суддя Кастель призначив слухання на початку наступного місяця для розгляду можливі штрафні санкції.
Хоча ChatGPT та інші чат-боти вражають тим, як вони створюють плавний текст високої якості, це подобається також відомо, що вони вигадують речі та представляють їх так, ніби це справжнє — чому Шварц навчився вартість. Це явище відоме як «галюцинація» і є одним із найбільших викликів, з якими стикаються розробники-люди, що стоять за чат-ботами, коли вони прагнуть розгладити цю дуже проблематичну складку.
В іншому недавньому прикладі генеративного інструменту штучного інтелекту галюцинації, an Мер Австралії звинуватив ChatGPT створення брехні про нього, зокрема те, що він був ув’язнений за хабарництво, працюючи в банку більше десяти років тому.
Мер Брайан Гуд насправді був інформатором у цій справі й ніколи не був звинувачений у злочині, тому він був дуже засмучений, коли люди почали інформувати його про те, що чат-бот переписує історію.
Рекомендації редакції
- Ось чому люди думають, що GPT-4 з часом може ставати дурнішим
- ChatGPT: останні новини, суперечки та поради, які вам потрібно знати
- Що таке підказка DAN для ChatGPT?
- Google Bard тепер може говорити, але чи може він заглушити ChatGPT?
- Розробник ChatGPT OpenAI стикається з розслідуванням FTC щодо законів про захист прав споживачів
Оновіть свій спосіб життяDigital Trends допомагає читачам стежити за динамічним світом технологій завдяки всім останнім новинам, цікавим оглядам продуктів, проникливим редакційним статтям і унікальним у своєму роді коротким оглядам.