Юристів Нью-Йорка оштрафовано за використання підроблених справ ChatGPT у юридичній довідці

Невміле використання ChatGPT оштрафував нью-йоркську юридичну фірму на 5000 доларів.

Почувши стільки про вражаючий чат-бот OpenAI на основі ШІ, юрист Стівен Шварц вирішив використати це для дослідження, додавання цитат, згенерованих ChatGPT, до юридичної записки, переданої судді раніше цього рік. Але незабаром виявилося, що випадки були повністю вигадані чат-ботом.

Рекомендовані відео

Окружний суддя США П. У четвер Кевін Кастел зобов’язав юристів Стівена Шварца та Пітера Лодуку, які взяли справу від свого колеги, та їхню юридичну фірму Levidow, Levidow & Oberman сплатити штраф у розмірі 5000 доларів.

Пов'язані

  • Розробник ChatGPT OpenAI стикається з розслідуванням FTC щодо законів про захист прав споживачів
  • Трафік веб-сайту ChatGPT впав вперше
  • Найкращі чат-боти штучного інтелекту, які можна спробувати: ChatGPT, Bard тощо

Суддя сказав адвокати вчинили «акти свідомого ухилення та неправдиві та оманливі заяви суду», додавши, що вони «відмовилися від своїх обов’язків», надавши записку, написану штучним інтелектом, перш ніж підтримувати «фальшиві думки після того, як судові накази назвали їх існування питання».

— продовжував Кастель: «Багато шкоди виникає від подання фальшивих думок. Протилежна сторона витрачає час і гроші на викриття обману. Час суду забирається на інші важливі справи».

Суддя додав, що дії адвокатів «пропагують цинізм щодо юридичної професії та американської судової системи».

Манхеттенська юридична фірма заявила, що «з повагою» не погоджується з думкою суду, назвавши це «сумлінною помилкою».

Під час відповідного судового засідання на початку цього місяця – сказав Шварц він хотів «щиро вибачитися» за те, що трапилося, пояснивши, що він думав, що використовує пошукову систему, і не мав уявлення про те, що інструмент штучного інтелекту може створювати неправду. Він сказав, що «глибоко шкодує» про свої дії», додавши: «Я постраждав як професійно, так і особисто [через] широкий розголос, який викликала ця проблема. Я одночасно збентежений, принижений і надзвичайно розкаяний».

Цей інцидент був пов’язаний зі справою, яку розпочала юридична фірма, пов’язаною з пасажиром, який подав до суду на колумбійську авіакомпанію Avianca після того, як він заявив, що отримав травму під час рейсу до Нью-Йорка.

Avianca попросила суддю відхилити справу, тож команда юристів пасажира склала короткий запис із цитуванням шести подібних справ, намагаючись переконати суддю дозволити розгляд справи їхнього клієнта. Шварц знайшов ці випадки, запитавши ChatGPT, але йому не вдалося перевірити достовірність результатів. Команда юристів Avianca підняла тривогу, коли заявила, що не може знайти справи, які містяться в записці.

Окремим наказом у четвер суддя задовольнив клопотання Avianca про відхилення позову проти неї, завершивши весь жалюгідний епізод.

ChatGPT та інші чат-боти, схожі на нього, привернули велику увагу останніми місяцями завдяки своїй здатності спілкуватися по-людськи та вміло виконувати дедалі більше текстових завдань. Але вони також відомі тим, що вигадують речі та представляють це так, ніби це справжнє. Це настільки поширене, що для нього навіть є термін: «галюцинація».

Ті, хто працює над генеративними інструментами ШІ, досліджують способи зменшення галюцинацій, але до того часу користувачам рекомендується ретельно перевіряти будь-які «факти», які виплюнуть чат-боти.

Рекомендації редакції

  • Google Bard тепер може говорити, але чи може він заглушити ChatGPT?
  • ChatGPT: останні новини, суперечки та поради, які вам потрібно знати
  • Функцію перегляду Bing у ChatGPT вимкнено через помилку платного доступу
  • Згідно з опитуванням, 81% вважають, що ChatGPT становить загрозу безпеці
  • Конкурент Apple ChatGPT може автоматично написати код для вас

Оновіть свій спосіб життяDigital Trends допомагає читачам стежити за динамічним світом технологій завдяки всім останнім новинам, цікавим оглядам продуктів, проникливим редакційним статтям і унікальним у своєму роді коротким оглядам.