Адвокат извинился за фальшивые судебные цитаты, созданные ChatGPT

В последние месяцы было много разговоров о том, как новая волна чат-ботов на базе искусственного интеллекта, ChatGPT среди них, может перевернуть многие отрасли, включая юридическую профессию.

Однако, судя по тому, что недавно произошло в деле в Нью-Йорке, похоже, что пройдет некоторое время, прежде чем высококвалифицированные юристы будут оттеснены этой технологией.

Рекомендуемые видео

Странный эпизод начался, когда Роберто Мата подал в суд на колумбийскую авиакомпанию, заявив, что получил травму во время полета в Нью-Йорк.

Связанный

  • Ведущие авторы требуют от компаний, занимающихся искусственным интеллектом, оплату за использование их работ
  • GPT-4: как использовать чат-бота с искусственным интеллектом, который посрамляет ChatGPT
  • Wix использует ChatGPT, чтобы помочь вам быстро создать целый веб-сайт.

Авиакомпания Avianca попросила судью прекратить дело, поэтому команда юристов Маты составила заключение со ссылкой на полдюжины подобных случаев, которые произошли в попытке убедить судью оставить дело своего клиента продолжить, Нью-Йорк Таймс сообщил.

Проблема заключалась в том, что юристы авиакомпании и судья не смогли найти никаких доказательств по делам, упомянутым в записке. Почему? Потому что ChatGPT их все выдумал.

Создатель краткого обзора Стивен А. Шварц — очень опытный юрист фирмы «Левидоу, Левидоу и Оберман» — признался в письменных показаниях, что он использовал Широко известный чат-бот OpenAI ChatGPT для поиска подобных случаев, но сказал, что он «показал себя ненадежный».

Шварц сказал судье, что раньше не использовал ChatGPT и «поэтому не знал о возможности того, что его контент может быть ложным».

При составлении обзора Шварц даже попросил ChatGPT подтвердить, что случаи действительно имели место. Всегда готовый помочь чат-бот ответил утвердительно, заявив, что информацию о них можно найти в «авторитетных юридических базах данных».

Юрист, оказавшийся в центре бури, заявил, что «очень сожалеет» об использовании ChatGPT для создания брифа, и настаивал, что «никогда не будет делать этого в будущем без абсолютной проверки его подлинности».

Глядя на то, что он назвал юридическим представлением, полным «фиктивных судебных решений, с фиктивными цитатами и фиктивными внутренними цитат» и назвав ситуацию беспрецедентной, судья Кастель назначил слушание на начало следующего месяца для рассмотрения возможные штрафы.

ChatGPT и другие чат-боты впечатляют тем, как создают плавный текст высокого качества. также известны тем, что выдумывают всякую ерунду и представляют ее так, как будто она реальна — этому Шварц научился у своих расходы. Это явление известно как «галлюцинации» и является одной из самых больших проблем, с которыми сталкиваются разработчики чат-ботов, стремящиеся сгладить эту очень проблемную ситуацию.

В другом недавнем примере галлюцинаций генеративного инструмента ИИ: Мэр Австралии обвинил ChatGPT в создании лжи о нем, в том числе о том, что он был заключен в тюрьму за взяточничество, когда работал в банке более десяти лет назад.

Мэр Брайан Худ на самом деле был осведомителем по этому делу, и ему никогда не было предъявлено обвинение в совершении преступления, поэтому он был весьма расстроен, когда люди начали сообщать ему о переписывании истории чат-ботом.

Рекомендации редакции

  • Вот почему люди думают, что GPT-4 со временем может стать тупее
  • ChatGPT: последние новости, противоречия и советы, которые вам нужно знать
  • Что такое запрос DAN для ChatGPT?
  • Google Bard теперь может говорить, но сможет ли он заглушить ChatGPT?
  • Производитель ChatGPT OpenAI сталкивается с расследованием Федеральной торговой комиссии по поводу законов о защите прав потребителей

Обновите свой образ жизниDigital Trends помогает читателям быть в курсе быстро меняющегося мира технологий благодаря всем последним новостям, забавным обзорам продуктов, содержательным редакционным статьям и уникальным кратким обзорам.

Категории

Недавний