В последние месяцы было много разговоров о том, как новая волна чат-ботов на базе искусственного интеллекта, ChatGPT среди них, может перевернуть многие отрасли, включая юридическую профессию.
Однако, судя по тому, что недавно произошло в деле в Нью-Йорке, похоже, что пройдет некоторое время, прежде чем высококвалифицированные юристы будут оттеснены этой технологией.
Рекомендуемые видео
Странный эпизод начался, когда Роберто Мата подал в суд на колумбийскую авиакомпанию, заявив, что получил травму во время полета в Нью-Йорк.
Связанный
- Ведущие авторы требуют от компаний, занимающихся искусственным интеллектом, оплату за использование их работ
- GPT-4: как использовать чат-бота с искусственным интеллектом, который посрамляет ChatGPT
- Wix использует ChatGPT, чтобы помочь вам быстро создать целый веб-сайт.
Авиакомпания Avianca попросила судью прекратить дело, поэтому команда юристов Маты составила заключение со ссылкой на полдюжины подобных случаев, которые произошли в попытке убедить судью оставить дело своего клиента продолжить, Нью-Йорк Таймс сообщил.
Проблема заключалась в том, что юристы авиакомпании и судья не смогли найти никаких доказательств по делам, упомянутым в записке. Почему? Потому что ChatGPT их все выдумал.
Создатель краткого обзора Стивен А. Шварц — очень опытный юрист фирмы «Левидоу, Левидоу и Оберман» — признался в письменных показаниях, что он использовал Широко известный чат-бот OpenAI ChatGPT для поиска подобных случаев, но сказал, что он «показал себя ненадежный».
Шварц сказал судье, что раньше не использовал ChatGPT и «поэтому не знал о возможности того, что его контент может быть ложным».
При составлении обзора Шварц даже попросил ChatGPT подтвердить, что случаи действительно имели место. Всегда готовый помочь чат-бот ответил утвердительно, заявив, что информацию о них можно найти в «авторитетных юридических базах данных».
Юрист, оказавшийся в центре бури, заявил, что «очень сожалеет» об использовании ChatGPT для создания брифа, и настаивал, что «никогда не будет делать этого в будущем без абсолютной проверки его подлинности».
Глядя на то, что он назвал юридическим представлением, полным «фиктивных судебных решений, с фиктивными цитатами и фиктивными внутренними цитат» и назвав ситуацию беспрецедентной, судья Кастель назначил слушание на начало следующего месяца для рассмотрения возможные штрафы.
ChatGPT и другие чат-боты впечатляют тем, как создают плавный текст высокого качества. также известны тем, что выдумывают всякую ерунду и представляют ее так, как будто она реальна — этому Шварц научился у своих расходы. Это явление известно как «галлюцинации» и является одной из самых больших проблем, с которыми сталкиваются разработчики чат-ботов, стремящиеся сгладить эту очень проблемную ситуацию.
В другом недавнем примере галлюцинаций генеративного инструмента ИИ: Мэр Австралии обвинил ChatGPT в создании лжи о нем, в том числе о том, что он был заключен в тюрьму за взяточничество, когда работал в банке более десяти лет назад.
Мэр Брайан Худ на самом деле был осведомителем по этому делу, и ему никогда не было предъявлено обвинение в совершении преступления, поэтому он был весьма расстроен, когда люди начали сообщать ему о переписывании истории чат-ботом.
Рекомендации редакции
- Вот почему люди думают, что GPT-4 со временем может стать тупее
- ChatGPT: последние новости, противоречия и советы, которые вам нужно знать
- Что такое запрос DAN для ChatGPT?
- Google Bard теперь может говорить, но сможет ли он заглушить ChatGPT?
- Производитель ChatGPT OpenAI сталкивается с расследованием Федеральной торговой комиссии по поводу законов о защите прав потребителей
Обновите свой образ жизниDigital Trends помогает читателям быть в курсе быстро меняющегося мира технологий благодаря всем последним новостям, забавным обзорам продуктов, содержательным редакционным статьям и уникальным кратким обзорам.