Неуклюжее использование ЧатGPT наложил на нью-йоркскую юридическую фирму штраф в размере 5000 долларов.
Услышав так много о впечатляющем чат-боте OpenAI на базе искусственного интеллекта, юрист Стивен Шварц решил использовать это для исследования, добавив цитаты из дел, сгенерированные ChatGPT, в юридическую сводку, переданную судье ранее в этом год. Но вскоре выяснилось, что дела были полностью выдуманы чат-ботом.
Рекомендуемые видео
Окружной судья США П. Кевин Кастель в четверг приказал адвокатам Стивену Шварцу и Питеру ЛоДука, которые взяли на себя дело от его коллеги, и их юридической фирме Levidow, Levidow & Oberman, выплатить штраф в размере 5000 долларов.
Связанный
- Производитель ChatGPT OpenAI столкнулся с расследованием FTC по поводу законов о защите прав потребителей
- Посещаемость сайта ChatGPT впервые упала
- Лучшие чат-боты с искусственным интеллектом: ChatGPT, Bard и другие
Судья сказал адвокаты сделали «акты сознательного уклонения и ложные и вводящие в заблуждение заявления суду», добавив, что они «отказались от своих ответственности», предоставив написанное ИИ краткое изложение, прежде чем поддержать «фальшивые мнения после того, как судебные постановления назвали их существование вопрос."
Кастель продолжение: «Много вреда проистекает из представления ложных мнений. Противоположная сторона тратит время и деньги на разоблачение обмана. Время суда занято другими важными делами».
Судья добавил, что действия адвокатов «способствуют цинизму в отношении адвокатуры и американской судебной системы».
Юридическая фирма Манхэттена заявила, что «уважительно» не согласна с мнением суда, назвав его «добросовестной ошибкой».
На соответствующем судебном заседании в начале этого месяца Шварц сказал он хотел «искренне извиниться» за то, что произошло, объяснив, что думал, что использует поисковую систему, и понятия не имел, что инструмент ИИ может выдавать неправду. Он сказал, что «глубоко сожалеет» о своих действиях», добавив: «Я пострадал как профессионально, так и лично [из-за] широкой огласки, которую вызвала эта проблема. Я одновременно смущен, унижен и глубоко раскаиваюсь».
Инцидент был связан с делом, возбужденным юридической фирмой в отношении пассажира, который подал в суд на колумбийскую авиакомпанию Avianca после того, как заявил, что получил травму во время полета в Нью-Йорк.
Авианка попросил судью закрыть дело, поэтому юридическая команда пассажира составила краткое изложение, в котором упоминаются шесть подобных дел, чтобы убедить судью продолжить рассмотрение дела их клиента. Шварц нашел эти случаи, запросив ChatGPT, но не смог проверить подлинность результатов. Команда юристов Avianca забила тревогу, когда заявила, что не может найти дела, содержащиеся в кратком изложении.
В отдельном постановлении в четверг судья удовлетворил ходатайство Авианки об отклонении иска против нее, завершив весь печальный эпизод.
ChatGPT и другие подобные ему чат-боты в последние месяцы привлекли большое внимание из-за их способности общаться по-человечески и умело выполнять растущий спектр текстовых задач. Но они также известны тем, что выдумывают вещи и представляют их так, как будто это реально. Это настолько распространено, что для него даже есть термин: «галлюцинации».
Те, кто работает над инструментами генеративного ИИ, изучают способы уменьшения галлюцинаций, но до тех пор пользователям рекомендуется тщательно проверять любые «факты», которые выплевывают чат-боты.
Рекомендации редакции
- Google Bard теперь может говорить, но сможет ли он заглушить ChatGPT?
- ChatGPT: последние новости, споры и советы, которые вам нужно знать
- Функция просмотра Bing в ChatGPT отключена из-за уязвимости платного доступа
- 81% считают, что ChatGPT представляет угрозу безопасности, согласно опросу
- Конкурент Apple ChatGPT может автоматически писать код для вас
Обновите свой образ жизниDigital Trends помогает читателям быть в курсе быстро меняющегося мира технологий благодаря всем последним новостям, забавным обзорам продуктов, проницательным редакционным статьям и единственным в своем роде кратким обзорам.