Неумелото използване на ChatGPT е наложил глоба от 5000 долара на адвокатска кантора в Ню Йорк.
Чувайки толкова много за впечатляващия чатбот на OpenAI, задвижван от изкуствен интелект, адвокатът Стивън Шварц реши да използва за проучване, добавяне на генерирани от ChatGPT цитати на казуси към правна справка, предадена на съдия по-рано този година. Но скоро се оказа, че случаите са били изцяло измислени от чатбота.
Препоръчани видеоклипове
Окръжният съдия на САЩ П. В четвъртък Кевин Кастел нареди на адвокатите Стивън Шварц и Питър Лодука, които поеха случая от негов колега, и тяхната адвокатска кантора Levidow, Levidow & Oberman, да платят глоба от 5000 долара.
Свързани
- Създателят на ChatGPT OpenAI е изправен пред разследване на FTC относно законите за защита на потребителите
- Трафикът на уебсайта на ChatGPT е спаднал за първи път
- Най-добрите AI чатботове за изпробване: ChatGPT, Bard и други
Съдията каза адвокатите са извършили „действия на съзнателно избягване и неверни и подвеждащи изявления пред съда“, добавяйки, че са „изоставили своите отговорности“, като изпрати писмената кратка информация, написана от ИИ, преди да застане на „фалшивите мнения, след като съдебни разпореждания призоваха съществуването им в въпрос.”
Кастел продължи: „Много вреди произтичат от представянето на фалшиви мнения. Противоположната страна губи време и пари за разкриване на измамата. Времето на съда се отнема от други важни начинания.“
Съдията добави, че действието на адвокатите „насърчава цинизъм към адвокатската професия и американската съдебна система“.
Адвокатската кантора в Манхатън заяви, че „с уважение“ не е съгласна със становището на съда, описвайки го като „грешка на добра воля“.
На свързано съдебно заседание по-рано този месец, Шварц каза той искаше „искрено да се извини“ за случилото се, обяснявайки, че смята, че използва търсачка и няма представа, че AI инструментът може да произведе неистини. Той каза, че „съжалява дълбоко“ за действията си“, добавяйки: „Пострадах както професионално, така и лично [заради] широката публичност, която предизвика този проблем. Едновременно съм смутен, унизен и изключително разкаян.”
Инцидентът е свързан със случай, поет от адвокатската кантора, включващ пътник, който съди колумбийската авиокомпания Avianca, след като твърди, че е получил нараняване по време на полет до Ню Йорк.
Avianca помоли съдията да отхвърли делото, така че правният екип на пътника състави кратка информация, цитираща шест подобни случая, в опит да убеди съдията да остави делото на техния клиент да продължи. Шварц откри тези случаи, като попита ChatGPT, но не успя да провери автентичността на резултатите. Правният екип на Avianca вдигна тревога, когато каза, че не може да намери случаите, съдържащи се в кратката информация.
В отделна заповед в четвъртък съдията уважи искането на Avianca да отхвърли делото срещу нея, слагайки край на целия жалък епизод.
ChatGPT и други чатботове като него привлякоха голямо внимание през последните месеци поради способността си да разговарят по човешки начин и умело да изпълняват нарастващ набор от текстови задачи. Но също така са известни с това, че измислят нещата и ги представят така, сякаш са истински. Толкова е разпространено, че дори има термин за него: „халюциниращ“.
Тези, които работят върху генеративните AI инструменти, проучват начини за намаляване на халюцинациите, но дотогава потребителите се съветват внимателно да проверяват всички „факти“, които чатботовете изплюват.
Препоръки на редакторите
- Google Bard вече може да говори, но може ли да заглуши ChatGPT?
- ChatGPT: последните новини, спорове и съвети, които трябва да знаете
- Функцията за сърфиране в Bing на ChatGPT е деактивирана поради грешка в достъпа до платена стена
- 81% смятат, че ChatGPT е риск за сигурността, установи проучване
- Съперникът на Apple ChatGPT може автоматично да напише код вместо вас
Надградете начина си на животDigital Trends помага на читателите да следят забързания свят на технологиите с всички най-нови новини, забавни ревюта на продукти, проницателни редакционни статии и единствени по рода си кратки погледи.