Prawnik przeprasza za fałszywe cytaty sądowe utworzone przez ChatGPT

W ostatnich miesiącach wiele mówiło się o tym, jak nowa fala chatbotów wykorzystujących sztuczną inteligencję, Wśród nich ChatGPT, może wywrócić do góry nogami wiele branż, w tym zawody prawnicze.

Jednakże sądząc po tym, co niedawno wydarzyło się w sprawie w Nowym Jorku, wydaje się, że może minąć trochę czasu, zanim technologia zmieci wysoko wyszkolonych prawników.

Polecane filmy

Ten dziwaczny epizod rozpoczął się, gdy Roberto Mata pozwał kolumbijskie linie lotnicze po tym, jak twierdził, że doznał kontuzji podczas lotu do Nowego Jorku.

Powiązany

  • Czołowi autorzy żądają zapłaty od firm zajmujących się sztuczną inteligencją za korzystanie z ich pracy
  • GPT-4: jak korzystać z chatbota AI, który zawstydza ChatGPT
  • Wix używa ChatGPT, aby pomóc Ci szybko zbudować całą witrynę internetową

Linia lotnicza Avianca zwróciła się do sędziego o oddalenie sprawy, więc zespół prawny Maty sporządził krótkie oświadczenie, w którym powołuje się na pół tuzina podobnych spraw, które miały miejsce w celu przekonania sędziego, aby puścił sprawę ich klienta przystępować, „New York Timesa”. zgłoszone.

Problem polegał na tym, że prawnicy linii lotniczej i sędzia nie byli w stanie znaleźć żadnych dowodów w sprawach wspomnianych w aktach sprawy. Dlaczego? Ponieważ ChatGPT je wszystkie wymyślił.

Twórca briefu, Steven A. Schwartz – bardzo doświadczony prawnik z kancelarii Levidow, Levidow & Oberman – przyznał w oświadczeniu pod przysięgą, że korzystał z bardzo znanego chatbota ChatGPT OpenAI do wyszukiwania podobnych przypadków, ale stwierdził, że „okazał się być niewiarygodne."

Schwartz powiedział sędziemu, że nie korzystał wcześniej z ChatGPT i „dlatego nie był świadomy możliwości, że jego treść może być fałszywa”.

Tworząc brief, Schwartz poprosił nawet ChatGPT o potwierdzenie, że te przypadki naprawdę miały miejsce. Zawsze pomocny chatbot odpowiedział twierdząco, twierdząc, że informacje na ich temat można znaleźć w „renomowanych prawniczych bazach danych”.

Prawnik znajdujący się w centrum burzy powiedział, że „bardzo żałuje” wykorzystania ChatGPT do stworzenia briefu i upierał się, że „nigdy w przyszłości tego nie zrobi bez całkowitej weryfikacji jego autentyczności”.

Patrząc na to, co opisał jako zgłoszenie prawne pełne „fałszywych decyzji sądowych, z fałszywymi cytatami i fałszywymi treściami wewnętrznymi cytowań” i opisując sytuację jako bezprecedensową, sędzia Castel zarządził rozprawę na początek przyszłego miesiąca w celu rozpatrzenia możliwe kary.

ChatGPT i inne chatboty lubią to, choć robią wrażenie w sposobie, w jaki tworzą płynny tekst wysokiej jakości są również znani z wymyślania różnych rzeczy i przedstawiania ich tak, jakby były prawdziwe – czegoś, czego Schwartz się nauczył koszt. Zjawisko to jest znane jako „halucynacje” i stanowi jedno z największych wyzwań stojących przed twórcami chatbotów, którzy starają się zaradzić temu bardzo problematycznemu załamaniu.

W innym niedawnym przykładzie halucynacji generatywnego narzędzia AI, an Burmistrz Australii oskarżył ChatGPT kłamstw na jego temat, w tym o tym, że ponad dziesięć lat temu został skazany za przekupstwo podczas pracy w banku.

Burmistrz Brian Hood był w rzeczywistości sygnalistą w tej sprawie i nigdy nie został oskarżony o popełnienie przestępstwa, więc był raczej zdenerwowany, gdy ludzie zaczęli go informować o przepisaniu historii przez chatbota.

Zalecenia redaktorów

  • Oto dlaczego ludzie uważają, że GPT-4 może z czasem stać się głupszy
  • ChatGPT: najnowsze wiadomości, kontrowersje i wskazówki, które musisz znać
  • Co to jest zachęta DAN dla ChatGPT?
  • Google Bard może teraz mówić, ale czy może zagłuszyć ChatGPT?
  • Twórca ChatGPT, OpenAI, staje przed dochodzeniem FTC w sprawie przepisów dotyczących ochrony konsumentów

Ulepsz swój styl życiaDigital Trends pomaga czytelnikom śledzić szybko rozwijający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zajawkom.