A Zeituntersuchung hat die düsterere Seite der KI-Chatbot-Branche enthüllt und hervorgehoben, wie mindestens ein Startup fragwürdige Praktiken angewendet hat, um seine Technologie zu verbessern.
Der am Mittwoch veröffentlichte Bericht von Time konzentriert sich auf von Microsoft unterstützte OpenAI und sein ChatGPT-Chatbot, eine Technologie, die in letzter Zeit aufgrund ihrer bemerkenswerten Fähigkeit, äußerst natürliche Konversationstexte zu erstellen, große Aufmerksamkeit erregt hat.
Empfohlene Videos
Die Untersuchung von Time ergab, dass OpenAI zum Trainieren der KI-Technologie die Dienste eines Teams in Kenia nutzte, um den Text zu studieren Dazu gehörten beunruhigende Themen wie sexueller Missbrauch von Kindern, Sodomie, Mord, Selbstmord, Folter, Selbstverletzung usw Inzest. Und für ihre Bemühungen, die abscheulichen Inhalte zu kennzeichnen, erhielten viele im Team weniger als 2 US-Dollar pro Stunde.
Verwandt
- Google Bard kann jetzt sprechen, aber kann es ChatGPT übertönen?
- ChatGPT: die neuesten Nachrichten, Kontroversen und Tipps, die Sie wissen müssen
- Das Rekordwachstum von ChatGPT wurde gerade durch eine neue virale App entthront
Die Arbeiten, die im November 2021 begannen, waren notwendig, da der Vorgänger von ChatGPT, GPT-3, zwar beeindruckend war, aber dazu neigte, zu spucken beleidigende Inhalte herauszufiltern, da sein Trainingsdatensatz durch das Herauskratzen von Hunderten Milliarden Wörtern aus allen Ecken der Welt zusammengestellt wurde Netz.
Das in Kenia ansässige Team, das von der Firma Sama aus San Francisco betrieben wird, würde die anstößigen Inhalte als hilfreich kennzeichnen Trainieren Sie den Chatbot von OpenAI, verbessern Sie dadurch seinen Datensatz und verringern Sie die Wahrscheinlichkeit von Unannehmlichkeiten Ausgang.
Time sagte, dass alle vier befragten Sama-Mitarbeiter beschrieben hätten, dass sie durch ihre Arbeit seelische Narben erlitten hätten. Sama bot Beratungsgespräche an, aber die Mitarbeiter sagten, diese seien wirkungslos und hätten aufgrund von selten stattgefunden die Anforderungen des Jobs, obwohl ein Sama-Sprecher gegenüber Time sagte, dass die Therapeuten jederzeit erreichbar seien Zeit.
Ein Arbeiter sagte gegenüber Time, dass sich das Lesen des schockierenden Materials manchmal wie „Folter“ anfühlte, und fügte hinzu, dass er sich am Ende der Woche „gestört“ fühlte.
Im Februar 2022 nahm die Lage für Sama eine noch düsterere Wendung, als OpenAI ein separates Projekt startete, das nichts mit ChatGPT zu tun hatte und bei dem das Team in Kenia Bilder sexueller und gewalttätiger Natur sammeln musste. OpenAI sagte gegenüber Time, dass die Arbeit notwendig sei, um seine KI-Tools sicherer zu machen.
Innerhalb weniger Wochen nach Beginn dieses bildbasierten Projekts veranlasste die alarmierende Art der Aufgaben Sama, alle seine Verträge mit zu kündigen OpenAI, obwohl Time vermutet, dass dies auch durch die PR-Followouts eines von ihm veröffentlichten Berichts zu einem ähnlichen Thema ausgelöst worden sein könnte um Facebook ungefähr zur gleichen Zeit.
Open AI teilte Time mit, dass es „eine Fehlkommunikation“ über die Art der Bilder gegeben habe, um die Sama gebeten wurde sammeln und beharrte darauf, dass es nicht nach den extremsten Bildern gefragt und auch keines gesehen habe, was es gewesen sei gesendet.
Doch die Beendigung der Verträge hatte Auswirkungen auf den Lebensunterhalt der Arbeiter: Einige Mitglieder des Teams in Kenia verloren ihren Arbeitsplatz, während andere in schlechter bezahlte Projekte versetzt wurden.
Die Untersuchung der Zeit bietet einen unbequemen, aber wichtigen Einblick in die Art der Arbeit, die in den KI-gestützten Chatbots steckt, die die Technologiebranche in letzter Zeit so begeistert haben.
Obwohl die Technologie transformativ und potenziell nützlich ist, geht sie eindeutig mit menschlichen Kosten einher und wirft eine Reihe ethischer Fragen zur Vorgehensweise von Unternehmen auf Entwicklung ihrer neuen Technologien und allgemeiner darüber, wie wohlhabendere Länder weiterhin weniger wünschenswerte Aufgaben für geringere finanzielle Mittel an ärmere Länder verlagern Aufwand.
Die Start-ups, die hinter der Technologie stehen, werden in den kommenden Monaten und Jahren genauer unter die Lupe genommen und täten daher gut daran, ihre Praktiken zum frühestmöglichen Zeitpunkt zu überprüfen und zu verbessern.
Digital Trends hat OpenAI um einen Kommentar zum Time-Bericht gebeten und wir werden diesen Artikel aktualisieren, sobald wir etwas hören.
Empfehlungen der Redaktion
- Die besten KI-Videobearbeitungstools
- Der ChatGPT-Hersteller OpenAI steht vor einer FTC-Untersuchung wegen Verbraucherschutzgesetzen
- Elon Musks neues KI-Unternehmen will „das Universum verstehen“
- Der ChatGPT-Website-Verkehr ist zum ersten Mal zurückgegangen
- KI-Durchbrüche könnten über das Gehirn von Bienen erfolgen, sagen Wissenschaftler
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.