Von einem Video eines Selbstmordopfers auf YouTube zu Anzeigen, die auf „Judenhasser“ abzielen An Facebook, Social-Media-Plattformen werden von unangemessenen Inhalten geplagt, die durchs Raster fallen. In vielen Fällen reagiert die Plattform mit der Implementierung intelligenterer Algorithmen, um unangemessene Inhalte besser zu identifizieren. Doch was kann künstliche Intelligenz wirklich fangen, wie sehr sollte man ihr vertrauen und wo versagt sie kläglich?
„K.I. kann anstößige Sprache aufschnappen und Bilder sehr gut erkennen. „Die Fähigkeit, das Bild zu identifizieren, ist da“, sagt Winston Binch, Chief Digital Officer von
Deutsch, eine Kreativagentur, die K.I. einsetzt. bei der Erstellung digitaler Kampagnen für Marken von Target bis Taco Bell. „Die Grauzone wird zur Absicht.“K.I. kann sowohl Text als auch Bilder lesen, die Genauigkeit variiert jedoch
Mithilfe der Verarbeitung natürlicher Sprache kann K.I. kann darauf trainiert werden, Text in mehreren Sprachen zu erkennen. Ein Programm, das beispielsweise Beiträge erkennen soll, die gegen Community-Richtlinien verstoßen, kann darauf trainiert werden, rassistische Beleidigungen oder Begriffe im Zusammenhang mit extremistischer Propaganda zu erkennen.
K.I. kann auch darauf trainiert werden, Bilder zu erkennen, bestimmte Formen von Nacktheit zu verhindern oder Symbole wie das Hakenkreuz zu erkennen. In vielen Fällen funktioniert es gut, aber es ist nicht narrensicher. Beispielsweise wurde Google Fotos dafür kritisiert, Bilder von dunkelhäutigen Menschen mit dem Schlagwort zu versehen "Gorilla." Jahre später hat Google immer noch keine Lösung für das Problem gefunden und sich stattdessen für die Entfernung entschieden Die Die Fähigkeit des Programms, Affen und Gorillas zu markieren vollständig.
Algorithmen müssen auch aktualisiert werden, wenn sich die Bedeutung eines Wortes weiterentwickelt oder um zu verstehen, wie ein Wort im Kontext verwendet wird. Beispielsweise bemerkten LGBT-Twitter-Nutzer kürzlich, dass es unter anderem für #gay und #bisexual keine Suchergebnisse gab, was einige zu dem Gefühl veranlasste, dass der Dienst sie zensierte. Twitter entschuldigte sich für den Fehler und gab ihm die Schuld ein veralteter Algorithmus Dadurch wurden Beiträge, die mit den Begriffen gekennzeichnet waren, fälschlicherweise als potenziell anstößig identifiziert. Twitter sagte, sein Algorithmus hätte den Begriff im Kontext des Beitrags berücksichtigen sollen, habe dies jedoch bei diesen Schlüsselwörtern nicht getan.
K.I. ist voreingenommen
Das Scheitern der Gorilla-Kennzeichnung wirft ein weiteres wichtiges Manko auf: K.I. ist voreingenommen. Sie fragen sich vielleicht, wie ein Computer möglicherweise voreingenommen sein könnte, aber K.I. wird trainiert, indem man Menschen dabei zusieht, wie sie Aufgaben erledigen, oder indem man die Ergebnisse dieser Aufgaben eingibt. Beispielsweise werden Programme zum Identifizieren von Objekten in einem Foto häufig trainiert, indem dem System Tausende von Bildern zugeführt werden, die ursprünglich manuell markiert wurden.
Das menschliche Element macht es der KI möglich. Aufgaben zu erledigen, verleiht ihm aber gleichzeitig eine menschliche Voreingenommenheit.
Das menschliche Element macht es der KI möglich. Aufgaben zu erledigen, die mit typischer Software bisher nicht möglich waren, aber das gleiche menschliche Element verleiht einem Computer unbeabsichtigt auch eine menschliche Voreingenommenheit. Eine K.I. Das Programm ist nur so gut wie die Trainingsdaten. Wenn das System beispielsweise hauptsächlich mit Bildern weißer Männer gefüttert wurde, wird das Programm Schwierigkeiten haben, Personen mit anderen Hauttönen zu identifizieren.
„Ein Manko der KI im Allgemeinen, wenn es darum geht, alles zu moderieren, von Kommentaren bis hin zu Benutzern Der Inhalt besteht darin, dass er von Natur aus eine Meinung hat“, sagte PJ Ahlberg, technischer Leiter Regisseur von Stink Studios New York, eine Agentur, die K.I. einsetzt. für die Erstellung von Social-Media-Bots und die Moderation von Markenkampagnen.
Sobald ein Trainingssatz entwickelt ist, werden diese Daten oft unter den Entwicklern geteilt, was bedeutet, dass sich die Verzerrung auf mehrere Programme ausbreitet. Laut Ahlberg bedeutet dieser Faktor, dass Entwickler diese Datensätze in Programmen, die mehrere KI-Funktionen verwenden, nicht ändern können. Systeme, was es schwierig macht, etwaige Vorurteile nach ihrer Entdeckung zu beseitigen.
K.I. Absicht kann nicht festgestellt werden
K.I. kann ein Hakenkreuz auf einem Foto erkennen – die Software kann jedoch nicht feststellen, wie es verwendet wird. Facebook beispielsweise hat sich kürzlich danach entschuldigt Entfernen eines Beitrags, der ein Hakenkreuz enthielt wurde jedoch von einem Text mit der Bitte begleitet, die Verbreitung von Hass zu stoppen.
Dies ist ein Beispiel für das Scheitern der KI. Absicht erkennen. Facebook hat sogar ein Bild davon getaggt die Statue von Neptun als sexuell explizit. Darüber hinaus können Algorithmen fotojournalistische Arbeiten unbeabsichtigt kennzeichnen, weil in den Bildern möglicherweise Hasssymbole oder Gewalt auftauchen.
Ein weiteres Beispiel sind historische Bilder, die zu Bildungszwecken geteilt wurden – im Jahr 2016 löste Facebook daraufhin eine Kontroverse aus Das historische „Napalm-Girl“-Foto wurde entfernt mehrmals, bevor der Druck der Nutzer das Unternehmen dazu zwang, seine harte Haltung gegenüber Nacktheit zu ändern und das Foto wieder einzuführen.
K.I. Dient in der Regel einer ersten Überprüfung, es sind jedoch häufig noch menschliche Moderatoren erforderlich, um festzustellen, ob der Inhalt tatsächlich gegen Community-Standards verstößt. Trotz Verbesserungen der KI ändert sich daran nichts. Facebook beispielsweise erhöht die Größe seines Bewertungsteams in diesem Jahr auf 20.000, doppelt so viele wie im Vorjahr.
K.I. hilft Menschen, schneller zu arbeiten
Möglicherweise ist immer noch ein menschliches Gehirn erforderlich, aber K.I. hat den Prozess effizienter gemacht. K.I. kann dabei helfen, festzustellen, welche Beiträge eine menschliche Überprüfung erfordern, und diese Beiträge zu priorisieren. Im Jahr 2017 teilte Facebook dies mit K.I. Entwickelt, um suizidale Tendenzen zu erkennen hatte in einem Monat zu 100 Notrufen geführt. Zu der Zeit,
Getty Images/Blackzheep
„[K.I. hat einen langen Weg zurückgelegt und macht definitiv Fortschritte, aber die Realität ist, dass Sie immer noch dringend ein menschliches Element zur Überprüfung benötigen dass Sie die richtigen Worte, den richtigen Inhalt und die richtige Botschaft ändern“, sagte Chris Mele, Geschäftsführer von Stink Studios. „Wo es sich anfühlt, als wäre K.I. Was am besten funktioniert, besteht darin, menschliche Moderatoren zu unterstützen und ihnen zu helfen, schneller und in größerem Maßstab zu arbeiten. Ich glaube nicht, dass K.I. ist auf jeder Plattform nahezu zu 100 Prozent automatisiert.“
K.I. ist schnell, aber die Ethik ist langsam
Die Technologie wächst im Allgemeinen schneller, als Gesetze und Ethik mithalten können – und die Moderation in sozialen Medien bildet da keine Ausnahme. Binch vermutet, dass dieser Faktor zu einer erhöhten Nachfrage nach Mitarbeitern mit einem geisteswissenschaftlichen oder ethischen Hintergrund führen könnte, über den die meisten Programmierer nicht verfügen.
Wie er es ausdrückte: „Wir sind jetzt an einem Punkt angelangt, an dem das Tempo und die Geschwindigkeit so hoch ist, dass wir sicherstellen müssen, dass die ethische Komponente nicht zu weit zurückbleibt.“
Empfehlungen der Redaktion
- Wenn Urheberrechte es schwierig machen, Video-Soundtracks zu finden, ist diese K.I. Musiker kann helfen
- Von 8K bis hin zu KI – das könnte 2019 bei Kameras der Fall sein
- Computer werden uns bald überlisten. Macht das eine K.I. Rebellion unvermeidlich?