Wie löst man ein Problem wie das Internet? Es ist eine Frage, die, ehrlich gesagt, selbst vor einem Vierteljahrhundert wenig Sinn gemacht hätte. Das Internet mit seiner Fähigkeit, sowohl Informationen als auch demokratische Werte in jeden entlegenen Winkel der Erde zu verbreiten, War die Antwort.
Inhalt
- Eine Stimme für die Stimmlosen
- Betonen Sie das Positive
- Keine einfachen Lösungen
Nach einem Heilmittel für das Internet zu fragen, war so, als würde man nach einem Heilmittel für die Heilung von Krebs fragen. Hier im Jahr 2020 ist das Bild etwas unklarer. Ja, das Internet ist für alles Mögliche erstaunlich brillant. Aber es bringt auch Probleme mit sich Verbreitung von Fake News zu, nun ja, der digitalen Jauchegrube, die jeder YouTube-Kommentarbereich überhaupt ist. Anders ausgedrückt: Das Internet kann allerlei giftig sein. Wie räumen wir es auf?
Hier gibt es keine einfachen Antworten. Ist algorithmische oder menschengesteuerte Zensur die Antwort? Sollten wir alle Kommentarbereiche zu kontroversen Themen schließen? Muss sich eine private Plattform wirklich verpflichtet fühlen, jedem eine Stimme zu geben? Wie passt das Blockieren von Randmeinungen zum Wohle der Allgemeinheit mit dem Traum des Internets zusammen, jedem eine Stimme zu geben?
Verwandt
- Analoge KI? Es klingt verrückt, aber es könnte die Zukunft sein
- Lesen Sie die unheimlich schöne „synthetische Schrift“ einer KI. das denkt, es sei Gott
- Algorithmische Architektur: Sollten wir K.I. Entwerfen Sie Gebäude für uns?
Forscher der Carnegie Mellon University haben ein faszinierendes neues Tool entwickelt, von dem sie glauben, dass es helfen könnte. Dabei handelt es sich um einen Algorithmus der künstlichen Intelligenz, der negative Sprache nicht blockiert, sondern „Hilfesprache“ hervorhebt oder verstärkt, um sie leichter auffindbar zu machen. Dabei hoffen sie, dass es dem cybertopischen Ziel, das Internet besser zu einer Stimme zu machen, um die Stimmlosen zu stärken, zugutekommt.
Empfohlene Videos
Eine Stimme für die Stimmlosen
Die K.I. vom Team entwickelt, von Carnegie Mellon Institut für Sprachtechnologien, durchsucht YouTube-Kommentare und hebt Kommentare hervor, die in diesem Fall entrechtete Minderheiten wie die Rohingya-Gemeinschaft verteidigen oder mit ihnen sympathisieren. Das muslimische Volk der Rohingya ist seit Oktober 2016 einer Reihe weitgehend anhaltender Verfolgungen durch die Regierung Myanmars ausgesetzt. Die Völkermordkrise hat mehr als eine Million Rohingya zur Flucht in Nachbarländer gezwungen. Es ist eine verzweifelte Lage, die mit religiöser Verfolgung und ethnischer Säuberung einhergeht – aber man würde es nicht unbedingt aus den vielen Kommentaren erkennen, die in den lokalen sozialen Medien aufgetaucht sind; Die Anzahl der Kommentare zur anderen Seite des Themas ist überwältigend.
„Wir haben ein Framework entwickelt, um die Sache einer entrechteten Minderheit – in diesem Fall der Rohingya – zu unterstützen, um automatisch Webinhalte zu erkennen, die sie unterstützen.“ Ashique Khudabukhsh, ein Projektwissenschaftler in der Informatikabteilung der Carnegie Mellon, sagte gegenüber Digital Trends. „Wir haben uns auf YouTube konzentriert, eine in Südasien äußerst beliebte Social-Media-Plattform. Unsere Analysen ergaben, dass eine Vielzahl von Kommentaren über die Rohingyas diese herabwürdigend äußerten. Wir haben eine automatisierte Methode entwickelt, um Kommentare zu erkennen, die sich für ihre Sache einsetzen und andernfalls von einer Vielzahl harscher, negativer Kommentare übertönt würden.“
„Aus einer allgemeinen Rahmenperspektive unterscheidet sich unsere Arbeit von der herkömmlichen Arbeit zur Erkennung von Hassreden, bei der der Schwerpunkt im Vordergrund steht geht es darum, negative Inhalte zu blockieren, [obwohl dies] ein aktives und äußerst wichtiges Forschungsgebiet ist“, sagte Khudabukhsh Fortsetzung. „Im Gegensatz dazu markiert unsere Arbeit zur Erkennung unterstützender Kommentare – was wir Hilferede nennen – eine neue Richtung zur Verbesserung des Online-Erlebnisses durch die Verstärkung der positiven Aspekte.“
Um ihre KI zu trainieren Mithilfe des Filtersystems sammelten die Forscher mehr als eine Viertelmillion YouTube-Kommentare. Mithilfe modernster linguistischer Modellierungstechnologie haben sie einen Algorithmus entwickelt, der diese Kommentare durchsuchen kann, um Kommentare, die sich auf die Seite der Rohingya-Gemeinschaft stellen, schnell hervorzuheben. Die automatisierte semantische Analyse von Benutzerkommentaren ist erwartungsgemäß nicht einfach. Allein auf dem indischen Subkontinent gibt es 22 Hauptsprachen. Bei der Beurteilung der Sprache kommt es außerdem häufig zu Rechtschreibfehlern und abweichenden Schreibweisen.
Betonen Sie das Positive
Dennoch ist die K.I. Die vom Team entwickelten Konzepte konnten die Sichtbarkeit positiver Kommentare deutlich erhöhen. Noch wichtiger ist, dass dies weitaus schneller geschehen konnte, als es einem menschlichen Moderator möglich gewesen wäre. Wer wäre nicht in der Lage, große Mengen an Kommentaren manuell in Echtzeit zu durchsuchen und bestimmte anzuheften? Kommentare. Dies könnte besonders wichtig in Szenarien sein, in denen eine Seite möglicherweise nur über begrenzte Kenntnisse in einer dominanten Sprache verfügt und nur begrenzten Zugang dazu hat das Internet oder Themen mit höherer Priorität (sprich: Vermeidung von Verfolgung), die Vorrang vor der Teilnahme an Online-Aktivitäten haben könnten Gespräche.
„Was ist, wenn Sie in einer globalen Diskussion über sich selbst nicht dabei sind und sich nicht verteidigen können?“
„Wir alle haben erlebt, dass wir dieser eine Freund waren, der sich in dessen Abwesenheit für einen anderen Freund einsetzte“, fuhr Khudabukhsh fort. „Betrachten Sie dies nun auf globaler Ebene. Was ist, wenn Sie nicht an einer globalen Diskussion über sich selbst teilnehmen und sich nicht verteidigen können? Wie kann K.I. Hilfe in dieser Situation? Wir bezeichnen dies als ein Problem des 21. Jahrhunderts: Flüchtlingskrisen im Zeitalter des allgegenwärtigen Internets, in dem es nur wenige Stimmen von Flüchtlingen gibt. Für die Zukunft sind wir der Meinung, dass geopolitische, klimatische und ressourcenbedingte Gründe neue Migrantenkrisen auslösen können, und unsere Arbeit zur Verteidigung gefährdeter Gemeinschaften in der Online-Welt ist äußerst wichtig.“
Aber reicht es aus, nur bestimmte Minderheitenstimmen hervorzuheben, oder ist dies lediglich eine algorithmische Version des alle paar Jahre ausgearbeiteten Konzepts, eine Nachrichtenagentur zu gründen, die nur gute Nachrichten verbreitet? Vielleicht in gewisser Weise, aber es geht auch weit über die bloße Hervorhebung symbolischer Kommentare hinaus, ohne Möglichkeiten zur Lösung umfassenderer Probleme anzubieten. Vor diesem Hintergrund haben die Forscher das Projekt bereits erweitert, um Möglichkeiten zu untersuchen, wie K.I. kann verwendet werden, um positive Inhalte auf andere Weise zu verstärken, aber dennoch eine hohe soziale Wirkung zu erzielen Szenarien. Ein Beispiel sind Online-Diskussionen während der zunehmenden politischen Spannungen zwischen Atomgegnern. Diese Arbeit, die das Team im Juni auf der Europäischen Konferenz für Künstliche Intelligenz (ECAI 2020) vorstellen wird, könnte dazu beitragen, feindselige Inhalte zu erkennen und zu präsentieren. Eine ähnliche Technologie könnte für eine Vielzahl anderer Szenarien entwickelt werden – mit jeweils passender Anpassung.
Dies sind die Akzeptanzquoten für #ECAI2020 Beiträge:
– Full-Papers: 26,8 %
– Highlight-Papiere: 45 %Vielen Dank für die Mühe, die Sie in den Bewertungsprozess gesteckt haben!
— ECAI2020 (@ECAI2020) 15. Januar 2020
„Die Grundvoraussetzung, wie einer Gemeinschaft geholfen werden kann, hängt von der jeweiligen Gemeinschaft ab“, sagte Khudabukhsh. „Selbst unterschiedliche Flüchtlingskrisen würden unterschiedliche Vorstellungen von Hilfe erfordern. Beispielsweise kann in Krisensituationen, in denen der Ausbruch ansteckender Krankheiten ein großes Problem darstellt, die Bereitstellung medizinischer Hilfe eine große Hilfe sein. Für einige wirtschaftlich benachteiligte Gruppen könnte es ein Motivationsfaktor sein, Erfolgsgeschichten von Menschen in der Gemeinschaft hervorzuheben. Daher würde jede Community unterschiedliche nuancierte Hilfe-Sprachklassifikatoren benötigen, um positive Inhalte automatisch zu finden. Unsere Arbeit liefert dafür eine Blaupause.“
Keine einfachen Lösungen
So faszinierend diese Arbeit auch ist, es gibt keine einfachen Lösungen, um das Problem der Online-Sprache zu lösen. Ein Teil der Herausforderung besteht darin, dass das Internet in seiner jetzigen Form laute Stimmen belohnt. Der PageRank-Algorithmus von Google beispielsweise ordnet Webseiten nach ihrer wahrgenommenen Wichtigkeit, indem er die Anzahl und Qualität der Links zu einer Seite zählt. Trendthemen auf Twitter werden dadurch bestimmt, worüber die meisten Menschen twittern. In den Kommentarbereichen werden häufig die Meinungen hervorgehoben, die die heftigsten Reaktionen hervorrufen.
Die unvorstellbar große Anzahl an Stimmen im Internet kann abweichende Stimmen übertönen; oft marginalisieren sie Stimmen, die zumindest theoretisch die gleiche Plattform haben wie alle anderen.
Um das zu ändern, bedarf es einer ganzen Menge mehr als nur eines coolen YouTube-Algorithmus zum Durchsuchen von Kommentaren. Es ist jedoch kein schlechter Anfang.
Empfehlungen der Redaktion
- Der letzte Schliff: Wie Wissenschaftler Robotern menschenähnliche Tastsinne verleihen
- Die lustige Formel: Warum maschinengenerierter Humor der heilige Gral der KI ist
- K.I. vergisst normalerweise nichts, aber das neue System von Facebook schon. Hier ist der Grund
- Emotionserfassende KI ist hier, und es könnte in Ihrem nächsten Vorstellungsgespräch sein
- Sprach-Supermodel: Wie GPT-3 still und leise die KI einleitet Revolution