Maschinelles Lernsystem kann Sarkasmus und Ironie erkennen

Franzose wegen Surfens auf terroristischen Websites und Polizeiterrorismus ins Gefängnis geschickt
Brian A. Jackson/Shutterstock
Menschen haben oft Schwierigkeiten, die wahren emotionalen Gefühle zu erkennen, die ein anderer Mensch in einer Person zum Ausdruck bringt Textnachricht, Sofortnachricht, E-Mail oder Social-Media-Beitrag, also vielleicht ein Computer-Lernsystem helfen. Ein Informatikstudent in Israel arbeitet genau daran, und die Konsequenzen könnten darüber hinausgehen die Bereiche der sozialen Interaktion in das Herausfiltern von Lärm für Anti-Terror-Bemühungen und Selbstmord Verhütung.

Eden Saig, ein Informatikstudent am Technion – Israel Institute of Technology, hat ein maschinelles Lernsystem zur genauen Erkennung und Identifizierung entwickelt Emotionen in der elektronischen Kommunikation, wie in seinem Artikel „Sentiment Classification of Texts in Social Networks“ beschrieben, der kürzlich mit dem Amdocs Best Project ausgezeichnet wurde Wettbewerb. Der Schlüssel zum System: humorvolle Analyse Facebook Gruppen.

Empfohlene Videos

Er wandte Algorithmen des maschinellen Lernens an

mehr als 5.000 Beiträge auf hebräischsprachigen Facebook-Seiten mit einem Augenzwinkern für „überlegene und herablassende Menschen“ und „normale und vernünftige Menschen“, da sie über Inhalte verfügten, die „eine gute Datenbank zum Sammeln bieten könnten“. homogene Daten, die wiederum dazu beitragen könnten, einem computergestützten Lernsystem beizubringen, herablassend klingende Semantik oder umgangssprachliche Wörter und Phrasen zu erkennen Text," Sagte Saig.

Die Genauigkeit der Stimmungserkennung wurde durch die Zusammenführung von Stichwortsuchen, grammatikalischer Strukturanalyse und der Anzahl der „Likes“, die ein Beitrag erhält, verbessert.

„Jetzt kann das System herablassende oder fürsorgliche Muster erkennen und dem Benutzer sogar eine Textnachricht senden, wenn das System den Beitrag für arrogant hält.“ laut Saig.

Er sieht ein solches maschinelles Lernsystem als hilfreiches Werkzeug, um der Polizei dabei zu helfen, Social-Media-Beiträge zu ignorieren, in denen Witze über die Planung von Terroranschlägen gemacht werden, und um zu vermeiden, dass Ressourcen für Fehlalarme verwendet werden.

Saig sieht auch einen Anwendungsfall bei Depressionen, Selbstmord und Cybermobbing. Ein maschinelles Lernsystem könnte helfen, zwischen Witzen und tatsächlichen Drohungen oder Hilferufen zu unterscheiden.

„Ich hoffe, dass ich letztendlich einen Mechanismus entwickeln kann, der dem Autor zeigt, wie seine oder ihre Worte sein könnten von den Lesern interpretiert werden und so den Menschen helfen, sich besser auszudrücken und Missverständnisse zu vermeiden“, sagte Saig.

Empfehlungen der Redaktion

  • K.I. vergisst normalerweise nichts, aber das neue System von Facebook schon. Hier ist der Grund
  • Deep-Learning-K.I. hilft Archäologen bei der Übersetzung antiker Tafeln
  • Künstliche Intelligenz kann einen Vogel nun anhand eines Fotos identifizieren
  • Eine bei Kindern festgestellte Lernvoreingenommenheit könnte dazu beitragen, dass K.I. Technologie besser
  • Yakuza-Direktor glaubt, dass sich die Weiterentwicklung der PS5 auf KI konzentrieren wird. und maschinelles Lernen

Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.