Machine learning-systeem kan sarcasme en ironie detecteren

Fransman naar gevangenis gestuurd wegens surfen op terroristische websites, politieterrorisme
Brian A Jackson/Shutterstock
Mensen hebben vaak moeite om het ware emotionele sentiment te onderscheiden dat door een ander mens wordt uitgedrukt sms, expresbericht, e-mail of bericht op sociale media, dus misschien kan een computerleersysteem dat wel hulp. Een student computerwetenschappen in Israël werkt precies daaraan, en de gevolgen kunnen verder reiken de gebieden van sociale interactie in het filteren van lawaai voor inspanningen op het gebied van terrorismebestrijding en zelfmoord preventie.

Eden Saig, een student computerwetenschappen aan het Technion – Israel Institute of Technology, heeft een machinaal leersysteem ontwikkeld om nauwkeurig te detecteren en identificeren emoties in elektronische communicatie, zoals beschreven in zijn artikel ‘Sentiment Classification of Texts in Social Networks’, dat onlangs het Amdocs Best Project won Wedstrijd. De sleutel tot het systeem: humoristisch analyseren Facebook groepen.

Aanbevolen video's

Hij paste machine learning-algoritmen toe meer dan 5.000 berichten op ironische Hebreeuwstalige Facebook-pagina's

voor ‘superieure en neerbuigende mensen’ en ‘gewone en verstandige mensen’, omdat ze inhoud hadden die ‘een goede database kon bieden voor het verzamelen homogene gegevens die op hun beurt zouden kunnen helpen een geautomatiseerd leersysteem te ‘leren’ betutteling klinkende semantiek of jargonwoorden en zinsneden te herkennen in tekst," zei Saig.

De nauwkeurigheid van de sentimentidentificatie is verbeterd door zoekopdrachten op trefwoorden, grammaticale structurele analyse en het aantal ‘likes’ dat een bericht ontvangt samen te voegen.

“Nu kan het systeem patronen herkennen die neerbuigend of zorgzaam zijn en kan het zelfs een sms-bericht naar de gebruiker sturen als het systeem denkt dat de post misschien arrogant is,” volgens Saig.

Hij ziet dit soort machine learning-systemen als een nuttig hulpmiddel om de politie te helpen posts op sociale media te negeren die grappen maken over het plannen van terroristische aanslagen en om het gebruik van middelen voor vals alarm te vermijden.

Saig ziet ook een toepassing voor depressie, zelfmoord en cyberpesten. Een machine learning-systeem zou kunnen helpen onderscheid te maken tussen grappen en daadwerkelijke bedreigingen of hulpkreten.

“Ik hoop dat ik uiteindelijk een mechanisme kan ontwikkelen dat de schrijver laat zien hoe zijn of haar woorden kunnen zijn geïnterpreteerd door lezers, waardoor mensen zich beter kunnen uiten en kunnen voorkomen dat ze verkeerd worden begrepen”, aldus Saig.

Aanbevelingen van de redactie

  • AI normaal gesproken niets vergeet, maar het nieuwe systeem van Facebook wel. Dit is waarom
  • Diep lerende AI helpt archeologen met het vertalen van oude tabletten
  • Kunstmatige intelligentie kan nu een vogel identificeren door alleen maar naar een foto te kijken
  • Een leervooroordeel bij kinderen zou ervoor kunnen zorgen dat A.I. technologie beter
  • Yakuza-regisseur denkt dat de evolutie van PS5 zich zal concentreren op AI. en machinaal leren

Upgrade uw levensstijlMet Digital Trends kunnen lezers de snelle technische wereld in de gaten houden met het laatste nieuws, leuke productrecensies, inzichtelijke redactionele artikelen en unieke sneak peeks.