Maskinlæringssystem kan oppdage sarkasme og ironi

fransk mann sendt til fengsel for å surfe på terrornettsteder polititerrorisme
Brian A Jackson/Shutterstock
Mennesker har ofte problemer med å skjelne den sanne følelsesmessige følelsen uttrykt av et annet menneske i en tekstmelding, direktemelding, e-post eller innlegg på sosiale medier, så kanskje et datalæringssystem kan hjelp. En informatikkstudent i Israel jobber med akkurat det, og konsekvensene kan nå utover rikene av sosial interaksjon for å filtrere ut støy for terrorbekjempelse og selvmord forebygging.

Eden Saig, en informatikkstudent ved Technion — Israel Institute of Technology har utviklet et maskinlæringssystem for nøyaktig å oppdage og identifisere følelser i elektronisk kommunikasjon, som beskrevet i hans artikkel "Sentiment Classification of Texts in Social Networks", som nylig vant Amdocs Best Project Konkurranse. Nøkkelen til systemet: analysere humoristisk Facebook grupper.

Anbefalte videoer

Han brukte maskinlæringsalgoritmer på mer enn 5000 innlegg på hebraisk-språklige Facebook-sider for «overlegne og nedlatende mennesker» og «vanlige og fornuftige mennesker», siden de hadde innhold som «kunne gi en god database for innsamling homogene data som i sin tur kan hjelpe «lære» et datastyrt læringssystem til å gjenkjenne nedlatende klingende semantikk eller slangord og fraser i tekst,"

sa Saig.

Nøyaktigheten av sentimentidentifikasjon ble forbedret ved å slå sammen søkeordsøk, grammatisk strukturell analyse og antall "likes" et innlegg mottar.

"Nå kan systemet gjenkjenne mønstre som enten er nedlatende eller omsorgsfulle følelser og kan til og med sende en tekstmelding til brukeren hvis systemet mener at innlegget kan være arrogant," ifølge Saig.

Han ser på denne typen maskinlæringssystem som et nyttig verktøy for å hjelpe politiet med å ignorere innlegg på sosiale medier som fleiper om planlegging av terrorangrep og unngå å bruke ressurser til falske alarmer.

Saig ser også en søknad om depresjon, selvmord og nettmobbing. Et maskinlæringssystem kan hjelpe til med å skille mellom vitser og faktiske trusler eller rop om hjelp.

"Jeg håper at jeg til slutt kan utvikle en mekanisme som vil demonstrere for forfatteren hvordan hans eller hennes ord kan være tolket av leserne og dermed hjelpe folk til å uttrykke seg bedre og unngå å bli misforstått, sa Saig.

Redaktørenes anbefalinger

  • A.I. glemmer vanligvis ikke noe, men Facebooks nye system gjør det. Her er hvorfor
  • Dyplæring A.I. hjelper arkeologer med å oversette eldgamle nettbrett
  • Kunstig intelligens kan nå identifisere en fugl bare ved å se på et bilde
  • En læringsskjevhet funnet hos barn kan bidra til å gjøre A.I. teknologi bedre
  • Yakuza-direktøren tror PS5s utvikling vil fokusere på A.I. og maskinlæring

Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.