Il sistema di apprendimento automatico può rilevare sarcasmo e ironia

francese mandato in prigione per aver navigato su siti terroristici terrorismo della polizia
Brian A Jackson/Shutterstock
Gli esseri umani spesso hanno difficoltà a discernere il vero sentimento emotivo espresso da un altro essere umano in a messaggio di testo, messaggio istantaneo, e-mail o post sui social media, quindi forse un sistema di apprendimento informatico può farlo aiuto. Uno studente di informatica in Israele sta lavorando esattamente su questo, e le conseguenze potrebbero andare oltre i regni dell’interazione sociale nel filtrare il rumore per gli sforzi antiterrorismo e il suicidio prevenzione.

Eden Saig, uno studente di informatica presso il Technion - Israel Institute of Technology, ha sviluppato un sistema di apprendimento automatico per rilevare e identificare con precisione emozioni nelle comunicazioni elettroniche, come dettagliato nel suo articolo “Sentiment Classification of Texts in Social Networks”, che ha recentemente vinto il premio Amdocs Best Project Concorso. La chiave del sistema: l'analisi umoristica Facebook gruppi.

Video consigliati

Ha applicato algoritmi di apprendimento automatico

più di 5.000 post sulle ironiche pagine Facebook in lingua ebraica per “persone superiori e condiscendenti” e “persone comuni e sensibili”, poiché avevano contenuti che “potrebbero fornire un buon database per la raccolta dati omogenei che potrebbero, a loro volta, aiutare a “insegnare” a un sistema di apprendimento computerizzato a riconoscere una semantica dal suono condiscendente o parole e frasi gergali in testo," Saig ha detto.

L'accuratezza dell'identificazione dei sentimenti è stata migliorata unendo le ricerche di parole chiave, l'analisi strutturale grammaticale e il numero di "Mi piace" ricevuti da un post.

"Ora, il sistema è in grado di riconoscere modelli di sentimenti condiscendenti o premurosi e può persino inviare un messaggio di testo all'utente se ritiene che il post possa essere arrogante", secondo Saig.

Vede questo tipo di sistema di apprendimento automatico come uno strumento utile per aiutare la polizia a ignorare i post sui social media che scherzano sulla pianificazione di attacchi terroristici ed evitare di utilizzare risorse per falsi allarmi.

Saig vede anche un'applicazione per la depressione, il suicidio e il cyberbullismo. Un sistema di apprendimento automatico potrebbe aiutare a distinguere tra battute e minacce reali o richieste di aiuto.

“Spero che alla fine riuscirò a sviluppare un meccanismo che dimostri allo scrittore come potrebbero essere le sue parole interpretato dai lettori, aiutando così le persone a esprimersi meglio ed evitare di essere fraintese", ha detto Saig.

Raccomandazioni degli editori

  • A.I. di solito non dimentica nulla, ma il nuovo sistema di Facebook lo fa. Ecco perché
  • IA con apprendimento profondo sta aiutando gli archeologi a tradurre antiche tavolette
  • L’intelligenza artificiale ora può identificare un uccello semplicemente guardando una foto
  • Un bias di apprendimento riscontrato nei bambini potrebbe aiutare a rendere l’A.I. tecnologia migliore
  • Il direttore di Yakuza ritiene che l'evoluzione di PS5 si concentrerà sull'A.I. e apprendimento automatico

Migliora il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, divertenti recensioni di prodotti, editoriali approfonditi e anteprime uniche nel loro genere.