Bis vor Kurzem mussten wir mit Computern zu ihren eigenen Bedingungen interagieren. Um sie nutzen zu können, mussten Menschen Eingaben erlernen, die für den Computer verständlich waren: sei es das Eingeben von Befehlen oder das Anklicken von Symbolen mit der Maus. Aber die Dinge ändern sich. Der Aufstieg der KI Sprachassistenten wie Siri und Alexa ermöglichen es Maschinen, Menschen so zu verstehen, wie sie normalerweise in der realen Welt interagieren würden. Jetzt greifen Forscher nach dem nächsten Heiligen Gral: Computern, die Emotionen verstehen können.
Inhalt
- Emotionen sind wichtig
- Zukünftige Herausforderungen?
Ob Arnold Schwarzeneggers T-1000-Roboter Terminator 2 oder Daten, die Android Charakter in Star Trek: Die nächste Generation, die Unfähigkeit von Maschinen, menschliche Emotionen zu verstehen und richtig darauf zu reagieren, ist seit langem ein weit verbreitetes Science-Fiction-Thema. Untersuchungen aus der Praxis zeigen jedoch, dass maschinelle Lernalgorithmen tatsächlich beeindruckend gut darin werden, die körperlichen Signale zu erkennen, die wir nutzen, um darauf hinzuweisen, wie wir uns innerlich fühlen. Und es könnte zu völlig neuen Grenzen der Mensch-Maschine-Interaktionen führen.
Verstehen Sie uns nicht falsch: Maschinen sind noch nicht so scharfsinnig wie ein Durchschnittsmensch, wenn es darum geht, die verschiedenen Arten zu erkennen, wie wir Emotionen ausdrücken. Aber sie werden viel besser. In einem aktuellen Test, der von Forschern der Dublin City University, des University College London, der Universität Bremen und des Queen’s durchgeführt wurde An der Universität Belfast wurde eine Kombination aus Menschen und Algorithmen gebeten, eine Reihe von Emotionen anhand der menschlichen Gesichtszüge zu erkennen Ausdrücke.
Verwandt
- Emotionserfassende KI ist hier, und es könnte in Ihrem nächsten Vorstellungsgespräch sein
- Wissenschaftler nutzen K.I. künstlichen menschlichen genetischen Code zu erstellen
- Ich traf die künstlichen Menschen von Samsung und sie zeigten mir die Zukunft der KI.
Zu den Emotionen gehörten Glück, Traurigkeit, Wut, Überraschung, Angst und Ekel. Während Menschen Maschinen insgesamt immer noch übertrafen (mit einer Genauigkeit von durchschnittlich 73 %, verglichen mit 49 % bis 62 % Je nach Algorithmus zeigten die erzielten Ergebnisse der verschiedenen getesteten Bots, wie weit sie dabei gekommen sind betrachten. Am eindrucksvollsten war, dass Glück und Traurigkeit zwei Emotionen waren, bei denen Maschinen den Menschen beim Erraten übertreffen können, indem sie einfach in Gesichter schauen. Das ist ein bedeutender Meilenstein.
Empfohlene Videos
Emotionen sind wichtig
Forscher sind seit langem daran interessiert herauszufinden, ob Maschinen Emotionen anhand von Standbildern oder Videoaufnahmen erkennen können. Doch erst seit relativ kurzer Zeit sind eine Reihe von Start-ups aus dem Boden geschossen Nehmen Sie diese Technologie in den Mainstream. Die aktuelle Studie testete kommerzielle Gesichtserkennungsmaschinen-Klassifikatoren, die von Affectiva entwickelt wurden. CrowdEmotion, FaceVideo, Emotient, Microsoft, MorphCast, Neurodatalab, VicarVision und VisageTechnologies. Sie alle sind führend auf dem wachsenden Gebiet des Affective Computing, also dem Unterrichten von Computern, Emotionen zu erkennen.
Der Test wurde an 938 Videos durchgeführt, darunter sowohl gestellte als auch spontane emotionale Darstellungen. Die Wahrscheinlichkeit einer korrekten zufälligen Schätzung durch den Algorithmus für die sechs Emotionstypen läge bei etwa 16 %.
Damien Dupré, Assistenzprofessor an der DCU Business School der Dublin City University, sagte gegenüber Digital Trends, dass die Arbeit ist wichtig, weil sie zu einer Zeit kommt, in der die Technologie zur Emotionserkennung immer zuverlässiger wird auf.
„Da maschinelle Lernsysteme immer einfacher zu entwickeln sind, stellen viele Unternehmen mittlerweile Systeme für andere Unternehmen bereit: hauptsächlich Marketing- und Automobilunternehmen“, sagte Dupré. „Während ein Fehler bei der Emotionserkennung für die akademische Forschung meistens darin besteht, harmlos sind, stehen die Einsätze anders, wenn ein Emotionserkennungssystem in ein selbstfahrendes Auto implantiert wird, z Beispiel. Deshalb wollten wir die Ergebnisse verschiedener Systeme vergleichen.“
Es könnte eines Tages verwendet werden, um Dinge wie Schläfrigkeit oder Wut im Straßenverkehr zu erkennen, die dazu führen könnten, dass ein halbautonomes Auto das Steuer übernimmt.
Die Idee, ein Auto mithilfe einer emotionsgesteuerten Gesichtserkennung zu steuern, klingt ehrlich gesagt erschreckend – vor allem, wenn man zu den Menschen gehört, die im Straßenverkehr zu emotionalen Ausbrüchen neigen. Glücklicherweise wird es nicht genau so verwendet. Beispielsweise hat das Emotionserkennungsunternehmen Affectiva den Einsatz von Kameras im Auto untersucht Identifizieren Sie Emotionen bei Fahrern. Es könnte eines Tages dazu verwendet werden, Dinge wie Schläfrigkeit oder Wut auf der Straße zu erkennen, was dazu führen könnte, dass ein halbautonomes Auto das Steuer übernimmt, wenn ein Fahrer als nicht fahrtauglich erachtet wird.
Forscher der University of Texas in Austin haben unterdessen eine Technologie entwickelt, die eine „ultra-persönliche“ Musik-Playlist kuratiert, die sich an die wechselnden Stimmungen jedes Benutzers anpasst. Ein Artikel mit dem Titel „Die richtige Musik zur richtigen Zeit: Adaptive personalisierte Wiedergabelisten basierend auf Sequenzmodellierung“ beschrieb die Arbeit diesen Monat veröffentlicht in der Zeitschrift MIS Quarterly. Darin wird die Verwendung einer Emotionsanalyse beschrieben, die nicht nur vorhersagt, welche Songs den Benutzern aufgrund ihrer Stimmung gefallen, sondern auch, in welcher Reihenfolge sie am besten abgespielt werden können.
Es gibt auch andere potenzielle Anwendungen für die Emotionserkennungstechnologie. Amazon hat beispielsweise vor kurzem damit begonnen, die Emotionsverfolgung von Stimmen für seine Produkte zu integrieren Alexa Assistent; Erlaubt der K.I. Zu Erkennen Sie, wenn ein Benutzer Frustration zeigt. Im weiteren Verlauf besteht die Möglichkeit, dass dies sogar zu vollständig emotional reagierenden künstlichen Agenten wie diesem führen könnte Spike Jonzes Film aus dem Jahr 2013 Ihr.
In der jüngsten Arbeit zur bildbasierten Emotionsanalyse basiert die Emotionswahrnehmung auf Bildern. Wie einige dieser Abbildungen zeigen, gibt es jedoch auch andere Möglichkeiten, wie Maschinen die richtige Emotion zur richtigen Zeit „erschnüffeln“ können.
„Wenn Gesichtsinformationen aus irgendeinem Grund nicht verfügbar sind, können wir die Stimmbetonung analysieren oder uns die Gesten ansehen.“
„Menschen generieren zu jedem Zeitpunkt eine Menge nonverbaler und physiologischer Daten“, sagte George Pliev, Gründer und geschäftsführender Gesellschafter von Neurodatenlabor, eines der Unternehmen, deren Algorithmen für die Gesichtserkennungsstudie getestet wurden. „Neben der Mimik gibt es Stimme, Sprache, Körperbewegungen, Herzfrequenz und Atemfrequenz. Ein multimodaler Ansatz besagt, dass Verhaltensdaten aus verschiedenen Kanälen extrahiert und gleichzeitig analysiert werden sollten. Die von einem Kanal kommenden Daten überprüfen und gleichen die von den anderen empfangenen Daten aus. Wenn beispielsweise Gesichtsinformationen aus irgendeinem Grund nicht verfügbar sind, können wir die Stimmbetonung analysieren oder uns die Gesten ansehen.“
Zukünftige Herausforderungen?
Es gibt jedoch Herausforderungen – da sind sich alle Beteiligten einig. Emotionen sind nicht immer leicht zu erkennen; auch für die Menschen, die sie erleben.
„Wenn Sie K.I. unterrichten möchten, „Um Autos, Gesichter oder Emotionen zu erkennen, sollten Sie die Leute zunächst fragen, wie diese Objekte aussehen“, fuhr Pliev fort. „Ihre Antworten werden die Grundwahrheit darstellen. Wenn es um die Identifizierung von Autos oder Gesichtern geht, würden fast 100 % der Befragten in ihren Antworten konsistent sein. Aber wenn es um Emotionen geht, ist die Sache nicht so einfach. Emotionale Ausdrücke haben viele Nuancen und hängen vom Kontext ab: kultureller Hintergrund, individuelle Unterschiede, die besonderen Situationen, in denen Emotionen ausgedrückt werden. Für eine Person würde ein bestimmter Gesichtsausdruck eine Sache bedeuten, während eine andere Person dies vielleicht anders sieht.“
Dupré stimmt dieser Meinung zu. „Kann gewährleistet werden, dass diese Systeme die Emotionen erkennen, die jemand tatsächlich empfindet?“ er sagte. „Die Antwort ist überhaupt nicht, und das werden sie auch nie sein! Sie erkennen nur die Emotionen, die Menschen ausdrücken wollen – und meistens entspricht das nicht den empfundenen Emotionen. Die Botschaft zum Mitnehmen ist also, dass [Maschinen] niemals … Ihre eigenen Emotionen lesen werden.“
Das bedeutet jedoch nicht, dass die Technologie nicht nützlich sein wird. Oder verhindern Sie, dass es in den kommenden Jahren ein wichtiger Teil unseres Lebens wird. Und selbst Damien Dupré lässt leichten Spielraum, wenn es um seine eigene Vorhersage geht, dass Maschinen dies tun werden niemals etwas erreichen: „Na ja, sag niemals nie“, bemerkte er.
Die Forschungsarbeit „Emotionserkennung bei Menschen und Maschinen mithilfe gestellter und spontaner Gesichtsausdrücke“ ist hier online zum Nachlesen verfügbar.
Empfehlungen der Redaktion
- Die lustige Formel: Warum maschinengenerierter Humor der heilige Gral der KI ist
- Frauen mit Byte: Vivienne Mings Plan, „chaotische menschliche Probleme“ mit K.I. zu lösen
- Wilde neue „Brainsourcing“-Technik trainiert K.I. direkt mit menschlichen Gehirnwellen
- Treffen Sie Neon, den künstlichen Menschen von Samsung (der nichts mit Bixby zu tun hat), auf der CES 2020
- Top-Drohnenrennfahrer tritt im ersten Mensch-gegen-Maschine-Kampf gegen Roboterdrohne an