Wie ein Temporal Relation Network versteht, was dort vor sich geht
Nur ein paar Informationsrahmen, die eine Geschichte erzählen, reichen aus, um zu verstehen, was vor sich geht. Dies ist schließlich die Grundlage für Comics – die gerade genug wichtige Handlungsimpulse liefern, damit wir dem Geschehen folgen können. Leider haben Roboter, die mit Computer-Vision-Technologie ausgestattet sind, Schwierigkeiten, dies zu tun. Zumindest bis jetzt.
Empfohlene Videos
Kürzlich demonstrierte das Massachusetts Institute of Technology (MIT) eine neue Art künstlicher Intelligenz System, das ein neuronales Netzwerk verwendet, um die Lücken in Videobildern zu füllen und so herauszufinden, welche Aktivität stattfindet Ort. Dank der Ergebnisse lässt sich erstaunlich gut bestimmen, was in einem Video passiert.
„Die neu entwickelten zeitlichen Beziehungsmodule ermöglichen es der K.I. System, um einige Schlüsselbilder zu analysieren und die zeitliche Abschätzung abzuschätzen „Beziehung zwischen ihnen, um zu verstehen, was im Video vor sich geht – etwa ein Stapel von Gegenständen, die umgeworfen werden.“
Bolei Zhou, ein ehemaliger Doktorand. sagte ein Student am Computer Science and Artificial Intelligence Laboratory (CSAIL) des MIT, der jetzt Assistenzprofessor für Informatik an der Chinesischen Universität Hongkong ist, gegenüber Digital Trends. „Da das Modell mit Schlüsselbildern arbeitet, die nur spärlich aus dem eingehenden Video abgetastet werden, wird die Verarbeitungseffizienz erheblich verbessert und ermöglicht eine Aktivitätserkennung in Echtzeit.“Eine weitere spannende Eigenschaft der A.I. Das Modell besteht darin, dass es durch die Betrachtung von Videobildern frühzeitig vorhersehen und vorhersagen kann, was passieren wird. Wenn er beispielsweise eine Person sieht, die eine Flasche in der Hand hält, geht der Algorithmus davon aus, dass diese Person möglicherweise etwas trinkt oder die Flasche ausdrückt. Solche Antizipationsfähigkeiten werden für künstliche Intelligenz, die in Bereichen wie … eingesetzt wird, von entscheidender Bedeutung sein autonomes Fahren, wo es Unfälle proaktiv verhindern könnte, indem es errät, was von Moment zu Moment passieren wird.
„Es [könnte] auch zur Überwachung menschlichen Verhaltens verwendet werden, etwa als Heimroboter-Assistent, der Ihre Absicht vorhersehen könnte, indem er Dinge im Voraus liefert“, fuhr Zhou fort. „Es [könnte außerdem eingesetzt werden], um die riesige [Anzahl] Videos online zu analysieren, um das Videoverständnis und den Videoabruf zu verbessern.“
Der nächste Schritt des Projekts besteht darin, die Fähigkeit der KI zu verbessern, eine größere Anzahl von Objekten und Aktivitäten zu erkennen. Das Team arbeitet außerdem mit Robotikforschern zusammen, um diese Aktivitätserkennung in Robotersystemen einzusetzen. Dies könnte zu einer verbesserten Wahrnehmung und einem verbesserten visuellen Denkvermögen führen.
Empfehlungen der Redaktion
- Niemand will AMDs Zen-4-Chips kaufen – was ist los?
- Zooms K.I. Technologie zur Erkennung von Emotionen bei Anrufen verärgert Kritiker
- Die lustige Formel: Warum maschinengenerierter Humor der heilige Gral der KI ist
- Nvidia senkt die Hürde für den Einstieg in die KI mit Fleet Command und LaunchPad
- IBMs K.I. Das Mayflower-Schiff überquert den Atlantik und Sie können es live verfolgen
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.