Come una rete di relazioni temporali capisce cosa sta succedendo lì
Bastano pochi fotogrammi di informazioni che raccontano una storia per capire cosa sta succedendo. Dopotutto, questa è la base per i fumetti, che forniscono solo il numero sufficiente di battute importanti della storia per permetterci di seguire ciò che è accaduto. Purtroppo, i robot dotati di tecnologia di visione artificiale hanno difficoltà a farlo. Almeno fino ad ora.
Video consigliati
Recentemente, il Massachusetts Institute of Technology (MIT) ha dimostrato un nuovo tipo di intelligenza artificiale sistema che utilizza una rete neurale per riempire gli spazi vuoti nei fotogrammi video per capire quale attività sta svolgendo posto. I risultati lo rendono sorprendentemente efficace nel determinare cosa sta accadendo in un video.
“I moduli di relazione temporale di nuova concezione consentono all’A.I. sistema per analizzare alcuni fotogrammi chiave e stimare il temporale relazione tra loro, per capire cosa sta succedendo nel video, come ad esempio una pila di oggetti [che viene] abbattuta",
Bolei Zhou, ex dottorato di ricerca. ha detto a Digital Trends uno studente del Laboratorio di informatica e intelligenza artificiale del MIT (CSAIL), che ora è assistente professore di informatica presso l’Università cinese di Hong Kong. "Poiché il modello funziona con fotogrammi chiave scarsamente campionati dal video in ingresso, l'efficienza di elaborazione è notevolmente migliorata, consentendo il riconoscimento dell'attività in tempo reale."Un'altra entusiasmante proprietà dell'A.I. Il modello è che può anticipare e prevedere cosa accadrà nella fase iniziale visualizzando i fotogrammi del video. Ad esempio, se vede una persona con in mano una bottiglia, l'algoritmo prevede che potrebbe bere un drink o eventualmente spremerlo. Tali capacità di anticipazione saranno essenziali per l’intelligenza artificiale utilizzata in settori come quello guida autonoma, dove potrebbe prevenire in modo proattivo gli incidenti indovinando cosa accadrà momento per momento.
"Potrebbe anche essere utilizzato per monitorare i comportamenti umani, ad esempio un assistente robot domestico che potrebbe anticipare le tue intenzioni consegnando le cose in anticipo", ha continuato Zhou. "[potrebbe inoltre essere impiegato] per analizzare l'enorme [numero di] video online, per ottenere una migliore comprensione e recupero dei video."
Il prossimo passo del progetto riguarderà l’aumento della capacità dell’intelligenza artificiale di riconoscere un numero più ampio di oggetti e attività. Il team sta anche lavorando con ricercatori di robotica per implementare questo riconoscimento dell’attività nei sistemi robotici. Di conseguenza, questi potrebbero vedere una migliore percezione e capacità di ragionamento visivo.
Raccomandazioni degli editori
- Nessuno vuole acquistare i chip Zen 4 di AMD: cosa sta succedendo?
- L'intelligenza artificiale di Zoom La tecnologia per rilevare le emozioni durante le chiamate sconvolge i critici
- La formula divertente: perché l'umorismo generato dalle macchine è il Santo Graal dell'A.I.
- Nvidia abbassa le barriere all'ingresso nell'A.I. con Fleet Command e LaunchPad
- L’A.I. di IBM La nave Mayflower sta attraversando l'Atlantico e puoi guardarla dal vivo
Migliora il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, divertenti recensioni di prodotti, editoriali approfonditi e anteprime uniche nel loro genere.