All’inizio di questo mese, un veicolo di prova autonomo ha deviato dalla sua corsia per evitare un’auto che si stava scontrando, solo per colpire una motocicletta nella corsia in cui si era spostato. Se questo è tutto ciò che sai della storia, sembra il tipo di enigma di scelta morale che spesso emerge discussioni sul comportamento dell'intelligenza artificiale: tra due risultati negativi, come fa la macchina a decidere quale rotta seguire perseguire? Sterzi per evitare di colpire il pedone che attraversa la strada se questo significa investire il ciclista sulla pista ciclabile?
Contenuti
- Una mano robotica che aiuta
- La punta dell'iceberg
Solo che non è affatto quello che è successo. Il veicolo, gestito da Waymo, aveva al volante un “autista di sicurezza” umano, che aveva preso il controllo manuale dell’auto pochi istanti prima che si verificasse l’incidente. Reagendo al movimento improvviso dell'auto che si riversava, l'autista ha sterzato per evitarla e semplicemente non ha visto il motociclista nella corsia adiacente. Se l'autista non avesse fatto nulla, è probabile che...
il veicolo autonomo avrebbe evitato entrambi i potenziali incidenti.Video consigliati
Che l’intelligenza artificiale e l’automazione alla fine renderanno le nostre strade più sicure è ormai un fatto ben noto, anche se molti di noi trovano difficile abbracciare pienamente l’idea delle auto senza conducente. Tradurre la lingua, acquistare e vendere azioni, prevedere il tempo: queste sono tutte aree in cui il contributo dell’intelligenza artificiale è di evidente beneficio. Ma l’ascesa dell’A.I. non sta accadendo solo nei luoghi in cui l’errore umano è comune; tutt'altro, A.I. è già stato addestrato a fare, o almeno a imitare, una delle cose che ci rende umani: la nostra creatività.
Imparentato
- GoPro Hero 10 Black: 7 cose che amo e 2 che non amo
- Non aggiornare la tua fotocamera. Non ti renderà un fotografo migliore
- I selfie di solito non finiscono in risse, ma questo sì
Una mano robotica che aiuta
Nel mese di ottobre, un A.I. dipinto venduto all'asta per oltre $ 400.000. L'A.I., utilizzata dal collettivo artistico francese Obvious, lo era addestrato su 15.000 ritratti realizzati tra il XIV e il XX secolo, studiandone gli stili e fondendoli nel proprio. Questa è creatività con la forza bruta. Una macchina non può sentire, ma nemmeno dormire; forniscigli abbastanza dati da elaborare e può restituirti qualcosa che onestamente sembra essere creativo.
Comprensibilmente, questo tipo di A.I. può preoccupare i creativi che lavorano, ma anche se le macchine scrivono i propri script e produrre interi album, in realtà non saranno in grado di sostituire presto gli artisti umani. E, man mano che la novità svanisce, c’è il dubbio significativo che altre opere d’arte prodotte dall’intelligenza artificiale otterranno lo stesso successo di quelle di Obvious.
Fortunatamente, le IA “più amichevoli” sono già qui, non per fare il nostro lavoro per noi, ma per semplificare il nostro lavoro. L'intelligenza artificiale è stata al centro della scena negli ultimi due anni ad Adobe MAX, la fiera annuale e conferenza organizzata dall'azienda dietro Photoshop, Lightroom, After Effects e molti altri creativi applicazioni. L’intelligenza artificiale di Adobe si chiama Sensei e ora alimenta una serie di strumenti in tutta la suite Creative Cloud.
L'A.I. si è formato su 15.000 ritratti realizzati tra il XIV e il XX secolo. Questa è creatività con la forza bruta.
In un'intervista con Digital Trends al MAX quest'anno, Tom Hogarty, direttore senior del reparto Digital Imaging di Adobe, ha paragonato l'arrivo dell'A.I. al passaggio dal PC ai dispositivi mobili come strumenti creativi. Adobe si era appena messo in mostra Photoshop per iPad E Prima corsa, un'app di editing video multi-dispositivo.
“Si è trattato di una rifocalizzazione sismica delle risorse e delle priorità”, ha detto Hogarty a Digital Trends. “Penso che il passaggio all’A.I. e l’ML [machine learning] rappresenta un cambiamento epocale di pari grandezza nel settore in questo momento”.
Adobe prevede che Sensei colmi il divario tra uomo e macchina, per rendere un compito concettualmente semplice ma meccanicamente difficile tanto facile da portare a termine quanto facile da pensare.
Le persone sono innatamente brave in alcuni compiti in cui le macchine tradizionalmente hanno prestazioni scarse, come riconoscere gli oggetti in una fotografia. I computer, d’altro canto, sono ottimi nel catalogare, alterare o rimuovere e sostituire quegli oggetti, ma un essere umano deve definirli chiaramente in primo luogo, sia aggiungendo parole chiave nel caso della catalogazione, sia stabilendo i confini di un oggetto attraverso la selezione e il mascheramento processi.
Questi compiti meccanici spesso richiedono un'attenzione meticolosa ai dettagli e richiedono un tempo frustrantemente lungo per essere completati da un essere umano. Aggiungere parole chiave, un prerequisito per organizzare le immagini in base al loro contenuto, è un processo così arduo che pochi fotografi lo fanno in modo affidabile. Josh Haftel, Product Manager di Lightroom, conosce bene la difficoltà.
"Tu come essere umano probabilmente sarai molto più bravo [di un computer] a poter dire:" sedia, macchina fotografica, telefono, occhiali da sole, laptop ", ma ti ci vorrà un'eternità", ha detto Haftel a Digital Trends.
E se il computer fosse bravo quanto te ad aggiungere parole chiave alle foto? O cosa succederebbe se per rimuovere un oggetto bastasse semplicemente cliccarci sopra? Con la ricerca abilitata dall'intelligenza artificiale in Adobe Lightroom CC e lo strumento Seleziona oggetto in Photoshop CC, quel sogno è quasi realtà. Questi strumenti non sono ancora accurati al 100%, ma offrono già ai creativi un rapido vantaggio su attività che richiederebbero molto tempo.
Sebbene la ricerca basata su Sensei fosse presente in Lightroom CC fin dall'inizio, quest'anno ha fatto un grande passo in avanti con l'aggiunta del riconoscimento facciale. Il Sensei può rilevare e organizzare le persone – e altri oggetti – a una velocità di decine di migliaia di immagini al secondo. Il potenziale risparmio di tempo è enorme.
L’intelligenza artificiale di Adobe gli sforzi vanno anche oltre le immagini fisse. L'imminente Strumento Riempimento consapevole del contenuto in After Effects rimuoverà effettivamente un oggetto da ogni fotogramma del video e riempirà perfettamente lo sfondo con un input minimo da parte dell'utente. Vederlo in azione è un po’ sconcertante, come guardare un mago tirare fuori un coniglio da un cappello: sai che c’è una spiegazione per questo, ma non riesci a capirla.
La punta dell'iceberg
A.I. non è magico; è scienza. Anche così, nessuno sa esattamente come A.I. fa quello che fa, e questa è una premessa potenzialmente terrificante. Il computer si allena da solo; a un essere umano viene semplicemente richiesto di fornirgli il set di dati di addestramento iniziale. Ciò che è interessante, se non proprio sorprendente, è che è proprio nei dati di addestramento che spesso sorgono problemi nell'A.I. programmazione, sotto forma di pregiudizi umani che si insinuano nella macchina. Se i dati sono distorti, l’algoritmo risultante potrebbe prendere decisioni imprecise, addirittura sessista o razzista.
A.I. non è magico; è scienza. Anche così, nessuno sa esattamente come l’A.I. fa quello che fa.
“Sarà davvero difficile non avere pregiudizi, saranno sempre presenti”, ha detto alla stampa il vicepresidente di Adobe Experience Design Jamie Myrold al MAX 2018. “Ma è qualcosa su cui ci concentriamo sicuramente, ed è un’altra abilità che i designer dovranno acquisire considerare come qualcosa che possiedono definitivamente, e non semplicemente permettere alla scatola nera dell'algoritmo di spaventare loro."
Per quanto spaventosa possa essere, questa natura inconoscibile dell'A.I. è anche ciò che lo rende così eccitante. Il potenziale dell’A.I. risolvere i problemi è quasi illimitato e per tutto il tempo che abbiamo misure in atto per identificare e correggere i bias, può fare molto bene semplificandoci la vita.
Per i creativi, in particolare quelli che traggono profitto da attività creative, la preoccupazione sorge quando un'A.I. può imitare adeguatamente un essere umano. Perché assumere un artista grafico per progettarti un nuovo logo se puoi semplicemente collegare alcuni parametri a un computer e lasciarlo sputare fuori uno che va perfettamente bene?
Siamo ancora lontani da quella realtà, ma non è difficile guardare dove siamo ora ed estrapolare quello scenario come un’eventualità. Già, A.I. in Adobe Lightroom può migliorare automaticamente le foto, eliminando le ombre, recuperando le luci, regolando l'esposizione e la saturazione, con sorprendente abilità.
Sebbene l’implementazione di Adobe abbia lo scopo di fornire ai fotografi un solido punto di partenza per ulteriori modifiche, altri sviluppatori sono già andati oltre. Skylum, in precedenza Macphun, dispone di molteplici regolazioni basate sull'intelligenza artificiale nel suo software di fotoritocco Luminar per fare qualsiasi cosa, da migliorando automaticamente i cieli per aggiungere raggi solari realistici a un'immagine. Ora puoi modificare radicalmente una fotografia con un minimo di conoscenze sul ritocco fotografico.
Ciò non segnala necessariamente problemi per i creativi che lavorano. Possiamo fare paragoni qui con l’ascesa della fotografia digitale, dell’editing video su PC domestici, degli smartphone e un numero qualsiasi di altre tecnologie che hanno abbassato drasticamente il livello di accesso ai contenuti professionali produzione. Sebbene le industrie creative siano state remixate più e più volte, sono sempre sopravvissute. Che siano migliori o peggiori dipende da chi chiedi, ma la quantità e la diversità dei contenuti creativi non è mai stata così alta come lo è adesso.
E nonostante i suoi successi, A.I. deve ancora affrontare alcune sfide significative. Attualmente in anteprima tecnologica, la funzionalità Migliori foto di Adobe Lightroom è un’altra tecnologia basata su Sensei con un enorme potenziale di risparmio di tempo. Analizza le tue immagini attraverso una varietà di parametri per mostrarti automaticamente le migliori, tenendo conto anche delle tue valutazioni manuali. Anche nel suo stato iniziale, funziona straordinariamente bene, ma mostra anche gli attuali limiti dell'A.I.
“Laddove l’apprendimento automatico, almeno oggi, fallisce, è la comprensione del contesto emotivo”.
“Laddove l’apprendimento automatico, almeno oggi, fallisce, è la comprensione del contesto emotivo”, ha spiegato Haftel. “Quindi la macchina non sa che quella foto davvero scura e sgranata è una foto di tua nonna ed è l’ultima foto che hai di lei. E non sarà mai in grado di dirlo.
Haftel si è affrettato ad aggiungere: “Non dovrei dire mai – mai dire mai – ma almeno non può farlo oggi”.
L'A.I. hanno dei limiti? Raggiungeremo mai un plateau nell'A.I. sviluppo? Andrew Page di Nvidia, product manager nella divisione Media and Entertainment Technologies dell'azienda, non la pensa così. I server Nvidia alimentano tutta la formazione di Adobe Sensei e le ultime novità dell'azienda Schede grafiche RTX includono tensor core costruiti appositamente per accelerare l'A.I. comandi. Nvidia vede chiaramente l'A.I. giocando un ruolo enorme nel suo futuro.
“Siamo ancora agli inizi dell’[A.I.]”, ha detto Page a Digital Trends. “Dato che il computer insegna da solo come fare le cose, non c’è mai una misura di fatto. Proprio come noi esseri umani, non finiamo mai di imparare. Penso che stiamo vedendo solo la punta dell’iceberg di ciò che A.I. può fare per i creativi, ma anche per altri settori."
Un potenziale cambiamento è il passaggio dall’A.I. all’intelligenza artificiale addestrata localmente, che sarebbe in grado di rispondere meglio alle esigenze uniche o allo stile artistico di un singolo utente. Quando l’apprendimento automatico potrà essere eseguito su un PC domestico anziché richiedere un data center, si apriranno nuove strade per l’intelligenza artificiale. sviluppo. Per ora, i requisiti computazionali e la vastità dei set di dati di addestramento rendono difficile l’addestramento locale per tutti i compiti tranne quelli più semplici, ma questo probabilmente cambierà nel tempo.
Il modo in cui tutto ciò si svolge potrebbe finire per cambiare la nostra stessa definizione di creatività. Come ha affermato Haftel di Adobe, senza la fatica necessaria di utilizzare manualmente il software per creare arte, “Possiamo concentrarci sul livello successivo di creatività. Non sappiamo cosa accadrà, ma il nostro lavoro in Adobe è supportarlo e potenziarlo continuamente”.
Raccomandazioni degli editori
- 5 motivi per cui amo la fotocamera Leica M11 e 5 motivi per cui no
- Google Foto ora mostra più foto che desideri e meno quelle che non ti servono
- Stanno arrivando le fotocamere 8K. No, non ne hai bisogno