Plus tôt ce mois-ci, un véhicule d'essai autonome a quitté sa voie pour éviter une voiture en train de fusionner, pour ensuite heurter une moto dans la voie dans laquelle il s'est engagé. Si c’est tout ce que vous savez de l’histoire, cela ressemble au genre d’énigme de choix moral qui revient souvent dans discussions sur le comportement de l’intelligence artificielle: entre deux mauvais résultats, comment la machine décide-t-elle quelle direction prendre poursuivre? Faites-vous un écart pour éviter de heurter le piéton qui traverse la rue si cela signifie écraser le cycliste sur la piste cyclable ?
Contenu
- Une main robotique aidante
- Le sommet de l'iceberg
Seulement, ce n’est pas du tout ce qui s’est passé. Le véhicule, exploité par Waymo, avait un « conducteur de sécurité » humain au volant, qui avait pris le contrôle manuel de la voiture quelques instants avant que l'accident ne se produise. Réagissant au mouvement brusque de la voiture qui s'approchait, le conducteur a braqué pour l'éviter et n'a tout simplement pas vu le motocycliste dans la voie adjacente. Si le conducteur n'avait rien fait, il est probable que
un véhicule autonome aurait évité les deux accidents potentiels.Vidéos recommandées
Que l’intelligence artificielle et l’automatisation finiront par rendre nos routes plus sûres est désormais un fait bien compris, même si beaucoup d’entre nous ont du mal à adopter pleinement l’idée des voitures sans conducteur. Traduire le langage, acheter et vendre des actions, prévoir la météo: ce sont autant de domaines dans lesquels les contributions de l’IA sont d’un bénéfice évident. Mais l’essor de l’A.I. cela ne se produit pas seulement dans les endroits où l’erreur humaine est courante; loin de là, A.I. a déjà été formé pour faire, ou du moins imiter, l'une des choses qui nous rendent humains: notre créativité.
En rapport
- GoPro Hero 10 Black: 7 choses que j’aime et 2 que je n’aime pas
- Ne mettez pas à niveau votre caméra. Cela ne fera pas de vous un meilleur photographe
- Les selfies ne se transforment généralement pas en bagarres, mais celui-ci l’a fait
Une main robotique aidante
En octobre, un I.A. tableau vendu aux enchères pour plus de 400 000 $. L'IA, utilisée par le collectif d'art français Obvious, a été formé sur 15 000 portraits réalisé entre le XIVe et le XXe siècle, étudiant leurs styles et les intégrant au sien. C'est de la créativité par force brute. Une machine ne peut pas ressentir, mais elle ne dort pas non plus; donnez-lui suffisamment de données à traiter, et il peut vous rendre quelque chose qui semble honnêtement créatif.
Naturellement, ce type d’IA. peut inquiéter les créatifs en activité, mais même si les machines écrivent leurs propres scripts et produire des albums entiers, ils ne pourront pas remplacer les artistes humains de si tôt. Et, à mesure que la nouveauté diminue, il y a un doute important sur le fait que d’autres œuvres d’art produites par l’IA obtiendront un succès égal à celui d’Obvious.
Heureusement, des IA « plus conviviales » sont déjà là, non pas pour faire notre travail à notre place, mais pour nous faciliter la tâche. L'intelligence artificielle a occupé le devant de la scène ces deux dernières années à Adobe MAX, le salon annuel et conférence organisée par la société derrière Photoshop, Lightroom, After Effects et bien d'autres créations applications. L'IA d'Adobe Le moteur s'appelle Sensei et alimente désormais un certain nombre d'outils dans la suite Creative Cloud.
L'A.I. s'est formé sur 15 000 portraits réalisés entre le XIVe et le XXe siècle. C'est de la créativité par force brute.
Dans une interview avec Digital Trends au MAX cette année, Tom Hogarty, directeur principal de l'imagerie numérique chez Adobe, a comparé l'arrivée de l'IA. au passage du PC aux appareils mobiles en tant qu'outils créatifs. Adobe venait de se montrer Photoshop pour iPad et Première Rush, une application de montage vidéo multi-appareils.
« Il s’agissait d’un recentrage sismique des ressources et des priorités », a déclaré Hogarty à Digital Trends. « Je pense que le passage à l’IA. et le ML [apprentissage automatique] constitue actuellement un changement tectonique d’ampleur égale dans l’industrie.
Adobe envisage Sensei comme comblant le fossé entre l'humain et la machine, pour rendre une tâche conceptuellement simple mais mécaniquement difficile aussi facile à réaliser qu'à imaginer.
Les gens sont naturellement doués pour certaines tâches pour lesquelles les machines fonctionnent traditionnellement mal, comme reconnaître des objets sur une photographie. Les ordinateurs, en revanche, sont excellents pour cataloguer, modifier ou supprimer et remplacer ces objets – mais un humain doit les définir clairement. d'abord, soit en ajoutant des mots-clés dans le cas du catalogage, soit en établissant les limites d'un objet par la sélection et le masquage processus.
Ces tâches mécaniques nécessitent souvent une attention minutieuse aux détails et prennent un temps frustrant à accomplir pour un humain. L'ajout de mots-clés, condition préalable à l'organisation des images en fonction de leur contenu, est un processus tellement intimidant que peu de photographes le font de manière fiable. Josh Haftel, chef de produit Lightroom, connaît bien cette difficulté.
« En tant qu’être humain, vous serez probablement bien meilleur [qu’un ordinateur] pour pouvoir dire « chaise, appareil photo, téléphone, lunettes de soleil, ordinateur portable », mais cela vous prendra une éternité », a déclaré Haftel à Digital Trends.
Mais et si l’ordinateur était aussi doué que vous pour ajouter des mots-clés aux photos? Ou si supprimer un objet ne nécessitait guère plus que de cliquer dessus? Avec la recherche basée sur l'IA dans Adobe Lightroom CC et l'outil Sélectionner un sujet dans Photoshop CC, ce rêve est presque devenu réalité. Ces outils ne sont pas encore précis à 100 %, mais ils donnent déjà aux créatifs une longueur d’avance rapide sur des tâches qui prendraient beaucoup de temps.
Alors que la recherche basée sur Sensei était présente dans Lightroom CC depuis le début, elle a fait un grand pas en avant cette année avec l'ajout de la reconnaissance faciale. Sensei peut détecter et organiser les gens – et d’autres objets – à une vitesse de dizaines de milliers d’images par seconde. Le gain de temps potentiel est énorme.
L'IA d'Adobe les efforts vont également au-delà des images fixes. Le prochain Outil de remplissage sensible au contenu dans After Effects supprimera en fait un objet de chaque image de la vidéo et remplira de manière transparente l'arrière-plan avec une intervention minimale de l'utilisateur. Voir cela en action est un peu ahurissant, comme regarder un magicien sortir un lapin d’un chapeau – vous savez qu’il y a une explication à cela, mais vous n’arrivez pas à la comprendre.
Le sommet de l'iceberg
I.A. ce n'est pas magique; c'est de la science. Même ainsi, personne ne sait vraiment comment I.A. fait ce qu'il fait, et c’est une prémisse potentiellement terrifiante. L'ordinateur s'entraîne tout seul; un humain doit simplement lui fournir l’ensemble de données de formation initial. Ce qui est intéressant, voire surprenant, c’est que c’est dans ces données d’entraînement que les problèmes surviennent souvent en matière d’IA. programmation, sous la forme de préjugés humains s’infiltrant dans la machine. Si les données sont biaisées, l'algorithme qui en résulte pourrait prendre des décisions inexactes, voire sexiste ou raciste.
I.A. ce n'est pas magique; c'est de la science. Malgré cela, personne ne sait vraiment comment l’IA fonctionne. fait ce qu'il fait.
"Il va être très difficile de ne pas avoir de préjugés, ils seront toujours là", a déclaré Jamie Myrold, vice-président d'Adobe Experience Design, à la presse lors du MAX 2018. "Mais c'est quelque chose sur lequel nous nous concentrons définitivement, et c'est une autre compétence que les designers devront considérer comme quelque chose qui leur appartient définitivement, et ne pas simplement laisser la boîte noire de l'algorithme effrayer eux."
Aussi effrayante que cela puisse être, cette nature inconnaissable de l’IA. c’est aussi ce qui le rend si excitant. Le potentiel de l’IA résoudre les problèmes est presque illimité, et tant que nous avons mesures en place pour identifier et corriger les préjugés, cela peut faire beaucoup de bien tout en nous facilitant la vie.
Pour les créatifs, en particulier ceux qui gagnent leur argent grâce à des activités créatives, des inquiétudes surgissent lorsqu'une I.A. peut imiter adéquatement un humain. Pourquoi engager un graphiste pour vous concevoir un nouveau logo si vous pouvez simplement brancher certains paramètres sur un ordinateur et le laisser en cracher un, ce qui est parfaitement bien ?
Nous sommes encore loin de cette réalité, mais il n’est pas difficile de voir où nous en sommes actuellement et d’extrapoler ce scénario comme une éventualité. Déjà, A.I. dans Adobe Lightroom peut améliorer automatiquement les photos – en soulevant les ombres, en récupérant les hautes lumières, en ajustant l'exposition et la saturation – avec une habileté surprenante.
Alors que la mise en œuvre par Adobe vise à donner aux photographes un point de départ solide pour des modifications supplémentaires, d'autres développeurs sont déjà allés au-delà. Skylum, anciennement Macphun, dispose de plusieurs ajustements basés sur l'IA dans son logiciel de retouche photo Luminar pour tout faire, de amélioration automatique du ciel à ajouter des rayons de soleil réalistes à une image. Vous pouvez désormais modifier radicalement une photo avec un minimum de connaissances en retouche photo.
Cela ne signifie pas nécessairement des problèmes pour les créatifs en activité. Nous pouvons ici faire des comparaisons avec l'essor de la photographie numérique, du montage vidéo sur PC à domicile, des smartphones et un certain nombre d'autres technologies qui ont considérablement abaissé la barre d'accès au contenu professionnel production. Même si les industries créatives ont été remixées à maintes reprises, elles ont toujours survécu. Qu'ils soient meilleurs ou pires dépend de la personne à qui vous demandez, mais la quantité et la diversité du contenu créatif n'ont jamais été aussi élevées qu'aujourd'hui.
Et malgré ses succès, A.I. reste confronté à des défis importants. Actuellement en avant-première technologique, la fonctionnalité Meilleures photos d'Adobe Lightroom est une autre technologie basée sur Sensei avec un énorme potentiel de gain de temps. Il analyse vos images selon divers paramètres pour vous montrer automatiquement les meilleures d'entre elles, tout en tenant également compte de vos évaluations manuelles. Même à ses débuts, il fonctionne de manière impressionnante, mais il montre également les limites actuelles de l'IA.
"Là où l'apprentissage automatique, du moins aujourd'hui, échoue, c'est dans la compréhension du contexte émotionnel."
"Là où l'apprentissage automatique, du moins aujourd'hui, échoue, c'est dans la compréhension du contexte émotionnel", a expliqué Haftel. « Donc la machine ne sait pas que cette image très sombre et granuleuse est une photo de votre grand-mère et c’est la dernière photo que vous avez d’elle. Et il ne pourra jamais le dire.
Haftel n’a pas tardé à ajouter: « Je ne devrais pas dire jamais – ne jamais dire jamais – mais au moins, il ne peut pas le faire aujourd’hui. »
Est-ce que l’A.I. a-t-il des limites? Atteindrons-nous un jour un plateau en A.I. développement? Andrew Page de Nvidia, chef de produit dans la division Media and Entertainment Technologies de la société, ne le pense pas. Les serveurs Nvidia alimentent toute la formation Adobe Sensei et la dernière version de l'entreprise. Cartes graphiques RTX inclure des noyaux tenseurs spécialement conçus pour accélérer l'IA. commandes. Nvidia voit clairement l'IA. jouer un rôle majeur dans son avenir.
"Nous en sommes encore aux balbutiements de [A.I.]", a déclaré Page à Digital Trends. « Comme l’ordinateur apprend tout seul à faire des choses, il n’y a jamais vraiment de mesure de ce qui est fait. Tout comme nous, les humains, nous n’avons jamais fini d’apprendre. Je pense que nous ne voyons que la pointe de l’iceberg de ce que fait l’IA. peut également faire pour les créatifs ou pour d’autres secteurs.
Un changement potentiel est le passage d’une IA formée par serveur à des technologies de pointe. à une IA formée localement, qui serait mieux à même de répondre aux besoins uniques ou au style artistique d’un utilisateur individuel. Lorsque l’apprentissage automatique pourra être effectué sur un PC domestique plutôt que de nécessiter un centre de données, cela ouvrira de nouvelles voies à l’IA. développement. Pour l’instant, les exigences informatiques et la taille même des ensembles de données de formation rendent la formation locale difficile pour toutes les tâches, sauf les plus simples, mais cela va probablement changer avec le temps.
La façon dont tout cela se déroule pourrait finir par changer notre définition même de la créativité. Comme le dit Haftel d’Adobe, sans avoir à utiliser manuellement un logiciel pour créer de l’art, « nous pouvons nous concentrer sur le prochain niveau de créativité. Nous ne savons pas ce que cela va être, mais notre travail chez Adobe consiste à le soutenir en permanence et à le renforcer.
Recommandations des rédacteurs
- 5 raisons pour lesquelles j'aime l'appareil photo Leica M11 et 5 raisons pour lesquelles je ne l'aime pas
- Google Photos affiche désormais davantage de photos que vous souhaitez, moins de celles que vous ne souhaitez pas
- Les caméras 8K arrivent. Non, tu n'en as pas besoin