gros plan, de, homme, serrer main robotique
Crédit d'image : muratsenel/iStock/Getty Images
Le développement de machines capables d'imiter la pensée humaine, de la dépasser ou même de prendre conscience de soi est une prémisse bien explorée au sein de la science-fiction. Dans le paysage technologique d'aujourd'hui, l'avènement de l'intelligence artificielle - l'IA - pourrait devenir l'un des plus grands réalisations, mais comme l'a prévenu le célèbre physicien Stephen Hawking, "cela pourrait aussi être le dernier, à moins que nous apprenions à éviter les des risques."
Automatisation accrue: qui tire la gâchette?
Une technologie sophistiquée continue de s'intégrer dans la société moderne, des assistants personnels numériques et des algorithmes de recherche intelligente dans Google, aux voitures expérimentales autonomes. L'intelligence artificielle est définie comme un ordinateur ou une machine capable d'effectuer « des déductions et des inférences logiques » et « prendre des décisions sur la base de l'expérience passée ou d'informations insuffisantes ou contradictoires." Les niveaux technologiques actuels posent déjà des dilemmes éthiques effrayants, tels que comme si les drones militaires ou d'autres systèmes robotiques devraient être conçus pour utiliser la force meurtrière contre des cibles sans intervention humaine directe. participation. À l'heure actuelle, les machines programmées peuvent réagir avec une vitesse et une précision supérieures à celles d'un opérateur humain, mais sont toujours capables d'erreurs grossières sans biais humains ni intuition pour guider la prise de décision. Ces problèmes seront intensifiés si l'IA est intégrée à de tels systèmes, introduisant des motifs indépendants qui peuvent être complètement imprévisibles ou en conflit direct avec les intentions humaines.
Vidéo du jour
Transformer le marché
L'incorporation de l'intelligence artificielle changera radicalement la conception du travail de l'humanité. Depuis l'ère industrielle, la technologie de toute nature rend inévitablement de nombreux emplois obsolètes tout en créant de nouvelles opportunités dans des domaines émergents. L'IA offre un avenir dans lequel les machines effectuent des tâches à notre place, permettant aux gens de mener une vie de loisirs. L'économiste John Maynard Keynes est allé si loin - en 1930 - qu'il a prédit une semaine de travail de 15 heures d'ici 2030. Aux niveaux de population actuels, tous les aspects de la société nécessiteraient une refonte drastique à la fois culturellement et économiquement si l'automatisation créait un changement aussi radical dans la façon dont nos journées sont dépensées.
IA: Ami ou ennemi?
Une menace importante de l'intelligence artificielle est de savoir si elle choisit d'utiliser des capacités déjà améliorées pour créer des machines d'une puissance cognitive encore plus grande. Les générations avancées d'IA pourraient fonctionner aussi bien au-dessus des êtres humains que nous le faisons au-dessus des animaux, et même très probablement évoluer au-delà de la capacité humaine de le comprendre. Dans ce résultat -- appelé Singularity par le Dr Vernor Vinge pour le Symposium VISION-21 du NASA Lewis Research Center en 1993 -- le les règles de la vie telles que nous les connaissons changeraient à jamais, car il n'y a aucun moyen de prédire si l'IA déciderait de coexister ou d'être hostile envers l'humanité.
Protection contre les catastrophes
Hawking souligne que toute discussion sérieuse sur l'intelligence artificielle doit prendre en considération les menaces potentielles et la manière de les gérer, et appelle à une recherche institutionnelle plus critique, car des ressources croissantes des entreprises sont consacrées à la réalisation de percées dans la création artificielle intelligence. Vinge postule que l'IA peut être étroitement réglementée par des règles qui imposent efficacement la bienveillance comportement en robots autonomes, comme l'imagine l'écrivain de science-fiction Les Trois Lois de l'Isaac Asimov Robotique. Vinge prévient également que la concurrence humaine naturelle conduira probablement au développement de modèles d'IA sans restriction, de sorte que même de telles garanties pourraient ne pas être suffisantes pour contrôler la Singularité si elle se produit.