Appelez cela l'hypothèse de Skynet, l'intelligence artificielle générale ou l'avènement de la singularité. Pendant des années, les experts en IA et les non-experts s'inquiètent (et, pour un petit groupe, se félicitent) de l'idée que l'intelligence artificielle pourrait un jour devenir plus intelligente. que les humains.
Selon la théorie, les progrès de l’IA, en particulier du type d’apprentissage automatique, capable d’entreprendre de nouvelles informations et réécrire son code en conséquence - finira par rattraper le logiciel humide du système biologique cerveau. Dans cette interprétation des événements, chaque IA avance de Péril-gagner des machines IBM au modèle de langage d'IA massif GPT-3 rapproche l’humanité d’une menace existentielle. Nous construisons littéralement notre successeurs bientôt sensibles.
Vidéos recommandées
Sauf que cela n’arrivera jamais. Du moins, selon les auteurs du nouveau livre Pourquoi les machines ne gouverneront jamais le monde: l’intelligence artificielle sans peur.
Co-auteurs Professeur de philosophie à l'Université de Buffalo Barry Smith et Jobst Landgrebe, fondateur de la société allemande d’IA Cognotekt, affirme que l’intelligence humaine ne sera pas dépassée par « un dictateur immortel » de sitôt – ou jamais. Ils ont dit Tendances numériques leurs raisons.
Tendances Digitales (DT): Comment ce sujet est-il arrivé sur votre radar ?
Jobst Landgrebe (JL): Je suis médecin et biochimiste de formation. Quand j’ai commencé ma carrière, j’ai fait des expériences qui généraient beaucoup de données. J'ai commencé à étudier les mathématiques pour pouvoir interpréter ces données et j'ai réalisé à quel point il est difficile de modéliser des systèmes biologiques à l'aide des mathématiques. Il y a toujours eu cette inadéquation entre les méthodes mathématiques et les données biologiques.
Au milieu de la trentaine, j’ai quitté le monde universitaire et je suis devenu consultant en affaires et entrepreneur travaillant dans le domaine des systèmes logiciels d’intelligence artificielle. J'essayais de créer des systèmes d'IA pour imiter ce que les êtres humains peuvent faire. J'ai réalisé que je rencontrais le même problème que j'avais eu des années auparavant en biologie.
Les clients m'ont dit: « pourquoi ne créez-vous pas de chatbots? » J'ai répondu: « parce qu'ils ne fonctionneront pas; nous ne pouvons pas modéliser correctement ce type de système. » Cela m’a finalement conduit à écrire ce livre.
Professeur Barry Smith (BS): Je pensais que c'était un problème très intéressant. J’avais déjà des soupçons sur des problèmes similaires avec l’IA, mais je n’y avais jamais réfléchi. Au départ, nous avons rédigé un article intitulé «Redonner du sens à l’intelligence artificielle.’ (C’était à l’époque Trump.) Il s’agissait de savoir pourquoi les réseaux de neurones échouent dans la modélisation du langage. Nous avons ensuite décidé de développer cet article dans un livre explorant ce sujet plus en profondeur.
DT: Votre livre exprime un scepticisme quant à la manière dont les réseaux de neurones, essentiels à l’apprentissage profond moderne, imitent le cerveau humain. Ce sont des approximations plutôt que des modèles précis du fonctionnement du cerveau biologique. Mais acceptez-vous la prémisse fondamentale selon laquelle il est possible que, si nous comprenions le cerveau de manière granulaire, suffisamment détaillé, il pourrait être reproduit artificiellement – et que cela donnerait naissance à des renseignements ou à des connaissances. sentience?
JL : Le terme « réseau de neurones » est totalement inapproprié. Les réseaux neuronaux dont nous disposons aujourd’hui, même les plus sophistiqués, n’ont rien à voir avec le fonctionnement du cerveau. L’idée selon laquelle le cerveau est un ensemble de nœuds interconnectés dans la manière dont les réseaux neuronaux sont construits est complètement naïve.
Si vous regardez la cellule bactérienne la plus primitive, nous ne comprenons toujours pas comment elle fonctionne. Nous comprenons certains de ses aspects, mais nous n’avons aucun modèle de son fonctionnement – encore moins un neurone, qui est bien plus compliqué, ou des milliards de neurones interconnectés. Je crois que c'est scientifiquement impossible comprendre comment fonctionne le cerveau. Nous ne pouvons comprendre que certains aspects et traiter ces aspects. Nous n’avons pas, et nous n’obtiendrons pas, une compréhension complète du fonctionnement du cerveau.
Si nous comprenions parfaitement le fonctionnement de chaque molécule du cerveau, nous pourrions probablement la reproduire. Cela signifierait tout mettre en équations mathématiques. Ensuite, vous pourriez reproduire cela à l’aide d’un ordinateur. Le problème est simplement que nous sommes incapables d’écrire et de créer ces équations.
BS : Bon nombre des choses les plus intéressantes au monde se produisent à des niveaux de granularité que nous ne pouvons pas approcher. Nous n’avons tout simplement pas l’équipement d’imagerie, et nous n’en aurons probablement jamais, pour capturer la plupart de ce qui se passe aux niveaux les plus fins du cerveau.
Cela signifie que nous ne savons pas, par exemple, ce qui est responsable de la conscience. Il existe en fait une série de problèmes philosophiques assez intéressants qui, selon la méthode que nous suivons, seront toujours insolubles – et nous devrions donc simplement les ignorer.
Un autre est la liberté de volonté. Nous sommes très favorables à l’idée selon laquelle les êtres humains ont une volonté; nous pouvons avoir des intentions, des objectifs, etc. Mais nous ne savons pas s’il s’agit ou non d’un libre arbitre. C’est une question liée à la physique du cerveau. D’après les preuves dont nous disposons, les ordinateurs ne peuvent pas avoir de testament.
DT: Le sous-titre du livre est « Intelligence artificielle sans peur ». À quelle peur spécifique faites-vous référence ?
BS : Cela a été provoqué par la littérature sur la singularité, que je sais que vous connaissez. Nick Bostrom, David Chalmers, Elon Musk, etc. Lorsque nous avons discuté avec nos collègues du monde réel, il nous est apparu clairement qu'il existait effectivement un certaine crainte au sein de la population que l’IA ne finisse par prendre le dessus et changer le monde au détriment de humains.
Nous avons beaucoup de choses dans le livre sur les arguments de type Bostrum. Le principal argument contre eux est que si la machine ne peut pas avoir de volonté, alors elle ne peut pas non plus avoir de mauvaise volonté. Sans mauvaise volonté, il n’y a rien à craindre. Aujourd’hui, bien sûr, nous pouvons encore avoir peur des machines, tout comme nous pouvons avoir peur des armes à feu.
Mais c’est parce que les machines sont gérées par des personnes aux intentions maléfiques. Mais ce n’est pas l’IA qui est mauvaise; ce sont les gens qui construisent et programment l'IA
DT: Pourquoi cette notion de singularité ou d’intelligence artificielle générale intéresse-t-elle autant les gens? Qu’ils en soient effrayés ou fascinés, il y a quelque chose dans cette idée qui résonne auprès des gens à un large niveau.
JL : Il y a cette idée, née au début du XIXe siècle puis déclarée par Nietzsche à la fin de ce siècle, que Dieu est mort. Puisque les élites de notre société ne sont plus chrétiennes, il fallait les remplacer. Max Stirner, qui était, comme Karl Marx, un élève de Hegel, a écrit un livre à ce sujet dans lequel il disait: « Je suis mon propre dieu ».
Si vous êtes Dieu, vous voulez aussi être un créateur. Si vous pouviez créer une superintelligence, alors vous êtes comme Dieu. Je pense que cela a à voir avec les tendances hyper-narcissiques de notre culture. Nous n’en parlons pas dans le livre, mais cela m’explique pourquoi cette idée est si attractive à notre époque où il n’y a plus d’entité transcendante vers laquelle se tourner.
DT: Intéressant. Donc, pour aller jusqu’au bout, c’est l’idée que la création de l’IA – ou le but de créer de l’IA – est un acte narcissique. Dans ce cas, l’idée selon laquelle ces créations deviendraient d’une manière ou d’une autre plus puissantes que nous est une tournure cauchemardesque. C'est l'enfant qui tue le parent.
JL : Un peu comme ça, oui.
DT: Quel serait pour vous le résultat final de votre livre si tout le monde était convaincu par vos arguments? Qu’est-ce que cela signifierait pour l’avenir du développement de l’IA ?
JL : C’est une très bonne question. Je peux vous dire exactement ce qui, à mon avis, se produirait – et se produirait. Je pense qu’à moyen terme, les gens accepteront nos arguments, ce qui donnera naissance à des mathématiques mieux appliquées.
Tous les grands mathématiciens et physiciens sont parfaitement conscients des limites de ce qu’ils peuvent réaliser mathématiquement. Parce qu’ils en sont conscients, ils se concentrent uniquement sur certains problèmes. Si vous êtes bien conscient des limites, alors vous parcourez le monde, recherchez ces problèmes et résolvez-les. C’est ainsi qu’Einstein a trouvé les équations du mouvement brownien; comment il a élaboré ses théories de la relativité; comment Planck a résolu le rayonnement du corps noir et a ainsi lancé la théorie quantique de la matière. Ils avaient un bon instinct pour déterminer quels problèmes peuvent être résolus par les mathématiques et lesquels ne le sont pas.
Si les gens apprennent le message de notre livre, ils seront, pensons-nous, capables de concevoir de meilleurs systèmes, car ils se concentrera sur ce qui est vraiment réalisable – et arrêtera de gaspiller de l’argent et des efforts sur quelque chose qui ne peut pas être atteint.
BS : Je pense qu'une partie du message passe déjà, non pas à cause de ce que nous disons, mais à cause de expériences que les gens vivent lorsqu’ils donnent de grosses sommes d’argent à des projets d’IA, et que ces projets échouent ensuite. Je suppose que vous connaissez le Centre commun d’intelligence artificielle. Je ne me souviens pas du montant exact, mais je pense que c’était environ 10 milliards de dollars, qu’ils ont donnés à un entrepreneur célèbre. Au final, ils n’en ont rien retiré. Ils ont annulé le contrat.
(Note de l'éditeur: JAIC, une subdivision des forces armées des États-Unis, avait pour objectif d'accélérer « la livraison et l'adoption de l'IA pour avoir un impact sur la mission ». À l'échelle." Il a été intégré à une organisation unifiée plus grande, le directeur de l'intelligence numérique et artificielle, avec deux autres bureaux en juin de cette année. JAIC a cessé d'exister en tant qu'entité propre.)
DT: Selon vous, quel est, en termes généraux, l’argument le plus convaincant que vous avancez dans le livre ?
BS : Chaque système d’IA est de nature mathématique. Parce que nous ne pouvons pas modéliser mathématiquement la conscience, la volonté ou l’intelligence, celles-ci ne peuvent pas être imitées à l’aide de machines. Par conséquent, les machines ne deviendront pas intelligentes, encore moins superintelligentes.
JL : La structure de notre cerveau ne permet que des modèles limités de la nature. En physique, nous sélectionnons un sous-ensemble de la réalité qui correspond à nos capacités de modélisation mathématique. C'est ainsi que Newton, Maxwell, Einstein ou Schrödinger ont obtenu leurs célèbres et beaux modèles. Mais ceux-ci ne peuvent décrire ou prédire qu’un petit ensemble de systèmes. Nos meilleurs modèles sont ceux que nous utilisons pour concevoir la technologie. Nous sommes incapables de créer un modèle mathématique complet de la nature animée.
Cette interview a été éditée pour des raisons de longueur et de clarté.
Recommandations des rédacteurs
- Les meilleurs auteurs exigent une rémunération des entreprises d’IA pour l’utilisation de leurs travaux
- Bing Chat lutte contre les interdictions de l'IA sur le lieu de travail
- Google Bard peut désormais parler, mais peut-il étouffer ChatGPT?
- La nouvelle société d’IA d’Elon Musk vise à « comprendre l’univers »
- La croissance record de ChatGPT vient d’être détrônée par une nouvelle application virale