L'IA générative a évolué à une vitesse incroyable ces derniers mois, avec le lancement de divers outils et bots tels que ChatGPT d'OpenAI, Barde Google, et plus. Pourtant, ce développement rapide suscite de vives inquiétudes parmi les vétérans chevronnés du domaine de l'IA. à tel point que plus de 1 000 d'entre eux ont signé une lettre ouverte appelant les développeurs d'IA à critiquer le freins.
La lettre a été publiée sur le site Internet de la Institut du futur de la vie, une organisation dont la mission déclarée est "d'orienter la technologie transformatrice vers le bénéfice de la vie et loin des risques extrêmes à grande échelle". Parmi les les signataires sont plusieurs universitaires et leaders de premier plan dans le domaine de la technologie, dont le cofondateur d'Apple Steve Wozniak, le PDG de Twitter Elon Musk et le politicien Andrew Yang.
Vidéos recommandées
L'article appelle toutes les entreprises travaillant sur des modèles d'IA plus puissants que le GPT-4 récemment publié d'arrêter immédiatement le travail pendant au moins six mois. Ce moratoire devrait être « public et vérifiable » et donnerait le temps « d'élaborer et de mettre en œuvre conjointement un ensemble de mesures partagées ». protocoles de sécurité pour la conception et le développement avancés d'IA qui sont rigoureusement audités et supervisés par des tiers indépendants experts."
En rapport
- Le fabricant de ChatGPT OpenAI fait face à une enquête de la FTC sur les lois de protection des consommateurs
- La fonctionnalité de navigation Bing de ChatGPT est désactivée en raison d'une faille d'accès au mur payant
- Le rival ChatGPT d'Apple peut automatiquement écrire du code pour vous
La lettre indique que cela est nécessaire car "les systèmes d'IA dotés d'une intelligence compétitive humaine peuvent poser de graves risques pour la société et l'humanité". Ceux les risques comprennent la diffusion de la propagande, la destruction d'emplois, le remplacement potentiel et l'obsolescence de la vie humaine, et la « perte de contrôle de notre civilisation. Les auteurs ajoutent que la décision d'aller de l'avant dans cet avenir ne devrait pas être laissée à "des technologies non élues". dirigeants."
L'IA "pour le bénéfice évident de tous"
La lettre vient juste après que des affirmations aient été faites selon lesquelles GPT-5, la prochaine version de la technologie alimentant ChatGPT, pourrait atteindre l'intelligence générale artificielle. S'il est correct, cela signifie qu'il serait capable de comprendre et d'apprendre tout ce qu'un humain peut comprendre. Cela pourrait le rendre incroyablement puissant d'une manière qui n'a pas encore été pleinement explorée.
De plus, la lettre affirme qu'une planification et une gestion responsables entourant le développement de systèmes d'IA ne se produisent pas, "même si ces derniers mois ont vu l'IA des laboratoires enfermés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne - pas même leurs créateurs - ne peut comprendre, prédire ou de manière fiable contrôle."
Au lieu de cela, la lettre affirme que de nouveaux systèmes de gouvernance doivent être créés pour réglementer le développement de l'IA, aider les gens à distinguer ceux créés par l'IA et contenu créé par l'homme, tenir les laboratoires d'IA comme OpenAI responsables de tout dommage qu'ils causent, permettre à la société de faire face à la perturbation de l'IA (en particulier pour la démocratie), et plus.
Les auteurs terminent sur une note positive, affirmant que "l'humanité peut profiter d'un avenir florissant avec l'IA... dont nous récoltons les fruits, concevoir ces systèmes pour le bénéfice de tous et donner à la société une chance de s'adapter. Faire une pause sur les systèmes d'IA plus puissants que GPT-4 permettrait que cela se produise, déclarent-ils.
La lettre aura-t-elle l'effet escompté? C'est difficile à dire. Il existe clairement des incitations pour OpenAI à continuer à travailler sur des modèles avancés, à la fois financiers et réputationnels. Mais avec tant de risques potentiels – et avec très peu de compréhension de ceux-ci – les auteurs de la lettre estiment clairement que ces incitations sont trop dangereuses pour être poursuivies.
Recommandations des éditeurs
- Google Bard peut désormais parler, mais peut-il noyer ChatGPT?
- Le trafic du site ChatGPT a chuté pour la première fois
- 81 % pensent que ChatGPT est un risque pour la sécurité, selon une enquête
- J'ai appris à ChatGPT à m'apprendre les jeux de société, et maintenant je n'y retournerai plus
- Des avocats de New York condamnés à une amende pour avoir utilisé de faux cas ChatGPT dans un dossier juridique
Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde trépidant de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.