Microsoft affirme avoir une nouvelle façon de maintenir ChatGPT éthique

Microsoft a reçu de nombreuses critiques lorsqu'il a fermé son équipe d'éthique et de société d'intelligence artificielle (IA) en mars 2023. Ce n'était pas un bon aperçu étant donné le scandales quasi simultanés engloutissant l’IA, mais l’entreprise vient d’exposer comment elle entend garder ses efforts futurs responsables et sous contrôle à l’avenir.

Dans un article sur Microsoft Sur le blog Enjeux, Natasha Crampton – directrice responsable de l'IA de la société de Redmond – a expliqué que l'équipe d'éthique avait été dissoute car « une seule équipe ou une seule discipline chargée d’une IA responsable ou éthique n’allait pas répondre à nos attentes ». objectifs."

Bing Chat affiché sur un ordinateur portable.
Jacob Roach / Tendances numériques

Au lieu de cela, Microsoft a adopté l'approche qu'il a adoptée avec ses équipes de confidentialité, de sécurité et d'accessibilité, et « a intégré une IA responsable ». dans toute l’entreprise. » En pratique, cela signifie que Microsoft dispose de cadres supérieurs « chargés de diriger une IA responsable au sein de chaque noyau ». business group », ainsi que « un vaste réseau de « champions » responsables de l’IA dotés d’une gamme de compétences et de rôles pour des actions plus régulières et directes. fiançailles."

En rapport

  • ChatGPT: les dernières actualités, controverses et astuces à connaître
  • Qu'est-ce qu'une invite DAN pour ChatGPT?
  • Wix utilise ChatGPT pour vous aider à créer rapidement un site Web complet

Au-delà de cela, Crampton a déclaré que Microsoft compte « près de 350 personnes travaillant sur l’IA responsable, dont un peu plus d’un tiers (129 pour être précis) y sont dédiés à temps plein; les autres ont des responsabilités responsables en matière d’IA au cœur de leur travail.

Vidéos recommandées

Après que Microsoft ait fermé son équipe Éthique et société, Crampton a noté que certains membres de l'équipe avaient ensuite été intégrés dans des équipes à travers l'entreprise. Cependant, sept membres du groupe ont été licenciés dans le cadre des vastes suppressions d’emplois de Microsoft qui ont entraîné le licenciement de 10 000 travailleurs début 2023.

Naviguer dans les scandales

Bing Chat disant qu'il veut être humain.
Jacob Roach / Tendances numériques

L'IA a à peine été exempt de scandales ces derniers mois, et ce sont ces inquiétudes qui ont alimenté la réaction contre la dissolution par Microsoft de son équipe d’éthique de l’IA. Si Microsoft manquait d’une équipe dédiée pour l’aider à orienter ses produits d’IA dans des directions responsables, la réflexion était la suivante: il aurait du mal à réduire les types d'abus et de comportements douteux dont son chatbot Bing est devenu notoire pour.

Le dernier article de blog de l’entreprise vise sûrement à apaiser ces inquiétudes du public. Plutôt que d’abandonner complètement ses efforts en matière d’IA, il semble que Microsoft cherche à garantir que les équipes de l’entreprise aient des contacts réguliers avec des experts en IA responsable.

Néanmoins, il ne fait aucun doute que la fermeture de son équipe AI Ethics & Society ne s’est pas bien déroulée, et il est probable que Microsoft ait encore du chemin à parcourir pour apaiser l’esprit collectif du public sur ce sujet. En effet, même Microsoft lui-même pense que ChatGPT – dont le développeur, OpenAI, appartient à Microsoft – devrait être réglementé.

Hier encore, Geoffrey Hinton – le « parrain de l’IA – a quitté Google et a déclaré au New York Times qu’il avait de sérieuses appréhensions sur le rythme et l'orientation de l'expansion de l'IA, tandis qu'un groupe d'experts technologiques de premier plan a récemment signé une lettre ouverte appelant à un pause sur le développement de l'IA afin que ses risques puissent être mieux compris.

Microsoft ne néglige peut-être pas les inquiétudes concernant le développement éthique de l’IA, mais il reste à voir si sa nouvelle approche est la bonne ou non. Après le début controversé de Bing Chat, Natasha Crampton et ses collègues espèrent que les choses vont changer pour le mieux.

Recommandations des rédacteurs

  • Les meilleurs auteurs exigent une rémunération des entreprises d’IA pour l’utilisation de leurs travaux
  • GPT-4: comment utiliser le chatbot IA qui fait honte à ChatGPT
  • Bing Chat lutte contre les interdictions de l'IA sur le lieu de travail
  • Google Bard peut désormais parler, mais peut-il étouffer ChatGPT?
  • Le créateur de ChatGPT, OpenAI, fait face à une enquête de la FTC sur les lois sur la protection des consommateurs

Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde en évolution rapide de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.