Microsoft afirma que tiene una nueva forma de mantener la ética de ChatGPT

Microsoft recibió muchas críticas cuando cerró su equipo de Ética y Sociedad de inteligencia artificial (IA) en marzo de 2023. No fue una buena mirada dada la escándalos casi simultáneos envolviendo la IA, pero la compañía acaba de exponer cómo pretende mantener sus esfuerzos futuros responsables y bajo control en el futuro.

En una publicación de Microsoft En el blog de problemas, Natasha Crampton, directora responsable de IA de la empresa de Redmond, explicó que el equipo de ética se disolvió. porque “Un solo equipo o una sola disciplina encargada de una IA responsable o ética no iba a cumplir con nuestros objetivos”. objetivos”.

Bing Chat mostrado en una computadora portátil.
Jacob Roach / Tendencias digitales

En cambio, Microsoft adoptó el enfoque que adoptó con sus equipos de privacidad, seguridad y accesibilidad, e “integró IA responsable en toda la empresa”. En la práctica, esto significa que Microsoft tiene personal senior “encargado de encabezar la IA responsable dentro de cada núcleo”. grupo empresarial", así como "una gran red de" campeones "de IA responsables con una variedad de habilidades y roles para tareas más regulares y directas. compromiso."

Relacionado

  • ChatGPT: las últimas noticias, controversias y consejos que necesitas saber
  • ¿Qué es un mensaje DAN para ChatGPT?
  • Wix usa ChatGPT para ayudarte a crear rápidamente un sitio web completo

Más allá de eso, Crampton dijo que Microsoft tiene “casi 350 personas trabajando en IA responsable, de las cuales poco más de un tercio (129 para ser precisos) se dedican a ello a tiempo completo; el resto tiene responsabilidades responsables de IA como parte central de sus trabajos”.

Vídeos recomendados

Después de que Microsoft cerró su equipo de Ética y Sociedad, Crampton señaló que algunos miembros del equipo fueron posteriormente integrados en equipos de toda la empresa. Sin embargo, siete miembros del grupo fueron despedidos como parte de los amplios recortes de empleo de Microsoft que provocaron el despido de 10.000 trabajadores a principios de 2023.

Navegando por los escándalos

Bing Chat dice que quiere ser humano.
Jacob Roach / Tendencias digitales

la IA tiene apenas ha estado libre de escándalos en los últimos meses, y son esas preocupaciones las que alimentaron la reacción contra la disolución de su equipo de ética de IA por parte de Microsoft. Si Microsoft carecía de un equipo dedicado que ayudara a guiar sus productos de IA en direcciones responsables, se pensaba: Tendría dificultades para reducir los tipos de abusos y comportamientos cuestionables que su chatbot de Bing se ha vuelto notorio. para.

La última publicación del blog de la compañía seguramente tiene como objetivo aliviar esas preocupaciones entre el público. En lugar de abandonar por completo sus esfuerzos en IA, parece que Microsoft busca garantizar que los equipos de toda la empresa tengan contacto regular con expertos en IA responsable.

Aún así, no hay duda de que cerrar su equipo de Ética y Sociedad de IA no fue bien recibido, y es probable que Microsoft todavía tenga mucho camino por recorrer para tranquilizar la mente colectiva del público sobre este tema. De hecho, incluso el propio Microsoft cree que ChatGPT (cuyo desarrollador, OpenAI, es propiedad de Microsoft) debe ser regulado.

Ayer mismo, Geoffrey Hinton, el “padrino de la IA”, abandonó Google y le dijo al New York Times que había serios recelos sobre el ritmo y la dirección de la expansión de la IA, mientras que un grupo de destacados expertos en tecnología firmó recientemente una carta abierta pidiendo una pausa en el desarrollo de la IA para que sus riesgos puedan entenderse mejor.

Puede que Microsoft no esté ignorando las preocupaciones sobre el desarrollo ético de la IA, pero aún está por verse si su nuevo enfoque es el correcto o no. Después del controvertido comienzo que ha sufrido Bing Chat, Natasha Crampton y sus colegas esperan que las cosas cambien para mejor.

Recomendaciones de los editores

  • Los principales autores exigen un pago a las empresas de inteligencia artificial por utilizar su trabajo
  • GPT-4: cómo utilizar el chatbot de IA que avergüenza a ChatGPT
  • Bing Chat lucha contra las prohibiciones de IA en el lugar de trabajo
  • Google Bard ahora puede hablar, pero ¿puede ahogar a ChatGPT?
  • OpenAI, fabricante de ChatGPT, se enfrenta a una investigación de la FTC sobre las leyes de protección al consumidor

Mejora tu estilo de vidaDigital Trends ayuda a los lectores a mantenerse al tanto del vertiginoso mundo de la tecnología con las últimas noticias, reseñas divertidas de productos, editoriales interesantes y adelantos únicos.