A Microsoft afirma que tem uma nova maneira de manter a ética do ChatGPT

A Microsoft foi alvo de muitas críticas quando fechou sua equipe de Ética e Sociedade de inteligência artificial (IA) em março de 2023. Não foi uma boa aparência, dada a escândalos quase simultâneos engolindo a IA, mas a empresa acaba de expor como pretende manter seus esforços futuros responsáveis ​​e sob controle no futuro.

Em uma postagem no site da Microsoft No blog Problemas, Natasha Crampton – a diretora responsável de IA da empresa Redmond – explicou que a equipe de ética foi dissolvida porque “Uma única equipe ou uma única disciplina encarregada de IA responsável ou ética não iria atender aos nossos Objetivos."

Bing Chat mostrado em um laptop.
Jacob Roach / Tendências Digitais

Em vez disso, a Microsoft adotou a abordagem adotada com suas equipes de privacidade, segurança e acessibilidade e “incorporou IA responsável em toda a empresa.” Na prática, isso significa que a Microsoft tem funcionários seniores “encarregados de liderar a IA responsável em cada núcleo grupo empresarial”, bem como “uma grande rede de “campeões” de IA responsáveis, com uma variedade de habilidades e funções para ações mais regulares e diretas. noivado."

Relacionado

  • ChatGPT: as últimas notícias, polêmicas e dicas que você precisa saber
  • O que é um prompt DAN para ChatGPT?
  • Wix usa ChatGPT para ajudá-lo a construir rapidamente um site inteiro

Além disso, Crampton disse que a Microsoft tem “quase 350 pessoas trabalhando em IA responsável, com pouco mais de um terço delas (129 para ser mais preciso) dedicadas a ela em tempo integral; o restante tem responsabilidades responsáveis ​​de IA como parte essencial de seus trabalhos.”

Vídeos recomendados

Depois que a Microsoft fechou sua equipe de Ética e Sociedade, Crampton observou que alguns membros da equipe foram posteriormente integrados em equipes de toda a empresa. No entanto, sete membros do grupo foram demitidos como parte dos extensos cortes de empregos da Microsoft, que resultaram na demissão de 10.000 trabalhadores no início de 2023.

Navegando nos escândalos

Bing Chat dizendo que quer ser humano.
Jacob Roach / Tendências Digitais

IA tem dificilmente esteve livre de escândalos nos últimos meses, e foram essas preocupações que alimentaram a reação contra a dissolução da equipe de ética de IA da Microsoft. Se a Microsoft não tivesse uma equipe dedicada para ajudar a orientar seus produtos de IA em direções responsáveis, pensava-se: teria dificuldade para reduzir os tipos de abusos e comportamento questionável que seu chatbot do Bing se tornou notório para.

A última postagem no blog da empresa certamente visa aliviar essas preocupações do público. Em vez de abandonar totalmente os seus esforços de IA, parece que a Microsoft está a tentar garantir que as equipas de toda a empresa tenham contacto regular com especialistas em IA responsável.

Ainda assim, não há dúvida de que o encerramento de sua equipe de Ética e Sociedade de IA não foi bem recebido, e é provável que a Microsoft ainda tenha um caminho a percorrer para acalmar a mente coletiva do público sobre esse assunto. Na verdade, até a própria Microsoft pensa que o ChatGPT – cujo desenvolvedor, OpenAI, é propriedade da Microsoft – deveria ser regulamentado.

Ontem mesmo, Geoffrey Hinton — o “padrinho da IA ​​— saiu do Google e disse ao New York Times que havia sérias dúvidas sobre o ritmo e a direção da expansão da IA, enquanto um grupo de importantes especialistas em tecnologia assinou recentemente uma carta aberta pedindo uma pausa no desenvolvimento de IA para que seus riscos possam ser melhor compreendidos.

A Microsoft pode não estar desconsiderando as preocupações sobre o desenvolvimento ético da IA, mas ainda não se sabe se a sua nova abordagem é a correta ou não. Depois do polêmico início do Bing Chat, Natasha Crampton e seus colegas esperam que as coisas mudem para melhor.

Recomendações dos Editores

  • Os principais autores exigem pagamento de empresas de IA pelo uso de seu trabalho
  • GPT-4: como usar o chatbot AI que envergonha o ChatGPT
  • O Bing Chat luta contra as proibições de IA no local de trabalho
  • O Google Bard agora pode falar, mas será que pode abafar o ChatGPT?
  • OpenAI, fabricante do ChatGPT, enfrenta investigação da FTC sobre leis de proteção ao consumidor

Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.