Microsoft behauptet, es habe eine neue Möglichkeit, die ethischen Grundsätze von ChatGPT einzuhalten

Als Microsoft im März 2023 sein Ethik- und Gesellschaftsteam für künstliche Intelligenz (KI) schloss, bekam es viel Kritik. Angesichts der Tatsache sah es nicht gut aus nahezu gleichzeitige Skandale Die KI verschlingt die KI, aber das Unternehmen hat gerade dargelegt, wie es seine künftigen Bemühungen verantwortungsbewusst und unter Kontrolle halten will.

In einem Beitrag auf Microsoft Auf dem Issues-BlogNatasha Crampton – Chief Responsible AI Officer des Redmonder Unternehmens – erklärte, dass das Ethikteam aufgelöst wurde denn „Ein einzelnes Team oder eine einzelne Disziplin, die mit verantwortungsvoller oder ethischer KI beauftragt ist, würde unseren Anforderungen nicht gerecht werden.“ Ziele.“

Bing Chat wird auf einem Laptop angezeigt.
Jacob Roach / Digitale Trends

Stattdessen hat Microsoft den Ansatz übernommen, den es mit seinen Teams für Datenschutz, Sicherheit und Barrierefreiheit gewählt hat, und „verantwortungsvolle KI eingebettet“. im gesamten Unternehmen.“ In der Praxis bedeutet dies, dass Microsoft leitende Mitarbeiter hat, die „die Aufgabe haben, die verantwortliche KI in jedem Kern voranzutreiben.“ Unternehmensgruppe“ sowie „ein großes Netzwerk verantwortungsbewusster KI-„Champions“ mit einer Reihe von Fähigkeiten und Rollen für eine regelmäßigere, direktere Engagement."

Verwandt

  • ChatGPT: die neuesten Nachrichten, Kontroversen und Tipps, die Sie wissen müssen
  • Was ist eine DAN-Eingabeaufforderung für ChatGPT?
  • Wix verwendet ChatGPT, um Ihnen beim schnellen Aufbau einer gesamten Website zu helfen

Darüber hinaus sagte Crampton, dass bei Microsoft „fast 350 Leute an verantwortungsvoller KI arbeiten, wobei etwas mehr als ein Drittel davon (genauer gesagt 129) sich ganztägig damit beschäftigen; Der Rest hat verantwortungsvolle KI-Verantwortung als Kernbestandteil seiner Arbeit.“

Empfohlene Videos

Nachdem Microsoft sein Ethik- und Gesellschaftsteam geschlossen hatte, stellte Crampton fest, dass einige Teammitglieder anschließend in Teams im gesamten Unternehmen integriert wurden. Allerdings wurden sieben Mitglieder der Gruppe im Rahmen des umfangreichen Stellenabbaus von Microsoft entlassen, der Anfang 2023 zur Entlassung von 10.000 Arbeitnehmern führte.

Skandale meistern

Bing Chat sagt, es möchte ein Mensch sein.
Jacob Roach / Digitale Trends

KI hat kaum frei von Skandalen gewesen in den letzten Monaten, und es sind diese Sorgen, die die Gegenreaktion gegen die Auflösung seines KI-Ethikteams durch Microsoft angeheizt haben. Wenn es Microsoft an einem engagierten Team mangelt, das dabei hilft, seine KI-Produkte in verantwortungsvolle Richtungen zu lenken, lautete die Überlegung: Es würde ihm schwerfallen, die Art von Missbrauch und fragwürdigem Verhalten einzudämmen, für die sein Bing-Chatbot berüchtigt ist für.

Der neueste Blogbeitrag des Unternehmens zielt sicherlich darauf ab, diese Bedenken in der Öffentlichkeit auszuräumen. Anstatt seine KI-Bemühungen ganz aufzugeben, scheint Microsoft vielmehr darauf bedacht zu sein, sicherzustellen, dass Teams im gesamten Unternehmen regelmäßigen Kontakt mit Experten für verantwortungsvolle KI haben.

Dennoch besteht kein Zweifel daran, dass die Schließung des AI Ethics & Society-Teams nicht gut angekommen ist, und die Chancen stehen gut, dass Microsoft noch einiges vor sich hat, um die öffentliche Meinung zu diesem Thema zu beruhigen. Tatsächlich glaubt sogar Microsoft selbst, dass ChatGPT – dessen Entwickler OpenAI Microsoft gehört – sollte geregelt werden.

Erst gestern hat Geoffrey Hinton – der „Pate der KI“ – Google verlassen und der New York Times gesagt, dass er es getan hat ernsthafte Bedenken über das Tempo und die Richtung der KI-Erweiterung, während eine Gruppe führender Technologieexperten kürzlich einen offenen Brief unterzeichnet hat, in dem sie dazu aufruft Pause bei der KI-Entwicklung damit die Risiken besser verstanden werden können.

Microsoft ignoriert möglicherweise nicht die Bedenken hinsichtlich einer ethischen KI-Entwicklung, aber es bleibt abzuwarten, ob sein neuer Ansatz der richtige ist oder nicht. Nach dem kontroversen Start von Bing Chat hoffen Natasha Crampton und ihre Kollegen, dass sich die Dinge zum Besseren wenden.

Empfehlungen der Redaktion

  • Top-Autoren verlangen von KI-Firmen eine Bezahlung für die Nutzung ihrer Arbeit
  • GPT-4: So verwenden Sie den KI-Chatbot, der ChatGPT in den Schatten stellt
  • Bing Chat wehrt sich gegen KI-Verbote am Arbeitsplatz
  • Google Bard kann jetzt sprechen, aber kann es ChatGPT übertönen?
  • Der ChatGPT-Hersteller OpenAI steht vor einer FTC-Untersuchung wegen Verbraucherschutzgesetzen

Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.