Microsoft fångade mycket när det lade ner sitt team för artificiell intelligens (AI) Ethics & Society i mars 2023. Det var inte ett bra utseende med tanke på nästan samtidiga skandaler uppslukar AI, men företaget har precis presenterat hur det avser att hålla sina framtida ansträngningar ansvarsfulla och i schack framöver.
I ett inlägg på Microsofts På Issues-bloggen, Natasha Crampton – Redmond-företagets Chief Responsible AI Officer – förklarade att etikteamet upplöstes eftersom "Ett enskilt team eller en enda disciplin med ansvar för ansvarsfull eller etisk AI skulle inte möta vår mål.”
Istället antog Microsoft det tillvägagångssätt som de har tagit med sina integritets-, säkerhets- och tillgänglighetsteam, och "inbäddad ansvarsfull AI över hela företaget." I praktiken betyder detta att Microsoft har senior personal "som har i uppdrag att leda ansvarig AI inom varje kärna affärsgrupp", samt "ett stort nätverk av ansvarsfulla AI-"mästare" med en rad kompetenser och roller för mer regelbundna, direkta engagemang."
Relaterad
- ChatGPT: de senaste nyheterna, kontroverserna och tipsen du behöver veta
- Vad är en DAN-prompt för ChatGPT?
- Wix använder ChatGPT för att hjälpa dig att snabbt bygga en hel webbplats
Utöver det sa Crampton att Microsoft har "nästan 350 personer som arbetar med ansvarsfull AI, med drygt en tredjedel av dem (129 för att vara exakt) dedikerade till det på heltid; resten har ansvarsfullt AI-ansvar som en central del av sina jobb.”
Rekommenderade videor
Efter att Microsoft stängt sitt Ethics & Society-team, noterade Crampton att några teammedlemmar därefter integrerades i team över hela företaget. Sju medlemmar i gruppen sparkades dock som en del av Microsofts omfattande nedskärningar av jobb som ledde till att 10 000 arbetare sades upp i början av 2023.
Navigerar i skandalerna
AI har knappast varit fri från skandaler under de senaste månaderna, och det är dessa bekymmer som underblåste motreaktionen mot Microsofts upplösning av sitt AI-etikteam. Om Microsoft saknade ett dedikerat team för att hjälpa sina AI-produkter i ansvarsfulla riktningar, gick tanken, det skulle kämpa för att begränsa de typer av övergrepp och tvivelaktigt beteende som dess Bing-chatbot har blivit ökänd för.
Företagets senaste blogginlägg syftar säkert till att lindra dessa farhågor bland allmänheten. I stället för att helt överge sina AI-ansträngningar verkar det som om Microsoft försöker se till att team över hela företaget har regelbunden kontakt med experter inom ansvarsfull AI.
Ändå råder det ingen tvekan om att det inte gick bra att stänga av sitt AI Ethics & Society-team, och det är troligt att Microsoft fortfarande har en bit kvar för att lätta på allmänhetens kollektiva sinne i detta ämne. Till och med Microsoft tror faktiskt att ChatGPT – vars utvecklare, OpenAI, ägs av Microsoft – bör regleras.
Alldeles igår slutade Geoffrey Hinton – "gudfadern till AI – Google och berättade för New York Times att han hade allvarliga farhågor om takten och riktningen för AI-expansion, medan en grupp ledande teknikexperter nyligen undertecknade ett öppet brev där de uppmanade till en paus i AI-utveckling så att dess risker bättre kan förstås.
Microsoft kanske inte bortser från oro för etisk AI-utveckling, men om dess nya tillvägagångssätt är det rätta eller inte återstår att se. Efter den kontroversiella starten som Bing Chat har fått utstå kommer Natasha Crampton och hennes kollegor att hoppas att saker och ting kommer att förändras till det bättre.
Redaktörens rekommendationer
- Toppförfattare kräver betalning från AI-företag för att de använder deras arbete
- GPT-4: hur man använder AI-chatboten som gör ChatGPT på skam
- Bing Chat slår tillbaka mot arbetsplatsförbud mot AI
- Google Bard kan nu tala, men kan det överrösta ChatGPT?
- ChatGPT-tillverkaren OpenAI står inför FTC-utredning över konsumentskyddslagar
Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.