Microsoft apgalvo, ka tai ir jauns veids, kā uzturēt ChatGPT ētisku

Microsoft 2023. gada martā slēdza savu mākslīgā intelekta (AI) ētikas un sabiedrības komandu, kas pārņēma lielas kļūdas. Ņemot vērā to, tas nebija labs izskats gandrīz vienlaicīgi skandāli pārņemt AI, taču uzņēmums tikko ir izklāstījis, kā tas plāno turpmākos centienus nodrošināt atbildīgi un kontrolēt turpmāko darbību.

Ziņojumā par Microsoft Emuārā Problēmas, Nataša Kramptone — Redmondas firmas galvenā atbildīgā AI amatpersona — paskaidroja, ka ētikas komanda tika likvidēta. jo “viena komanda vai viena disciplīna, kuras uzdevums bija nodrošināt atbildīgu vai ētisku AI, neatbildīs mūsu prasībām mērķi.”

Bing Chat tiek rādīts klēpjdatorā.
Jēkabs Ročs / Digitālās tendences

Tā vietā Microsoft izmantoja pieeju, ko tā ir izmantojusi ar savām privātuma, drošības un pieejamības komandām, un “iegulto atbildīgo AI visā uzņēmumā." Praksē tas nozīmē, ka Microsoft ir vadošais personāls, kura uzdevums ir vadīt atbildīgu AI katrā kodolā biznesa grupa”, kā arī “liels atbildīgu AI “čempionu” tīkls ar dažādām prasmēm un lomām regulārākai, tiešākai saderināšanās.”

Saistīts

  • ChatGPT: jaunākās ziņas, strīdi un padomi, kas jums jāzina
  • Kas ir DAN uzvedne ChatGPT?
  • Wix izmanto ChatGPT, lai palīdzētu ātri izveidot visu vietni

Turklāt Kramptons teica, ka Microsoft ir “gandrīz 350 cilvēku, kas strādā pie atbildīga AI, no kuriem tikai nedaudz vairāk nekā trešdaļa (precīzāk 129) ir veltīti tam pilnu slodzi; pārējiem ir atbildīgi AI pienākumi, kas ir viņu darba galvenā sastāvdaļa.

Ieteiktie videoklipi

Pēc tam, kad Microsoft slēdza savu ētikas un sabiedrības komandu, Kramptons atzīmēja, ka daži komandas locekļi pēc tam tika iekļauti komandās visā uzņēmumā. Tomēr septiņi grupas dalībnieki tika atlaisti saistībā ar Microsoft plašo darba vietu samazināšanu, kuras rezultātā 2023. gada sākumā tika atlaisti 10 000 darbinieku.

Navigācija skandālos

Bing Chat saka, ka vēlas būt cilvēks.
Jēkabs Ročs / Digitālās tendences

AI ir diez vai ir bijis brīvs no skandāliem pēdējos mēnešos, un tieši šīs bažas izraisīja pretreakciju pret Microsoft AI ētikas komandas likvidēšanu. Ja Microsoft trūka īpašas komandas, kas palīdzētu virzīt savus AI produktus atbildīgos virzienos, domāšana bija tai būtu grūti samazināt ļaunprātīgas izmantošanas veidus un apšaubāmu uzvedību, ko tā Bing tērzēšanas robots ir kļuvis bēdīgi slavens priekš.

Uzņēmuma jaunākā emuāra ieraksta mērķis noteikti ir mazināt šīs sabiedrības bažas. Tā vietā, lai pilnībā atteiktos no AI centieniem, šķiet, ka Microsoft cenšas nodrošināt, lai komandas visā uzņēmumā regulāri sazinās ar atbildīgiem AI ekspertiem.

Tomēr nav šaubu, ka AI ētikas un sabiedrības komandas slēgšana nebija veiksmīga, un, iespējams, Microsoft joprojām ir darāmā, lai atvieglotu sabiedrības kopējo prātu par šo tēmu. Patiešām, pat pati Microsoft uzskata, ka ChatGPT, kuras izstrādātājs OpenAI pieder Microsoft, būtu jāregulē.

Tieši vakar Džefrijs Hintons — “AI krusttēvs — pameta Google un pastāstīja New York Times, ka ir nopietnas bažas par AI paplašināšanās tempu un virzienu, savukārt vadošo tehnoloģiju ekspertu grupa nesen parakstīja atklātu vēstuli, aicinot pauze AI attīstībā lai tās riskus varētu labāk izprast.

Microsoft, iespējams, neņem vērā bažas par ētisku mākslīgā intelekta attīstību, taču, vai tā jaunā pieeja ir pareizā, vēl ir redzams. Pēc pretrunīgi vērtētā Bing Chat sākuma Nataša Kramptone un viņas kolēģi cerēs, ka lietas mainīsies uz labo pusi.

Redaktoru ieteikumi

  • Labākie autori pieprasa samaksu no AI firmām par viņu darba izmantošanu
  • GPT-4: kā izmantot AI tērzēšanas robotu, kas padara ChatGPT kaunā
  • Bing Chat cīnās pret AI aizliegumiem darba vietā
  • Google Bard tagad var runāt, bet vai tas var noslāpēt ChatGPT?
  • ChatGPT veidotājs OpenAI saskaras ar FTC izmeklēšanu par patērētāju aizsardzības likumiem

Uzlabojiet savu dzīvesveiduDigitālās tendences palīdz lasītājiem sekot līdzi steidzīgajai tehnoloģiju pasaulei, izmantojot visas jaunākās ziņas, jautrus produktu apskatus, ieskatu saturošus rakstus un unikālus ieskatus.