OpenAI bygger nytt team för att förhindra att framtida AI blir oseriös

Om de individer som ligger i framkanten av artificiell intelligens-teknologi kommenterar potentiellt katastrofala effekter av högintelligenta AI-system, då är det förmodligen klokt att sätta sig upp och ta lägga märke till.

För bara ett par månader sedan sa Geoffrey Hinton, en man som anses vara en av AI: s "gudfäder" för sitt banbrytande arbete på området, att teknikens snabba utvecklingstakt menade att det inte var otänkbart att superintelligent AI – som anses vara överlägsen det mänskliga sinnet – skulle kunna utplåna mänskligheten.

Rekommenderade videor

Och Sam Altman, vd för OpenAI, företaget bakom den virala ChatGPT chatboten, hade erkänt att han var "lite rädd" om de potentiella effekterna av avancerade AI-system på samhället.

Relaterad

  • ChatGPT-tillverkaren OpenAI står inför FTC-utredning över konsumentskyddslagar
  • ChatGPTs webbplatstrafik har minskat för första gången
  • Jag lärde mig ChatGPT för att lära mig brädspel, och nu kommer jag aldrig att gå tillbaka

Altman är så oroad att hans företag på onsdagen tillkännagav att det skulle inrätta en ny enhet som heter Superalignment syftar till att säkerställa att superintelligent AI inte orsakar kaos eller något långt borta värre.

"Superintelligens kommer att vara den mest effektfulla teknik som mänskligheten någonsin har uppfunnit och kan hjälpa oss att lösa många av världens viktigaste problem," sa OpenAI i ett inlägg som presenterar det nya initiativet. "Men superintelligensens enorma kraft kan också vara mycket farlig och kan leda till att mänskligheten försvagas eller till och med mänsklig utrotning."

OpenAI sa att även om superintelligent AI kan verka som om det är en väg bort, tror de att det kan utvecklas till 2030. Och det erkänner lätt att det för närvarande inte finns något system "för att styra eller kontrollera en potentiellt superintelligent AI och förhindra att den blir oseriös."

För att hantera situationen vill OpenAI bygga en "ungefär mänsklig nivå automatiserad anpassningsforskare" som skulle utföra säkerhetskontroller på en superintelligent AI, och tillade att hantering av dessa risker också kommer att kräva nya institutioner för styrning och för att lösa problemet med superintelligens inriktning.

För att Superalignment ska ha effekt måste OpenAI sammansätta ett sprickteam av toppforskare och ingenjörer inom maskininlärning.

Företaget verkar väldigt uppriktigt om sin insats och beskriver det som ett "otroligt ambitiöst mål" samtidigt som det medger att det är "inte garanterat att lyckas." Men den tillägger att det är "optimistiskt att en fokuserad, samlad insats kan lösa detta problem."

Nya AI-verktyg som OpenAIs ChatGPT och Googles Bard, bland många andra, är så revolutionerande att experter är säkra att även på denna pre-superintelligensnivå står arbetsplatsen och samhället i stort inför grundläggande förändringar i den närmaste termin.

Det är därför regeringar runt om i världen kämpar för att komma ikapp, och skyndar sig att införa bestämmelser om den snabbt växande AI-industrin i ett försök att säkerställa att tekniken distribueras på ett säkert och ansvarsfullt sätt sätt. Men om inte ett enda organ bildas kommer varje land att ha sina egna åsikter om hur tekniken bäst ska användas, vilket innebär att dessa regler kan variera kraftigt och leda till markant olika resultat. Och det är dessa olika tillvägagångssätt som kommer att göra Superalignments mål desto svårare att uppnå.

Redaktörens rekommendationer

  • Google Bard kan nu tala, men kan det överrösta ChatGPT?
  • Elon Musks nya AI-företag syftar till att "förstå universum"
  • OpenAI avslöjar platsen för sin första internationella utpost
  • New Yorks advokater bötfälldes för att ha använt falska ChatGPT-fall i juridisk korthet
  • Denna webbläsare integrerar ChatGPT på ett fascinerande nytt sätt

Uppgradera din livsstilDigitala trender hjälper läsarna att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.