Hvis de personer, der er helt i front inden for kunstig intelligens-teknologi, udtaler sig om potentielt katastrofale effekter af meget intelligente AI-systemer, så er det nok klogt at sætte sig op og tage varsel.
For blot et par måneder siden sagde Geoffrey Hinton, en mand, der betragtes som en af AI's "gudfædre" for sit banebrydende arbejde på området, at teknologiens hurtige udviklingshastighed betød, at det "ikke var utænkeligt" at superintelligent AI – der anses for at være overlegen i forhold til det menneskelige sind – kunne ende med at udslette menneskeheden.
Anbefalede videoer
Og Sam Altman, CEO for OpenAI, firmaet bag den virale ChatGPT chatbot, havde indrømmet at være "en lille smule bange" for de potentielle effekter af avancerede AI-systemer på samfundet.
Relaterede
- ChatGPT-producenten OpenAI står over for FTC-undersøgelse over forbrugerbeskyttelseslove
- ChatGPT-webstedets trafik er faldet for første gang
- Jeg lærte ChatGPT at lære mig brætspil, og nu vil jeg aldrig vende tilbage
Altman er så bekymret, at hans firma onsdag meddelte, at det er ved at oprette en ny enhed kaldet Superalignment rettet mod at sikre, at superintelligent AI ikke ender med at forårsage kaos eller noget langt væk værre.
"Superintelligens vil være den mest virkningsfulde teknologi, menneskeheden nogensinde har opfundet, og den kan hjælpe os med at løse mange af verdens vigtigste problemer," sagde OpenAI i et indlæg, der introducerer det nye tiltag. "Men superintelligensens enorme magt kan også være meget farlig og kan føre til at menneskeheden mister magten eller endda menneskelig udryddelse."
OpenAI sagde, at selvom superintelligent AI kan virke som om det er en vej væk, tror det, at det kan udvikles i 2030. Og det indrømmer let, at der på nuværende tidspunkt ikke eksisterer noget system "til at styre eller kontrollere en potentielt superintelligent AI og forhindre den i at blive useriøs."
For at håndtere situationen ønsker OpenAI at bygge en "omtrent på menneskeligt niveau automatiseret alignment researcher", der vil udføre sikkerhedstjek på en superintelligent AI og tilføjer, at håndtering af disse risici også vil kræve nye institutioner til styring og løsning af problemet med superintelligens justering.
For at Superalignment skal have en effekt, er OpenAI nødt til at samle et crack-team af top maskinlæringsforskere og ingeniører.
Virksomheden fremstår meget ærlig omkring sin indsats og beskriver den som et "utrolig ambitiøs mål", samtidig med at den indrømmer, at det er "ikke garanteret at lykkes." Men det tilføjer, at det er "optimistisk, at en fokuseret, samlet indsats kan løse dette problem."
Nye AI-værktøjer som OpenAIs ChatGPT og Googles Bard blandt mange andre er så revolutionerende, at eksperter er sikre at selv på dette præ-superintelligens niveau står arbejdspladsen og det bredere samfund over for fundamentale ændringer i den nærmeste semester.
Det er grunden til, at regeringer rundt om i verden kæmper for at spille indhentning og skynder sig at indføre regler om den hastigt udviklende AI-industri i et forsøg på at sikre, at teknologien implementeres på et sikkert og ansvarligt måde. Medmindre der dannes et enkelt organ, vil hvert land dog have sit eget syn på, hvordan teknologien bedst kan bruges, hvilket betyder, at disse regler kan variere meget og føre til markant forskellige resultater. Og det er disse forskellige tilgange, der vil gøre Superalignments mål desto sværere at nå.
Redaktørens anbefalinger
- Google Bard kan nu tale, men kan den overdøve ChatGPT?
- Elon Musks nye AI-virksomhed har til formål at 'forstå universet'
- OpenAI afslører placeringen af sin første internationale forpost
- NY advokater idømt bøder for at bruge falske ChatGPT-sager i juridisk kortfattethed
- Denne webbrowser integrerer ChatGPT på en fascinerende ny måde
Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.