Tekoälyn kummisetä jättää Googlen puhuakseen vapaammin tekniikasta

Tekoälyn pioneeri Geoffrey Hinton yllätti monet maanantaina, kun hän paljasti lopettaneensa työnsä Googlella, jossa hän työskenteli viimeisen vuosikymmenen ajan tekoälyprojekteissa.

Brittisyntyinen Hinton, nyt 75, kutsutaan usein "AI-kummisetä" hänen uraauurtavan työnsä vuoksi, joka tukee monia tämän päivän tekoälyjärjestelmiä. kertoi New York Timesille että hän on vakavasti huolissaan Open AI: n kaltaisten tahojen nopeudesta ChatGPT työkalu ja Google kanssa Bard, työskentelevät kehittääkseen tuotteitaan, varsinkin koska se voi tapahtua turvallisuuden kustannuksella.

Suositellut videot

Hinton on niin huolissaan, että hän jopa sanoi, että osa hänestä katuu aikaisempia ponnistelujaan tekoälyn alalla, Times raportoi.

Liittyvät

  • GPT-4: kuinka käyttää AI-chatbotia, joka saa ChatGPT: n häpeään
  • Parhaat AI-videonmuokkaustyökalut
  • ChatGPT-valmistaja OpenAI kohtaa FTC: n tutkinnan kuluttajansuojalaeista

Kuten raportissa todetaan, generatiiviset tekoälytyökalut ovat jo siirtymässä ihmistyöntekijöiden korvaamiseen, ja teknologiaa voidaan käyttää myös väärän tiedon luomiseen ja levittämiseen.

Itse asiassa yksi Hintonin huolenaiheista on se, että Internet, jonka tietoja käytetään generatiivisten tekoälytyökalujen kouluttamiseen, tulvii. väärillä tiedoilla, jotka voivat saada chatbotit, kuten ChatGPT ja Bard sylkemään loputtomia valheita tavalla, joka kuulostaa uskottava.

Kun teknologian takana olevat yritykset julkaisevat tekoälyllä toimivat työkalunsa julkiseen käyttöön tietämättään täysin niitä Hinton pelkää, että "on vaikea ymmärtää, kuinka voit estää huonoja näyttelijöitä käyttämästä sitä huonoon asioita.”

Hinton sanoi, että teknologian säänteleminen tulee olemaan vaikeaa, koska yritykset ja hallitukset voivat työskennellä tekniikan parissa salainen ja lisäsi, että yksi tapa käsitellä asiaa on yrittää saada johtavat tiedemiehet työskentelemään yhdessä keinojen hallitsemiseksi. teknologiaa.

Tekoälyasiantuntija sanoi maanantaina Twitterissä, että hän päätti erota Googlesta voidakseen "puhua tekoälyn vaaroista" ottamatta huomioon, miten tämä vaikuttaa Googleen", mikä viittaa siihen, että kuulemme hänestä paljon lisää, kun tekniikka jatkaa kehittää.

Ilmaisi vielä suurempia huolenaiheita viime kuussa, kun sitä pyydettiin sisään CBS: n haastattelussa Tekoälyn todennäköisyydestä "pyyhkii pois ihmiskunnan", Hinton sanoi: "Se ei ole mahdotonta."

Googlen johtava tutkija Jeff Dean sanoi Hintonin lähdön jälkeen lausunnossaan: "Olemme edelleen sitoutuneet vastuulliseen lähestymistapaan tekoälyyn. Opimme jatkuvasti ymmärtämään nousevia riskejä samalla kun innovoimme rohkeasti."

Hinton ei ole ainoa asiantuntija, joka ilmaisee huolensa tekoälyteknologian uudesta aallosta, joka on valloittanut maailman myrskyn.

Ehkä yllättäen OpenAI: n pomo Sam Altman myönsi sen hiljattain olla "hieman peloissaan" tekoälytekniikan mahdollisista vaikutuksista.

Ja maaliskuussa kirje Teknisten johtajien ja tutkijoiden allekirjoittama väitti, että tekniikka aiheuttaa "syviä riskejä yhteiskunnalle ja ihmiskunnalle".

Future of Life Instituten julkaisema kirje, jonka allekirjoittajien joukossa oli Elon Musk, vaati kuuden kuukauden määräaikaa. keskeytä kehitystyö, jotta edistyneille käyttäjille jää aikaa turvaprotokollien luomiseen ja käyttöönottoon työkaluja.

Se lisäsi, että jos sitä käsitellään oikein, ihmiskunta voi "nauttia kukoistavasta tulevaisuudesta tekoälyn kanssa".

Toimittajien suositukset

  • Huippukirjailijat vaativat tekoälyyrityksiltä maksua työnsä käytöstä
  • Wix käyttää ChatGPT: tä auttaakseen sinua rakentamaan nopeasti koko verkkosivuston
  • Google Bard voi nyt puhua, mutta voiko se tukahduttaa ChatGPT: n?
  • Elon Muskin uuden tekoälyyrityksen tavoitteena on "ymmärtää maailmankaikkeus"
  • ChatGPT-verkkosivustojen liikenne on laskenut ensimmäistä kertaa

Päivitä elämäntapasiDigital Trends auttaa lukijoita pysymään tekniikan nopeatempoisessa maailmassa uusimpien uutisten, hauskojen tuotearvostelujen, oivaltavien toimitusten ja ainutlaatuisten kurkistusten avulla.