Teorien bak maskinlæringsverktøy som er som nevrale nettverk er at de fungerer og mer spesifikt lærer på en lignende måte som den menneskelige hjernen. Akkurat som vi oppdager verden gjennom prøving og feiling, gjør også moderne kunstig intelligens det. I praksis er ting imidlertid litt annerledes. Det er aspekter ved barndomslæring som maskiner ikke kan replikere - og de er en av tingene som på mange områder gjør mennesker til overlegne lærende.
Forskere ved New York University jobber med å endre det. Forskere Kanishk Gandhi og Brendensjøen har undersøkt hvordan noe som kalles «gjensidig eksklusivitetsbias», som er tilstede hos barn, kan bidra til å gjøre A.I. bedre når det gjelder å lære oppgaver som å forstå språk.
Anbefalte videoer
"Når barn forsøker å lære et nytt ord, er de avhengige av induktive skjevheter for å begrense plassen til mulige betydninger, sier Gandhi, en doktorgradsstudent ved New York Universitys Human & Machine Learning Lab, til Digital Trender. «Gjensidig eksklusivitet (ME) er en tro på at barn har at hvis en gjenstand har ett navn, kan den ikke ha et annet. Gjensidig eksklusivitet hjelper oss med å forstå betydningen av et nytt ord i tvetydige sammenhenger. For eksempel, [hvis] barn blir bedt om å 'vis meg dax' når de blir presentert for en kjent og en ukjent gjenstand, har de en tendens til å velge den ukjente.»
I slekt
- Disse geniale ideene kan bidra til å gjøre AI litt mindre ond
- Meta laget DALL-E for video, og det er både skummelt og fantastisk
- Optiske illusjoner kan hjelpe oss med å bygge neste generasjon AI
Forskerne ønsket å utforske et par ideer med arbeidet sitt. Den ene var å undersøke om dyplæringsalgoritmer trent ved bruk av vanlige læringsparadigmer ville resonnere med gjensidig eksklusivitet. De ønsket også å se om resonnement med gjensidig eksklusivitet ville hjelpe til med å lære algoritmer i oppgaver som ofte håndteres ved hjelp av dyp læring.
For å utføre disse undersøkelsene trente forskerne først 400 nevrale nettverk til å assosiere ordpar med betydningen deres. Nevralnettene ble deretter testet på 10 ord de aldri hadde sett før. De spådde at nye ord sannsynligvis ville tilsvare kjente betydninger i stedet for ukjente. Dette tyder på at A.I. har ikke en eksklusivitetsskjevhet. Deretter analyserte forskerne datasett som hjelper A.I. å oversette språk. Dette bidro til å vise at eksklusivitetsskjevhet ville være fordelaktig for maskiner.
"Våre resultater viser at disse egenskapene er dårlig tilpasset strukturen til vanlige maskinlæringsoppgaver," fortsatte Gandhi. «ME kan brukes som en pekepinn for generalisering i vanlige oversettelses- og klassifiseringsoppgaver, spesielt i de tidlige stadiene av opplæringen. Vi tror at å vise skjevheten vil hjelpe å lære algoritmer til å lære på raskere og mer tilpasningsdyktige måter.»
Som Gandhi og Lake skrive i et papir som beskriver arbeidet deres: "Sterke induktive skjevheter lar barn lære på raske og tilpasningsdyktige måter... Det er en overbevisende argument for utforming av nevrale nettverk som er grunn til gjensidig eksklusivitet, noe som fortsatt er åpent utfordring."
Redaktørenes anbefalinger
- Apples ChatGPT-rival kan automatisk skrive kode for deg
- Photoshop AI mener «lykke» er et smil med råtne tenner
- Jeg presenterte min latterlige oppstartside til en robot-VC
- Hvordan vil vi vite når en AI faktisk blir sansende?
- Microsoft slutter med sin skumle, følelseslesende A.I.
Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.