Inlärningsbias hos barn kan göra A.I. Teknik bättre

click fraud protection

Teorin bakom verktyg för maskininlärning som är som neurala nätverk är att de fungerar och mer specifikt lär sig på ett liknande sätt som den mänskliga hjärnan. Precis som vi upptäcker världen genom försök och misstag, så gör också modern artificiell intelligens. I praktiken är det dock lite annorlunda. Det finns aspekter av barndomens lärande som maskiner inte kan replikera - och de är en av de saker som på många områden gör människor till överlägsna inlärare.

Forskare vid New York University arbetar för att ändra på det. Forskare Kanishk Gandhi och Brenden sjö har undersökt hur något som kallas "ömsesidig exklusivitetsbias", som finns hos barn, kan hjälpa till att göra A.I. bättre när det gäller att lära sig uppgifter som att förstå språk.

Rekommenderade videor

"När barn försöker lära sig ett nytt ord, förlitar de sig på induktiva fördomar för att begränsa utrymmet för ev. betydelser, säger Gandhi, en doktorand vid New York Universitys Human & Machine Learning Lab, till Digital Trender. "Ömsesidig exklusivitet (ME) är en övertygelse om att barn har att om ett föremål har ett namn kan det inte ha ett annat. Ömsesidig exklusivitet hjälper oss att förstå innebörden av ett nytt ord i tvetydiga sammanhang. Till exempel, [om] barn blir tillsagda att "visa mig dax" när de presenteras för ett bekant och ett obekant föremål, tenderar de att välja det obekanta."

Relaterad

  • Dessa geniala idéer kan hjälpa till att göra AI lite mindre ond
  • Meta gjorde DALL-E för video, och det är både läskigt och fantastiskt
  • Optiska illusioner kan hjälpa oss att bygga nästa generations AI

Forskarna ville utforska ett par idéer med sitt arbete. En var att undersöka om algoritmer för djupinlärning tränade med hjälp av vanliga inlärningsparadigm skulle resonera med ömsesidig exklusivitet. De ville också se om resonemang med ömsesidig exklusivitet skulle hjälpa till att lära sig algoritmer i uppgifter som vanligtvis hanteras med hjälp av djupinlärning.

För att genomföra dessa undersökningar tränade forskarna först 400 neurala nätverk för att associera ordpar med deras betydelser. Neuralnäten testades sedan på 10 ord som de aldrig tidigare sett. De förutspådde att nya ord sannolikt motsvarade kända betydelser snarare än okända. Detta talar för att A.I. har inte en exklusivitetsbias. Därefter analyserade forskarna datauppsättningar som hjälper A.I. att översätta språk. Detta bidrog till att visa att exklusivitetsbias skulle vara fördelaktigt för maskiner.

"Våra resultat visar att dessa egenskaper är dåligt matchade med strukturen för vanliga maskininlärningsuppgifter," fortsatte Gandhi. "ME kan användas som ett ledtråd för generalisering i vanliga översättnings- och klassificeringsuppgifter, särskilt i de tidiga stadierna av träningen. Vi tror att uppvisande av partiskhet skulle hjälpa inlärning av algoritmer att lära sig på snabbare och mer anpassningsbara sätt."

Som Gandhi och Lake skriva i ett papper som beskriver sitt arbete: "Starka induktiva fördomar tillåter barn att lära sig på ett snabbt och anpassningsbart sätt... Det finns en övertygande argument för att designa neurala nätverk som resonerar genom ömsesidig exklusivitet, vilket fortfarande är öppet utmaning."

Redaktörens rekommendationer

  • Apples ChatGPT-konkurrent kan automatiskt skriva kod åt dig
  • Photoshop AI tycker att "lycka" är ett leende med ruttna tänder
  • Jag presenterade min löjliga startidé för en robot-VC
  • Hur ska vi veta när en AI faktiskt blir kännande?
  • Microsoft slutar med sin läskiga, känsloläsande A.I.

Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.