Teorija v ozadju orodja za strojno učenje, ki so kot nevronske mreže je, da delujejo in, natančneje, se učijo na podoben način kot človeški možgani. Tako kot mi odkrivamo svet s poskusi in napakami, to počne tudi sodobna umetna inteligenca. V praksi pa je stvar nekoliko drugačna. Obstajajo vidiki učenja v otroštvu, ki jih stroji ne morejo ponoviti - in so ena od stvari, zaradi katerih so ljudje na mnogih področjih boljši učenci.
Raziskovalci z Univerze v New Yorku si prizadevajo to spremeniti. Raziskovalci Kanishk Gandhi in Brendensko jezero so raziskali, kako lahko nekaj, kar se imenuje "pristranskost medsebojne ekskluzivnosti", ki je prisotno pri otrocih, pomaga pri ustvarjanju A.I. bolje, ko gre za učne naloge, kot je razumevanje jezika.
Priporočeni videoposnetki
»Ko se otroci trudijo naučiti novo besedo, se zanašajo na indukcijske pristranskosti, da bi zožili prostor možnih pomeni,« je za Digital povedal Gandhi, podiplomski študent laboratorija za človekovo in strojno učenje Univerze v New Yorku. Trendi. »Medsebojna izključnost (ME) je prepričanje, ki ga imajo otroci, da če ima predmet eno ime, ne more imeti drugega. Medsebojna izključnost nam pomaga razumeti pomen nove besede v dvoumnem kontekstu. Na primer, [če] otrokom rečemo, naj 'pokaži mi dax', ko jim predstavijo znan in neznan predmet, ponavadi izberejo neznanega.«
Povezano
- Te genialne ideje bi lahko pomagale narediti AI malo manj zlo
- Meta je naredila DALL-E za video in je hkrati grozljiv in neverjeten
- Optične iluzije bi nam lahko pomagale zgraditi naslednjo generacijo umetne inteligence
Raziskovalci so s svojim delom želeli raziskati nekaj idej. Eden je bil raziskati, ali bi algoritmi globokega učenja, usposobljeni z uporabo skupnih učnih paradigem, utemeljevali medsebojno izključnost. Želeli so tudi ugotoviti, ali bi sklepanje z medsebojno izključnostjo pomagalo pri učenju algoritmov pri nalogah, ki se običajno rešujejo z uporabo globokega učenja.
Za izvedbo teh preiskav so raziskovalci najprej usposobili 400 nevronskih mrež, da povežejo pare besed z njihovimi pomeni. Nevralne mreže so nato testirali na 10 besedah, ki jih še nikoli niso videli. Predvidevali so, da bodo nove besede verjetno ustrezale znanim pomenom in ne neznanim. To nakazuje, da je A.I. nima pristranskosti glede ekskluzivnosti. Nato so raziskovalci analizirali nabore podatkov, ki pomagajo A.I. prevajati jezike. To je pomagalo pokazati, da bi bila pristranskost glede ekskluzivnosti koristna za stroje.
»Naši rezultati kažejo, da se te značilnosti slabo ujemajo s strukturo običajnih nalog strojnega učenja,« je nadaljeval Gandhi. »ME se lahko uporablja kot iztočnica za posploševanje pri običajnih prevajalskih in klasifikacijskih nalogah, zlasti v zgodnjih fazah usposabljanja. Verjamemo, da bi razkazovanje pristranskosti pripomoglo k hitrejšemu in bolj prilagodljivemu učenju algoritmov.”
Kot Gandhi in Lake napiši v papirju opisujejo svoje delo: »Močne induktivne pristranskosti omogočajo otrokom, da se učijo na hiter in prilagodljiv način... Obstaja prepričljiv primer za načrtovanje nevronskih mrež, ki razmišljajo z medsebojno izključnostjo, ki ostaja odprta izziv."
Priporočila urednikov
- Appleov tekmec ChatGPT lahko samodejno napiše kodo za vas
- Photoshop AI meni, da je "sreča" nasmeh s pokvarjenimi zobmi
- Svojo smešno zagonsko idejo sem predstavil robotu VC
- Kako bomo vedeli, kdaj umetna inteligenca dejansko postane čuteča?
- Microsoft opušča svoj srhljiv AI, ki bere čustva
Nadgradite svoj življenjski slogDigitalni trendi bralcem pomagajo slediti hitremu svetu tehnologije z vsemi najnovejšimi novicami, zabavnimi ocenami izdelkov, pronicljivimi uvodniki in enkratnimi vpogledi v vsebine.