2020-talets stora milstolpar inom artificiell intelligens

hjärnan nätverk på vener illustration
Chris DeGraw/Digital Trends, Getty Images

Tiotusentals papper som involverar A.I. publiceras varje år, men det kommer att ta lite tid innan många av dem tydliggör sin potentiella verkliga inverkan. Samtidigt har de främsta finansiärerna av A.I. – alfabeten, äpplena, Facebooks, Baidus och andra enhörningar i denna värld – fortsätter att finslipa mycket av sin mest spännande teknik bakom stängda dörrar.

Innehåll

  • Allt handlar om språkförståelse
  • Modellerna blir större
  • A.I. för mänsklighetens bästa
  • Robocalypsen är inte här (än)
  • Deepfakes
  • Reglering av A.I.

Med andra ord, när det kommer till artificiell intelligens är det omöjligt att göra en sammanfattning av årets den viktigaste utvecklingen på det sätt som du till exempel kan lista de 10 mest lyssnade spåren på Spotify.

Rekommenderade videor

Men A.I. har utan tvekan spelat en enorm roll under 2020 på alla möjliga sätt. Här är sex av de viktigaste utvecklingarna och framväxande teman som setts inom artificiell intelligens under 2020.

Relaterad

  • Facebooks nya bildigenkänning A.I. tränas på 1 miljard Instagram-bilder
  • Hur A.I. skapade den där fantastiska sporthöjdpunktsrullen som du inte kan sluta titta på
  • Filtrera efter positivitet: Denna nya A.I. skulle kunna avgifta kommentartrådar på nätet

Allt handlar om språkförståelse

Under ett genomsnittligt år skulle ett textgenererande verktyg förmodligen inte rankas som ett av de mest spännande nya A.I. utvecklingen. Men 2020 har inte varit ett genomsnittligt år, och GPT-3 är inte ett genomsnittligt textgenererande verktyg. Uppföljaren till GPT-2, som utsågs till världens mest "farlig” algoritm, GPT-3 är en banbrytande autoregressivt naturligt språkbearbetande neuralt nätverk skapad av forskningslabbet OpenAI. Seeded med några meningar, som början av en nyhet, kan GPT-3 generera imponerande exakt text som matchar stilen och innehållet i de första raderna – till och med påhittad citat. GPT-3 har häpnadsväckande 175 miljarder parametrar - vikten av anslutningarna som är inställda för att uppnå prestanda - och enligt uppgift kostade runt 12 miljoner dollar att träna.

GPT-2 AI Text Generator
OpenAI

GPT-3 är inte ensam om att vara en imponerande A.I. språkmodell skapades 2020. Även om det snabbt blev omkört i hypecykeln av GPT-3, Microsofts Turing Natural Language Generation (T-NLG) gjorde vågor i februari 2020. Med 17 miljarder parametrar var det, vid release, den största språkmodellen som hittills publicerats. A Transformator-baserad generativ språkmodell, T-NLG kan generera de nödvändiga orden för att slutföra oavslutade meningar, samt generera direkta svar på frågor och sammanfatta dokument.

Transformers – en ny typ av djupinlärningsmodell – som introducerades av Google 2017, har hjälpt till att revolutionera naturlig språkbehandling. A.I. har varit inriktad på språk åtminstone så långt tillbaka som Alan Turings berömt hypotetiskt test av maskinintelligens. Men tack vare några av dessa senaste framsteg blir maskiner först nu förvånansvärt bra på att förstå språk. Detta kommer att få en del djupgående effekter och tillämpningar allt eftersom decenniet fortsätter.

Modellerna blir större

GPT-3 och T-NLG representerade en annan milstolpe, eller åtminstone betydande trend, i A.I. Även om det inte finns någon brist på nystartade företag, små universitetslaboratorier och individer som använder A.I. verktyg, innebär närvaron av stora aktörer på scenen att vissa allvarliga resurser kastas runt om. I allt högre grad dominerar enorma modeller med enorma utbildningskostnader framkanten av A.I. forskning. Neurala nätverk med uppåt en miljard parametrar håller snabbt på att bli normen.

"Om vi ​​ska replikera hjärnliknande artificiell intelligens är fler parametrar ett måste."

GPT-3:s 175 miljarder parametrar förblir en galen outlier, men nya modeller som t.ex. Meena, Turing-NGL, DistilBERT, och BST 9.4B har alla överträffat 1 miljard parametrar. Fler parametrar betyder inte nödvändigtvis bättre prestanda i alla fall. Det betyder dock att ett textgenererande verktyg kan modellera ett stort antal funktioner mer exakt. Om vi ​​ska replikera hjärnliknande artificiell intelligens är fler parametrar ett måste. Detta innebär också att stora aktörer kommer att fortsätta att styra A.I. rost när det kommer till de största modellerna. Det kostar enligt uppgift 1 USD per 1 000 parametrar att träna ett nätverk. Extrapolera det till en miljard parametrar och, ja, du räknar ut.

A.I. för mänsklighetens bästa

Som A.I. verktyg som går framåt, det är inte bara datavetarna som drar nytta av dem. Forskare från andra discipliner hoppar på, ofta med några innovativa idéer om hur maskininlärning kan användas. Oavsett om det är A.I. som kan diagnostisera tinnitus från hjärnskanningar; mind-reading headset som använder maskininlärning för att förvandla tankar till talade ord för rösthandikappade bärare; DeepMinds AlphaFold, som exakt kan förutsäga form av proteiner baserat på deras sekvens, potentiellt hjälpa till att snabbt utveckla nya mer effektiva terapier; eller något annat antal demonstrationer är det tydligt att A.I. öppnade upp några spännande nya vägar för forskning 2020.

Robocalypsen är inte här (än)

Polariseringen av många aspekter av livet 2020 avskräcker idén om nyansering. Men det blir allt tydligare att nyanser är precis vad som gäller när det kommer till robotars övertagande av jobb. Detta år har sett enorma jobbförluster runt om i världen. Men dessa har orsakats av pandemin och dess effekter, snarare än någon olycksbådande Skynet-liknande attack mot mänskliga jobb.

Flippy ta bort kycklinganbud från fritösen
Miso Robotics

Även om det säkert har funnits exempel på A.I. och robotik som utför mänskliga uppgifter (se Vänd på den hamburgervändande roboten, till exempel), har dessa vanligtvis varit för att förstärka mänskliga förmågor eller hjälpa till i områden där det inte finns tillräckligt med en konsekvent arbetsstyrka. Faktum är att de företag som är anställa flest personer just nu är de som samtidigt investerar i avancerad teknologi (läs: stora teknikjättar).

Detta är inte att säga att robocalypsen var en felaktig förutsägelse. Att urholka medelklassen är en trend som kommer att fortsätta, även om det är en som är mycket mer komplex än bara tillkomsten av ett fåtal teknikföretag som introducerar nya smarta mjukvaruverktyg. Om 2020 har haft en sak att säga om A.I. och sysselsättning, det är att saker och ting är komplicerade.

Deepfakes

Det går inte att förneka att 2020 har varit ett konstigt år för att sudda ut verklighetens kanter på alla möjliga konstiga sätt. I början av året störtade covid-19 stora delar av världen i en lockdown som något ur en storfilm med smittspridningstema. (Hur flydde människor från verkligheten av detta "nya normala"? Förbi letar efter underhållning med pandemi-tema, naturligtvis.) Året avslutades sedan med att valet i USA presenterade ditt val av två versioner av verkligheten, beroende på partitillhörighet (och ledarskap).

A.I. har spelat en roll i denna Baudrillardiska attack mot verkligheten i form av deepfake-teknologier. Deepfakes är inte en uppfinning från 2020, men de har sett en del betydande utvecklingar i år. I juli, forskare från Center for Advanced Virtuality vid Massachusetts Institute of Tekniken satte ihop en övertygande högbudget djupfalsk video som föreställer president Richard Nixon ger en alternativ adress om månlandningarna, som skrevs i händelse av att Apollo-uppdraget gick fruktansvärt fel.

Tillsammans med mer övertygande visuella deepfakes har forskare också skapat några förvånansvärt exakta ljuddeepfakes. Ett färskt exempel? En Eminem sång deepfake som lanserar en blåsig diss mot Facebooks vd Mark Zuckerberg. Det lät övertygande verklighetstroget – även om det inte riktigt stämmer överens med Ems vanliga lyriska standarder.

Reglering av A.I.

A.I.-drivna verktyg är, ja, kraftfulla. Och det gäller inte bara abstrakta proof-of-concept-demonstrationer, utan verkliga implementeringar som kan sträcka sig från screening av sökande för anställningsintervjuer till verktyg för ansiktsigenkänning eller villkorlig frigivning som används av brottsbekämpande myndigheter och myndigheterna.

Under de senaste åren har medvetenheten om dessa verktyg – och hur fördomar kan kodas in i dem – lett till att mer oro har väckts om deras användning. I januari arresterade polisen i Detroit felaktigt en man vid namn Robert Williams efter att en algoritm felaktigt matchade foto på sitt körkort med suddiga CCTV-bilder. Kort därefter, IBM, Amazon, och Microsoft alla meddelade att de omprövar användningen av sina ansiktsigenkänningstekniker i denna egenskap.

De tidigare nämnda djupfalskarna har väckt mycket rädsla i synnerhet, kanske för att de så uppenbart visar hur deras missbruk kan vara skadligt. Kaliforniens bortgång AB-730, en lag utformad för att kriminalisera användningen av deepfakes för att ge falska intryck av politikers ord eller handlingar, var en tydlig försök att reglera användningen av A.I. Konsekventa regler för hur man bäst utvecklar A.I. verktyg på sidan av det goda förblir ett arbete i framsteg.

Detta fokus på A.I. etiken gör att det känns som att ämnet börjar bli mainstream för första gången. Mycket av äran ska gå till forskare som Caroline Criado Perez och Safiya Umoja Noble, vars outtröttliga arbete för att belysa algoritmiska fördomar och vikten av ansvarsskyldighet har helt klart slagit igenom.

Redaktörens rekommendationer

  • A.I. brukar inte glömma någonting, men det gör Facebooks nya system. Här är varför
  • Facebooks nya A.I. tar bildigenkänning till en helt ny nivå
  • Denna A.I. meme generator har bemästrat konsten att ha en udda internethumor
  • Googles vd Sundar Pichai varnar för farorna med A.I. och efterlyser mer reglering
  • Gmail blockerar 100 miljoner skräppostmeddelanden dagligen med sin A.I., säger Google