2020-tallets store milepæler innen kunstig intelligens

hjernenettverk på årer illustrasjon
Chris DeGraw/Digital Trends, Getty Images

Titusenvis av papirer som involverer A.I. publiseres hvert år, men det vil ta litt tid før mange av dem tydeliggjør sin potensielle virkning i den virkelige verden. I mellomtiden har de beste finansiererne av A.I. — Alfabetene, eplene, Facebookene, Baidus og andre enhjørninger i denne verden — fortsetter å finpusse mye av sin mest spennende teknologi bak lukkede dører.

Innhold

  • Alt handler om språkforståelse
  • Modellene blir større
  • A.I. til beste for menneskeheten
  • Robokalipsen er ikke her (ennå)
  • Deepfakes
  • Regulering av A.I.

Med andre ord, når det kommer til kunstig intelligens, er det umulig å gjøre en oversikt over årets viktigste utviklingen på den måten som du kan liste opp de 10 mest lyttet til sporene på Spotify.

Anbefalte videoer

Men A.I. har utvilsomt spilt en enorm rolle i 2020 på alle mulige måter. Her er seks av hovedutviklingen og nye temaer sett innen kunstig intelligens i løpet av 2020.

I slekt

  • Facebooks nye bildegjenkjenning A.I. er trent på 1 milliard Instagram-bilder
  • Hvordan A.I. skapte den fantastiske sports-høydepunktet du ikke kan slutte å se
  • Filtrer etter positivitet: Denne nye A.I. kunne avgifte kommentartråder på nett

Alt handler om språkforståelse

I et gjennomsnittsår ville sannsynligvis ikke et tekstgenererende verktøy rangert som en av de mest spennende nye A.I. utviklingen. Men 2020 har ikke vært et gjennomsnittsår, og GPT-3 er ikke et gjennomsnittlig tekstgenererende verktøy. Oppfølgeren til GPT-2, som ble kåret til verdens mest "farlig” algoritme, GPT-3 er en banebrytende autoregressivt nevralt nettverk som behandler naturlig språk opprettet av forskningslaboratoriet OpenAI. Med noen få setninger, som begynnelsen av en nyhetssak, kan GPT-3 generere imponerende nøyaktig tekst som samsvarer med stilen og innholdet i de første linjene – helt ned til oppdiktet fabrikat sitater. GPT-3 kan skryte av forbløffende 175 milliarder parametere - vekten av forbindelsene som er innstilt for å oppnå ytelse - og koster etter sigende rundt $12 millioner å trene.

GPT-2 AI tekstgenerator
OpenAI

GPT-3 er ikke alene om å være en imponerende A.I. språkmodellen ble skapt i 2020. Mens den raskt ble forbigått i hype-syklusen av GPT-3, Microsofts Turing Natural Language Generation (T-NLG) laget bølger i februar 2020. Med 17 milliarder parametere var den ved utgivelse den største språkmodellen som hittil er publisert. EN Transformator-basert generativ språkmodell, T-NLG er i stand til å generere de nødvendige ordene for å fullføre uferdige setninger, samt generere direkte svar på spørsmål og oppsummere dokumenter.

Transformers – en ny type dyplæringsmodell – som ble introdusert av Google i 2017, har bidratt til å revolusjonere naturlig språkbehandling. A.I. har vært fokusert på språk minst like langt tilbake som Alan Turings kjent hypotetisk test av maskinintelligens. Men takket være noen av disse nylige fremskritt, blir maskiner først nå forbløffende gode til å forstå språk. Dette vil ha noen dype virkninger og anvendelser etter hvert som tiåret fortsetter.

Modellene blir større

GPT-3 og T-NLG representerte en annen milepæl, eller i det minste en betydelig trend, i A.I. Selv om det ikke er mangel på oppstarter, små universitetslaboratorier og enkeltpersoner som bruker A.I. verktøy, tilstedeværelsen av store aktører på scenen betyr at noen seriøse ressurser blir kastet rundt. I økende grad dominerer enorme modeller med enorme opplæringskostnader i forkant av A.I. forskning. Nevrale nettverk med over en milliard parametere er raskt i ferd med å bli normen.

"Hvis vi skal replikere hjernelignende kunstig intelligens, er flere parametere et must."

GPT-3s 175 milliarder parametere forblir en vanvittig uteligger, men nye modeller som f.eks. Meena, Turing-NGL, DistilBERT, og BST 9.4B har alle passert 1 milliard parametere. Flere parametere betyr ikke nødvendigvis bedre ytelse i alle tilfeller. Det betyr imidlertid at et tekstgenererende verktøy er i stand til å modellere et stort utvalg funksjoner mer nøyaktig. Hvis vi skal replikere hjernelignende kunstig intelligens, er flere parametere et must. Dette betyr også at store aktører vil fortsette å styre A.I. roost når det kommer til de største modellene. Det koster angivelig $1 per 1000 parametere å trene et nettverk. Ekstrapoler det til en milliard parametere, og vel, du regner.

A.I. til beste for menneskeheten

Som A.I. verktøy fremme, det er ikke bare informatikerne som drar nytte av dem. Forskere fra andre disipliner hopper på banen, ofte med noen innovative ideer om hvordan maskinlæring kan brukes. Enten det er A.I. det kan diagnostisere tinnitus fra hjerneskanninger; tankelesende headset som bruker maskinlæring til å gjøre tanker om til talte ord for stemmehemmede brukere; DeepMinds AlphaFold, som nøyaktig kan forutsi form på proteiner basert på deres sekvens, potensielt bidra til å utvikle nye mer effektive terapier raskt; eller et hvilket som helst annet antall demonstrasjoner, er det klart at A.I. åpnet noen spennende nye veier for forskning i 2020.

Robokalipsen er ikke her (ennå)

Polariseringen av mange aspekter av livet i 2020 fraråder ideen om nyansering. Men det blir stadig tydeligere at nyanser er akkurat det som gjelder når det kommer til roboters overtakelse av jobber. Dette året har sett enorme arbeidsplasser tapt rundt om i verden. Imidlertid har disse blitt forårsaket av pandemien og dens virkninger, snarere enn noen skumle Skynet-lignende angrep på menneskelige jobber.

Flippy fjerner kyllingmøre fra friteren
Miso Robotics

Selv om det absolutt har vært eksempler på A.I. og robotikk som utfører menneskelige oppgaver (se Vend den burger-flipping-roboten, for eksempel), har disse vanligvis vært for å øke menneskelige evner eller hjelpe på områder der det ikke er nok en konsistent arbeidsstyrke. Faktisk selskapene som er ansette flest folk akkurat nå er de som samtidig investerer i avanserte teknologier (les: store teknologigiganter).

Dette er ikke å si at robocalypse var en feilaktig spådom. Uthulingen av middelklassen er en trend som vil fortsette, selv om det er en som er langt mer kompleks enn bare fremkomsten av noen få teknologiselskaper som introduserer nye smarte programvareverktøy. Hvis 2020 har hatt en ting å si om A.I. og sysselsetting, det er at ting er kompliserte.

Deepfakes

Det kan ikke benektes at 2020 har vært et merkelig år for å viske ut kantene til virkeligheten på alle slags rare måter. I begynnelsen av året kastet COVID-19 store deler av verden inn i en lockdown som noe ut av en storfilm med smitte-tema. (Hvordan unnslapp folk virkeligheten til denne "nye normalen"? Av oppsøker underholdning med pandemi-tema, selvfølgelig.) Året ble deretter avsluttet med at valget i USA presenterte ditt valg av to versjoner av virkeligheten, avhengig av parti (og lederskap) tilhørighet.

A.I. har spilt en rolle i dette Baudrillardian-angrepet på virkeligheten i form av dypfalske teknologier. Deepfakes er ikke en oppfinnelse fra 2020, men de har sett noen betydelige utviklinger i år. I juli kom forskere fra Center for Advanced Virtuality ved Massachusetts Institute of Teknologi satte sammen en overbevisende høybudsjetts dypfalske video som skildrer president Richard Nixon gi en alternativ adresse om månelandingene, som ble skrevet i tilfelle Apollo-oppdraget gikk fryktelig galt.

Sammen med mer overbevisende visuelle deepfakes, har forskere også laget noen forbløffende nøyaktige lyddeepfakes. Et nylig eksempel? An Eminem vokal deepfake som lanserer en knallhard diss mot Facebook-sjef Mark Zuckerberg. Det hørtes overbevisende naturtro ut - selv om det ikke var helt opp til Ems vanlige lyriske standarder.

Regulering av A.I.

A.I.-drevne verktøy er, vel, kraftige. Og det gjelder ikke bare abstrakte proof-of-concept-demonstrasjoner, men virkelige distribusjoner som kan variere fra screening av søkere til jobbintervjuer til ansiktsgjenkjenning eller prøveløslatelsesverktøy brukt av rettshåndhevelse og autoriteter.

I løpet av de siste årene har bevisstheten om disse verktøyene – og måten skjevheter kan kodes inn i dem – ført til mer bekymring for bruken av dem. I januar arresterte politiet i Detroit feilaktig en mann ved navn Robert Williams etter at en algoritme feilaktig samsvarte med bilde på førerkortet hans med uskarpe CCTV-opptak. Rett etterpå, IBM, Amazon, og Microsoft alle kunngjorde at de revurderte bruken av deres ansiktsgjenkjenningsteknologier i denne egenskapen.

De nevnte deepfakes har pisket opp mye frykt spesielt, kanskje fordi de så åpenbart demonstrerer hvordan deres misbruk kan være skadelig. Californias bortgang AB-730, en lov designet for å kriminalisere bruken av dype forfalskninger for å gi falske inntrykk av politikeres ord eller handlinger, var en klar forsøk på å regulere bruken av A.I. Konsekvente regler for hvordan man best kan utvikle A.I. verktøy på siden av det gode forblir et arbeid i framgang.

Dette fokuset på A.I. etikk gjør at det føles som om faget begynner å bli mainstream for første gang. Mye av æren må gå til forskere som Caroline Criado Perez og Safiya Umoja Noble, hvis utrettelige arbeid med å fremheve algoritmisk skjevhet og viktigheten av ansvarlighet har klart slått an.

Redaktørenes anbefalinger

  • A.I. glemmer vanligvis ikke noe, men Facebooks nye system gjør det. Her er hvorfor
  • Facebooks nye A.I. tar bildegjenkjenning til et helt nytt nivå
  • Denne A.I. meme generator har mestret kunsten med merkelig internetthumor
  • Google-sjef Sundar Pichai advarer mot farene ved A.I. og krever mer regulering
  • Gmail blokkerer 100 millioner spam-meldinger daglig med sin A.I., sier Google