Titusindvis af papirer, der involverer A.I. udgives hvert år, men det vil tage noget tid, før mange af dem gør deres potentielle virkning i den virkelige verden klart. I mellemtiden har topfinansiererne af A.I. — Alfabeterne, Æblerne, Facebookerne, Baidus og andre enhjørninger i denne verden — fortsætter med at finpudse meget af deres mest spændende teknologi bag lukkede døre.
Indhold
- Det hele handler om sprogforståelse
- Modellerne bliver større
- A.I. til gavn for menneskeheden
- Robocalypsen er ikke her (endnu)
- Deepfakes
- Regulering af A.I.
Med andre ord, når det kommer til kunstig intelligens, er det umuligt at lave en opsummering af årets vigtigste udvikling på den måde, som du f.eks. kan nævne de 10 mest lyttede til numre på Spotify.
Anbefalede videoer
Men A.I. har uden tvivl spillet en enorm rolle i 2020 på alle mulige måder. Her er seks af de vigtigste udviklinger og nye temaer set inden for kunstig intelligens i løbet af 2020.
Relaterede
- Facebooks nye billedgenkendelse A.I. er trænet på 1 milliard Instagram-billeder
- Hvordan A.I. skabt det fantastiske sportsfremhævningshjul, du ikke kan stoppe med at se
- Filtrer efter positivitet: Denne nye A.I. kunne afgifte online kommentartråde
Det hele handler om sprogforståelse
I et gennemsnitligt år ville et tekstgenererende værktøj sandsynligvis ikke være en af de mest spændende nye A.I. udviklinger. Men 2020 har ikke været et gennemsnitligt år, og GPT-3 er ikke et gennemsnitligt tekstgenererende værktøj. Efterfølgeren til GPT-2, som blev kåret som verdens mest "farligt” algoritme, GPT-3 er en banebrydende autoregressivt naturligt-sprog-behandlende neuralt netværk skabt af forskningslaboratoriet OpenAI. Sået med et par sætninger, som begyndelsen af en nyhedshistorie, kan GPT-3 generere imponerende nøjagtig tekst, der matcher stilen og indholdet af de indledende par linjer - selv ned til den fabrikerede citater. GPT-3 kan prale af forbløffende 175 milliarder parametre - vægten af de forbindelser, der er indstillet for at opnå ydeevne - og efter sigende kostede omkring 12 millioner dollars at træne.
GPT-3 er ikke alene om at være en imponerende A.I. sprogmodel opstod i 2020. Mens det hurtigt blev overhalet i hype-cyklussen af GPT-3, Microsofts Turing Natural Language Generation (T-NLG) skabte bølger i februar 2020. Med 17 milliarder parametre var det ved udgivelse den største sprogmodel, der endnu er offentliggjort. EN Transformer-baseret generativ sprogmodel, T-NLG er i stand til at generere de nødvendige ord for at fuldføre ufærdige sætninger, samt generere direkte svar på spørgsmål og opsummere dokumenter.
Transformers – en ny type dyb læringsmodel – som blev introduceret af Google i 2017, har hjulpet med at revolutionere naturlig sprogbehandling. A.I. har været fokuseret på sproget mindst lige så langt tilbage som Alan Turings berømte hypotetiske test af maskinintelligens. Men takket være nogle af disse seneste fremskridt bliver maskiner først nu forbavsende gode til at forstå sprog. Dette vil have nogle dybtgående konsekvenser og anvendelser, efterhånden som årtiet fortsætter.
Modellerne bliver større
GPT-3 og T-NLG repræsenterede endnu en milepæl, eller i det mindste en væsentlig tendens, i A.I. Selvom der ikke er mangel på startups, små universitetslaboratorier og personer, der bruger A.I. værktøjer, betyder tilstedeværelsen af store aktører på scenen, at nogle seriøse ressourcer bliver kastet rundt om. I stigende grad dominerer enorme modeller med enorme uddannelsesomkostninger på forkant med A.I. forskning. Neurale netværk med op mod en milliard parametre er hurtigt ved at blive normen.
"Hvis vi skal replikere hjernelignende kunstig intelligens, er flere parametre et must."
GPT-3’s 175 milliarder parametre er fortsat en skør afviger, men nye modeller som f.eks. Meena, Turing-NGL, DistilBERT, og BST 9.4B har alle overskredet 1 milliard parametre. Flere parametre betyder ikke nødvendigvis bedre ydeevne i alle tilfælde. Det betyder dog, at et tekstgenererende værktøj er i stand til mere præcist at modellere en lang række funktioner. Hvis vi skal replikere hjernelignende kunstig intelligens, er flere parametre et must. Dette betyder også, at store aktører vil fortsætte med at regere A.I. roost, når det kommer til de største modeller. Det koster angiveligt $1 pr. 1.000 parametre at træne et netværk. Ekstrapoler det til en milliard parametre, og jamen, du regner ud.
A.I. til gavn for menneskeheden
Som A.I. værktøjer fremme, er det ikke kun datalogerne, der har gavn af dem. Forskere fra andre discipliner hopper om bord, ofte med nogle innovative ideer om, hvordan maskinlæring kan bruges. Uanset om det er A.I. der kan diagnosticere tinnitus fra hjernescanninger; tankelæsende headset, der bruger maskinlæring til at omdanne tanker til talte ord for stemmehæmmede bærere; DeepMinds AlphaFold, som nøjagtigt kan forudsige form af proteiner baseret på deres sekvens, potentielt hjælpe med at udvikle nye mere effektive terapier hurtigt; eller et hvilket som helst andet antal demonstrationer, er det klart, at A.I. åbnet nogle spændende nye muligheder for forskning i 2020.
Robocalypsen er ikke her (endnu)
Polariseringen af mange aspekter af livet i 2020 afskrækker ideen om nuance. Men det bliver mere og mere tydeligt, at nuancer netop er det, der gælder, når det kommer til robotternes overtagelse af arbejdspladser. Dette år har set enorme jobtab rundt om i verden. Disse er dog blevet anlagt af pandemien og dens påvirkninger, snarere end ethvert skummelt Skynet-lignende angreb på menneskelige job.
Selvom der bestemt har været eksempler på A.I. og robotteknologi, der udfører menneskelige opgaver (se Vend for eksempel den burger-vendende robot), har disse typisk været for at øge menneskelige evner eller hjælpe på områder, hvor der ikke er nok en konsekvent arbejdsstyrke. Faktisk de virksomheder, der er ansætte flest mennesker lige nu er dem, der samtidig investerer i avancerede teknologier (læs: store tech-giganter).
Dette betyder ikke, at robocalypsen var en fejlagtig forudsigelse. Udhulningen af middelklassen er en tendens, der vil fortsætte, selvom det er en, der er langt mere kompleks end blot fremkomsten af nogle få teknologivirksomheder, der introducerer nye smarte softwareværktøjer. Hvis 2020 har haft én ting at sige om A.I. og beskæftigelse, det er, at tingene er komplicerede.
Deepfakes
Der kan ikke benægtes, at 2020 har været et mærkeligt år for at sløre virkelighedens kanter på alle mulige mærkelige måder. I begyndelsen af året kastede COVID-19 store dele af verden ind i en lockdown som noget ud af en storfilm med smitte-tema. (Hvordan undslap folk virkeligheden af denne "nye normal"? Ved søger underholdning med pandemi-tema, selvfølgelig.) Året sluttede så med, at det amerikanske valg præsenterede dit valg af to versioner af virkeligheden, afhængigt af parti (og ledelses) tilhørsforhold.
A.I. har spillet en rolle i dette Baudrillardian-angreb på virkeligheden i form af deepfake-teknologier. Deepfakes er ikke en opfindelse fra 2020, men de har set nogle betydelige udviklinger i år. I juli fandt forskere fra Center for Advanced Virtuality ved Massachusetts Institute of Teknologien sammensatte en overbevisende højbudget deepfake-video, der skildrer præsident Richard Nixon giver en alternativ adresse om månelandingerne, som blev skrevet i tilfælde af, at Apollo-missionen gik helt galt.
Sammen med mere overbevisende visuelle deepfakes har forskere også skabt nogle forbløffende nøjagtige lyddeepfakes. Et nyligt eksempel? An Eminem vokal deepfake der lancerer en blærende diss mod Facebooks administrerende direktør Mark Zuckerberg. Det lød overbevisende livagtigt - også selvom det ikke var helt op til Ems sædvanlige lyriske standarder.
Regulering af A.I.
A.I.-drevne værktøjer er, ja, kraftfulde. Og det gælder ikke kun abstrakte proof-of-concept-demonstrationer, men implementeringer i den virkelige verden, der kan variere fra screening af ansøgere til jobsamtaler til ansigtsgenkendelse eller prøveløsladelsesværktøjer, der anvendes af retshåndhævelse og myndigheder.
I løbet af de sidste par år har bevidstheden om disse værktøjer - og den måde, bias kan kodes ind i dem - ført til, at der er blevet rejst mere bekymring omkring deres brug. I januar arresterede politiet i Detroit fejlagtigt en mand ved navn Robert Williams, efter at en algoritme fejlagtigt matchede billede på sit kørekort med slørede CCTV-optagelser. Kort derefter, IBM, Amazon, og Microsoft alle meddelte, at de genovervejede brugen af deres ansigtsgenkendelsesteknologier i denne egenskab.
De førnævnte deepfakes har især pisket masser af frygt op, måske fordi de så åbenlyst demonstrerer, hvordan deres misbrug kan være skadeligt. Californiens bortgang AB-730, en lov designet til at kriminalisere brugen af deepfakes til at give falske indtryk af politikeres ord eller handlinger, var en klar forsøg på at regulere brugen af A.I. Konsekvente regler for, hvordan man bedst udvikler A.I. værktøjer på siden af det gode forbliver et arbejde i fremskridt.
Dette fokus på A.I. etik får det til at føles som om emnet begynder at blive mainstream for første gang. En stor del af æren skal gå til forskere som Caroline Criado Perez og Safiya Umoja Noble, hvis utrættelige arbejde med at fremhæve algoritmisk bias og vigtigheden af ansvarlighed tydeligvis har ramt en akkord.
Redaktørens anbefalinger
- A.I. plejer ikke at glemme noget, men det gør Facebooks nye system. Her er hvorfor
- Facebooks nye A.I. tager billedgenkendelse til et helt nyt niveau
- Denne A.I. meme-generatoren har mestret kunsten at oddball internethumor
- Googles administrerende direktør Sundar Pichai advarer mod farerne ved A.I. og opfordrer til mere regulering
- Gmail blokerer 100 millioner spam-beskeder dagligt med sin A.I., siger Google