Siden Siri debuterte på iPhone 4s tilbake i 2011, har stemmeassistenter gått fra ubrukelig gimmick til grunnlaget for smart høyttalerteknologi som finnes i ett av seks amerikanske hjem.
Innhold
- Mo’ kunnskap, mindre problemer
- Mer (og bedre) personalisering
- Blir proaktiv
- Alt handler om tilbakemeldinger
- Nye samhandlingsmetoder
"Før Siri, da jeg snakket om [hva jeg gjør] var det tomme blikk," Tom Hebner, leder for innovasjon ved Nuance Communications, som utvikler banebrytende A.I. stemmeteknologi, fortalte Digital Trends. "Folk ville si," Bygger du de grusomme telefonsystemene? Jeg hater deg.’ Det var en gruppe menneskers eneste interaksjon med stemmeteknologi.»
Anbefalte videoer
Det er ikke lenger tilfelle i dag. I følge eMarketers prognoser, nesten 100 millioner smarttelefon brukere vil bruke stemmeassistenter innen 2020. Men mens A.I. assistenter er ikke lenger en nyhet, vi er fortsatt i starten av utviklingen deres. Det er en lang vei å gå før de fullt ut lever opp til løftet som taleassistenter har som produktkategori.
Her er fem måter teknologien kan forbedres for å gjøre den smartere og mer effektiv – og hjelpe oss med å leve mer produktive liv som et resultat. Kall dem "spådommer" eller en "ønskeliste", dette er utfordringene som må løses.
Mo’ kunnskap, mindre problemer
Alexa kan fortelle deg hvordan været er i Kuala Lumpur, Malaysia; det totale antallet amerikanske dollar du får for 720 sørafrikanske rand, og hvordan staves «disestablishmentarianism». Men forbruker A.I. assistenter er i hovedsak den digitale ekvivalenten til en person med et komplett sett med oppdatert leksikon. Du får (forhåpentligvis) den riktige informasjonen, men det er ingen pro-grade ekspertise der.
"Utfordringen som systemene i hjemmet ditt har, er at det er et så bredt spekter av ting de prøver å gjøre," sa Hebner til Digital Trends.
Dette er vanskelig å løse, men å gjøre det ville være en game-changer. Nuance utvikler mange spesialistsystemer rettet mot én spesifikk brukssituasjon, for eksempel å hjelpe flyselskapskunder med å svare på spørsmål eller leger med å ta notater. Å gjøre det betyr ikke bare at disse systemene kan bore ned for å få mer detaljert informasjon, men det betyr også at mer intelligens kan bli bakt inn. "Folk var veldig begeistret for datamaskiner som kunne forstå ord, men det betyr ikke nødvendigvis noe hvis du ikke vet hva du skal gjøre med disse ordene," sa Hebner.
Et eksempel han gir er et Nuance-system som ikke bare forstår når leger leser opp en liste over potensielle legemidler for pasienter, men som kan kalle ut potensielle konflikter. Dette er langt utover mulighetene til de fleste A.I. assistenter.
Men å ha en mer spesialist detaljert kunnskap om forskjellige domener - noe antydet av Alexa Skills – Kan være transformerende. Å spørre smarthøyttaleren din om juridiske eller medisinske råd høres umiddelbart sprøtt ut. Men det har vært ekstraordinære fremskritt innen felt som juridiske roboter, mens en nylig publisert rapport antyder at Apple vil at Siri skal kunne ha helsefokuserte samtaler med brukere innen 2021.
Spesialistkunnskapsgrafer for A.I. assistenter er stoffet i sci-fi-drømmer akkurat nå, selv om en nylig Voicebot.ai-rapport viser hvor raskt ferdighetene til virtuelle assistenter utvides. Når ferdighetene beveger seg inn i spesialiteters terreng, kommer vi imidlertid til å bli en godbit!
Mer (og bedre) personalisering
Personalisering av dagens smarte høyttalere er fortsatt i sin spede begynnelse. Du kan endre stemmeassistenters aksent og presentasjonskjønn, legge til eller fjerne ferdigheter, og gi den informasjonsbiter som navn og arbeidssted. I noen tilfeller kan du sette opp flere taleprofiler slik at Google Home vil gjenkjenne de enkelte medlemmene av husstanden din.
Men det er fortsatt en lang vei å gå - selv om juicen burde være verdt å klemme. Mattersight Corporation har utviklet A.I. kundesenterteknologi, kalt Prediktiv atferdsruting, som analyserer talemønstrene til innringere og matcher dem med menneskelige operatører med kompatible personlighetstyper. Ifølge selskapet vil matching av en person med en kompatibel personlighet resultere i en vellykket samtale som varer bare halvparten av tiden, ved siden av samtalen til en person med en motstridende personlighetstype.
Å bruke en lignende tilnærming kan resultere i A.I. assistenter som snakker tilbake til deg slik du liker å bli tiltalt. Det kan være noe så enkelt som å matche aksent og stemmevolumet til personen de snakker med. Eller det kan endre måten det adresserer ideer på ved kanskje å bruke mer emosjonelle ord for noen brukere, sammenlignet med mer tett detaljert informasjon det kan bruke for andre. Kanskje noen ønsker en stemmeassistent å chatte lenge med, mens andre rett og slett ønsker at en skal formidle nødvendig informasjon på en mest mulig kortfattet måte. A.I. assistenter bør være i stand til begge deler.
Teknologier som Google Duplex vis hvor overbevisende nøyaktige A.I.-genererte syntetiserte stemmer og samtaler blir. Når A.I.s beveger seg inn i områder som er mer komplekse enn å diske opp sangforespørsler og mattidtakere, kan du forvente å se denne teknologien spille en viktig rolle.
Dette kan bli hjulpet av gjennombrudd i muligheten til å identifisere brukere med stemmen. Hebner bemerker at Nuances teknologi kan identifisere brukere fra bare et enkelt sekund med lyd. "Det pleide å ta 10 sekunder å forstå hvem du er, for å få et nøyaktig signal," sa han. "Kraften i det er betydelig." Å kunne identifisere brukere med en liten stemmebit løser problemet passordproblem, og åpner muligheten for å bruke taleassistenter for mer delikat konfidensiell informasjon informasjon.
Blir proaktiv
En god assistent vil gjøre noe når du ber dem om det. En god assistent trenger ikke å spørre. Akkurat nå har A.I. assistenter er fortsatt på dette første stadiet. Brukere kan få sangen de vil ha eller påminnelsen de trenger, men vanligvis bare når det er blitt eksplisitt bedt om det. Etter hvert som folk blir mer komfortable med stemmeassistenter, er det en flott mulighet for dem til å gå fra å være rene reaktive enheter til proaktive.
Det er store spørsmål om folk ønsker å overlate visse jobber til maskiner eller ikke.
Hva ville du følt om en A.I. assistent som tar avgjørelser på dine vegne? Dette kan være alt fra å skru opp termostaten når noen sier at de er kalde eller ombooking av lunsj møte fordi du kommer for sent, for å dytte deg til å trene mer eller bli bedre til å redde Lønning. Etter hvert som flere og flere smarte enheter kommer inn i hjemmet, vil antallet ting som en stemmeassistent kan tenkes kommandere, øke betraktelig.
En del av dette er et sosialt spørsmål om hvor komfortable folk har det med maskiner som tar beslutninger fra deres side. Det er store spørsmål om folk ønsker å overlate visse jobber til maskiner eller ikke. Tenk på det som å gi kredittkortet og husnøklene til assistenten av kjøtt og blod – bare med et mye større dryss av Skynet. Ulempen er å gi opp en viss grad av kontroll. Den potensielle fordelen er å øke fritiden din. Selvfølgelig er det en stor teknisk utfordring...
Alt handler om tilbakemeldinger
Tom Hebner påpekte en stor utfordring med spørsmålet om proaktivitet: hvordan vet maskinene våre når de har fått det riktig? Tilbake til ideen om det gode vs. flott assistent, en god assistent kan ha alle filene dine ute før et stort møte, uten at du trenger å spørre. Men hva om de er feil filer? Et stort problem med å lage hjemme A.I. assistenter mer proaktive er at det for øyeblikket er begrensede måter å avsløre om vi får informasjonen er riktig informasjon eller ikke.
"Hvis jeg ber om den samme sangen hver dag når jeg går inn i huset mitt, og den dagen jeg går inn og den bare begynner å spille, hvordan vet de at de fikk det riktig?" sa Hebner. "Hvis jeg ikke slutter å spille, betyr det at det er riktig? Hvis jeg sier «stopp», betyr det at det tok feil og at det aldri burde gjøre det igjen? Tilbakemeldingsmekanismen er en av grunnene til at du ikke får mer proaktive systemer."
Dette er en utfordrende for ingeniører å finne ut av. Alle som noen gang har hatt en praktikant som ber dem om instruksjoner og tilbakemeldinger på hver enkelt oppgave, vet at noen ganger er det lettere å gjøre en jobb selv enn å delegere den. En A.I. assistent er der for å gjøre livet ditt mer friksjonsfritt; for ikke å gi deg dusinvis av miniundersøkelser hver dag for å bekrefte om det har gjort jobben sin riktig. Dette må løses på en måte som ikke ødelegger for brukervennligheten til disse enhetene, og krever ikke mye trening på forhånd før systemene lærer preferansene dine.
Hva er svaret? Jeg er ikke sikker. Men, som Steve Jobs en gang sa, det er ikke kundens jobb å finne ut av det.
Nye samhandlingsmetoder
Det er en scene i 2001: A Space Odyssey der den morderiske HAL 9000, foruroligende nok fortsatt den mest kjente fiktive A.I. assistent i historie, avslører at den ikke bare bruker mikrofoner for å finne ut hva som blir sagt til den. Når to besetningsmedlemmer prøver å velge et sted å snakke der de vet at HAL ikke kan høre, avslører HAL at han fortsatt kan forstå dem, basert på å lese leppebevegelsene deres.
Skummelt øyeblikk av filmen? Sikker. Et eksempel på hvordan A.I. assistenter kan jobbe i fremtiden? Um, visst!
Ideen om at stemmeassistenter bør begrenses til stemme, reduserer det mulige antallet måter de med fordel kan samhandle med oss på. Med fremveksten av ansiktsgjenkjenning og teknologier for å spore følelser, et stadig økende antall biometri samlet om brukere på en konstant basis, og til og med muligheten for tankelesende teknologi i horisonten, er det mange forskjellige signaler som kan brukes av A.I. assistenter til å trekke sine konklusjoner.
Ideen om at vi om 10 år bare vil bruke stemmen til å kontrollere disse A.I. assistenter er som å se på PC-er på begynnelsen av 80-tallet og tenke at vi aldri vil ha mer enn et tastatur til rådighet.
Redaktørenes anbefalinger
- Følelsesfølende A.I. er her, og det kan være i ditt neste jobbintervju
- Apples nye Seattle-campus kan bety store ting for Siri, kunstig intelligens
- Google har funnet en måte å bruke A.I. for å øke nytten av vindenergi