Datasyn tar kameraet i bruk når du mangler ord – men Google Lens kan snart gjøre mer enn bare omvendt søk etter lignende elementer eller detaljer om hva som er på bildet. Under I/O tirsdag 7. mai Google demonstrert nye søkefunksjoner drevet av kameraet og utvidede Lens-ferdigheter for å beregne tips, oversette tekst og mer.
Anbefalte videoer
Under keynoten, Aparna Chennapragada, Googles visepresident for kamera og augmented reality-produkter, demonstrert hvordan Googles søkeresultater kan bruke AR til å bringe 3D-modeller inn i rommet med deg, uten å forlate søket resultater. En ny "vis i 3D-knapp" dukker opp i søkeresultatene når 3D-innhold er tilgjengelig.
I tillegg til å la brukere se seg rundt i 3D-objektet fra alle vinkler, vil oppdateringen også gi det 3D-element til AR, blander modellen med innholdet fra kameraet for å se objektet foran deg. Chennapragada sier at verktøyet vil være nyttig for oppgaver som forskning sammen med shopping.
I slekt
- Googles livsendrende AR-smartbrilledemo ga meg frysninger
- Google legger til flere iMessage-funksjoner til Androids Messages-app
- Google legger til ikoner i bildesøk for å gi mer informasjon om miniatyrbilder
Kamerafunksjonen for søk forventes å komme senere i mai. Partnere som NASA, New Balance, Samsung, Target, Visible Body, Volvo, Wayfair og andre vil være blant de første som får 3D-innholdet deres opp i søkeresultatene.
Ettersom søk blir mer kameratunge, beveger Google Lens seg lenger enn bare å søke med et kamera. På en restaurant kan Lens snart skanne menyen, fremheve de mest populære rettene, ta opp bilder og til og med fremheve anmeldelser fra andre spisesteder ved å bruke Google Kart. Kameraet må først skille mellom de ulike menyalternativene før teksten matches med relevante resultater på nettet. På slutten av måltidet vil Lens beregne tipset eller dele regningen med venner når du retter kameraet mot kvitteringen.
Google Lens får også muligheten til å oversette tekst verbalt. Mens tidligere versjoner kunne bruke smarttekst for å markere tekst som skal kopieres eller oversettes, kan Lens snart lese teksten høyt eller legge den oversatte teksten over originalbildet på mer enn 100 språk. Alternativt kan Lens også bruke tekst-til-tale på originalspråket, en funksjon som kan være nyttig for de med syn eller lesevansker.
Tekst-til-tale-funksjonen lanseres først i Google Go, en lett app designet for nye smarttelefon brukere. Chennapragada sier at teamet klarte å tilpasse disse språkene på litt over 100 KB plass, slik at appen kan kjøre på budsjetttelefoner.
"Å se er ofte forståelse," sa Chennapragada. "Med datasyn og AR blir kameraet til et kraftig visuelt verktøy for å forstå verden rundt deg."
Lens vil også få en håndfull nye funksjoner som en del av partnerskap. Lesere av Bon Appetit kan for eksempel skanne en oppskriftsside for å se en video av retten som lages. I juni vil Lens avdekke skjulte detaljer om malerier på San Fransiscos de Young Museum.
Oppdateringene føyer seg sammen med en voksende liste med funksjoner for Google Lens som muligheten til å slå opp kunstneren bak et kunstverk, handle lignende stiler eller finne navnet på blomsten du har sett. Google Lens, som nå har blitt brukt mer enn en milliard ganger, er tilgjengelig inne Google Assistant, Bilder, og direkte i den opprinnelige kameraappen på en rekke Android enheter.
Redaktørenes anbefalinger
- Denne nye Google Lens-funksjonen ser ut som den er rett ut av en sci-fi-film
- Du kan nå utvide Google Lens bildesøk med tekst
- Google Lens kan nå kopiere ekte tekst og lime den inn på datamaskinen din
- Google Assistant kan nå bestille kinobilletter for deg helt alene
- Google-designeren mener at Pixel 4s kameradesign er mer ikonisk enn Apples
Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.