Datorseende använder kameran när du saknar ord – men Google Lens kan snart göra mer än bara omvänd sökning efter liknande föremål eller detaljer om vad som finns på bilden. Under I/O tisdagen den 7 maj, Google visade nya sökfunktioner som drivs av kameran och utökade Lens-färdigheter för att beräkna tips, översätta text och mer.
Rekommenderade videor
Under keynoten, Aparna Chennapragada, Googles vicepresident för kamera- och augmented reality-produkter, visade hur Googles sökresultat kan använda AR för att ta med dig 3D-modeller i rummet utan att lämna sökningen resultat. En ny "visa i 3D-knapp" dyker upp i sökresultaten när 3D-innehåll är tillgängligt.
Förutom att tillåta användare att titta runt 3D-objektet från alla vinklar, kommer uppdateringen också att ge det 3D-objekt till AR, blanda modellen med innehållet från din kamera för att se objektet framför dig. Chennapragada säger att verktyget kommer att vara användbart för uppgifter som forskning tillsammans med shopping.
Relaterad
- Googles livsförändrande demo av smarta AR-glasögon gav mig rysningar
- Google lägger till fler iMessage-funktioner till Androids Messages-app
- Google lägger till ikoner i bildsökningar för att ge mer information om miniatyrer
Kamerafunktionen för sökning väntas komma senare i maj. Partners som NASA, New Balance, Samsung, Target, Visible Body, Volvo, Wayfair och andra kommer att vara bland de första som får sitt 3D-innehåll att dyka upp i sökresultaten.
När sökningen blir mer kameratung går Google Lens längre än att bara söka med en kamera. På en restaurang kan Lens snart skanna menyn, lyfta fram de mest populära rätterna, ta upp bilder och till och med lyfta fram recensioner från andra matgäster med hjälp av Google kartor. Kameran måste först skilja mellan de olika menyalternativen innan den matchar texten med relevanta resultat online. I slutet av måltiden kommer Lens att räkna ut dricksen eller dela räkningen med vänner när kameran riktas mot kvittot.
Google Lens får också möjligheten att verbalt översätta text. Medan tidigare versioner kan använda Smart Text för att markera text som ska kopieras eller översättas kan Lens snart läsa texten högt eller lägga den översatta texten över originalbilden på mer än 100 språk. Alternativt kan Lens också använda text-till-tal på originalspråket, en funktion som kan vara till hjälp för personer med syn- eller lässvårigheter.
Text-till-tal-funktionen lanseras först i Google Go, en lätt app designad för nya smartphone användare. Chennapragada säger att teamet lyckades få in dessa språk på drygt 100KB utrymme, vilket gör att appen kan köras på budgettelefoner.
"Att se är ofta förståelse," sa Chennapragada. "Med datorseende och AR förvandlas kameran till ett kraftfullt visuellt verktyg för att förstå världen omkring dig."
Lens kommer också att få en handfull nya funktioner som en del av partnerskap. Läsare av Bon Appetit kan till exempel skanna en receptsida för att se en video av rätten som skapas. I juni kommer Lens att avslöja dolda detaljer om målningar på San Fransiscos de Young Museum.
Uppdateringarna ansluter sig till en växande lista med funktioner för Google Lens som möjligheten att leta upp konstnären bakom ett konstverk, handla liknande stilar eller hitta namnet på den blomman du såg. Google Lens, som nu har använts mer än en miljard gånger, finns tillgänglig inuti Google Assistant, Foton och direkt i den inbyggda kameraappen på ett antal Android enheter.
Redaktörens rekommendationer
- Den här nya Google Lens-funktionen ser ut som om den är direkt ur en sci-fi-film
- Du kan nu utöka Google Lens fotosökningar med text
- Google Lens kan nu kopiera verklig text och klistra in den på din dator
- Google Assistant kan nu boka biobiljetter åt dig helt själv
- Googles designer anser att Pixel 4:s kameradesign är mer ikonisk än Apples
Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.