Tekniken, som kallas Gcam, startade först 2011 när forskare började leta efter en högupplöst kamera som fortfarande kunde passa in i ett par glasögonbågar för Google Glass. Eftersom det inte var aktuellt att lägga till en gigantisk kamera på sidan av glasögonen började teamet istället titta på datorfotografering.
Rekommenderade videor
Istället för att ta en enda bild på en stor högupplöst sensor tar Gcam flera bilder på en lågupplöst sensor och, genom att slå samman dem med mjukvara, skapar en högupplöst bild — eller åtminstone en bild som kan konkurrera med typisk smartphone kamera. Teamet, ledd av Stanford Computer Science-fakulteten Marc Levoy, kallade det bildfusion och funktionen lanserades i Google Glass 2013.
Relaterad
- Google Pixel 8: alla de senaste ryktena och vad vi vill se
- Googles framtida Pixel-telefoner fick just dåliga nyheter
- Något konstigt händer med min Google Pixel Fold
Att skapa en liten kamera introducerade dock inte bara problem med upplösningen – ett mindre objektiv fångar mindre ljus, så foton från objektivet som är tillräckligt små för att gömma sig i Google Glass var också ett ganska dåligt svagt ljus artist. Att slå samman bilderna hjälpte till att rätta till det. Men teamet tittade därefter på att få ut mer av den lilla kameran med hjälp av högt dynamiskt omfång, en teknik slå samman flera bilder på olika exponeringsnivåer för att skapa ett bredare ljusområde och detalj. HDR+ lanserades sedan som en Android kameraapp för Nexus 5 (och senare 6) 2014.
Beräkningsfotograferingen bakom Google Glass-kameran och HDR+ finns nu i Google Pixel, liksom Google Photos-appen, YouTube och Jump, en virtuell verklighetsenhet. Funktionen gör inställningen av objektivoskärpa i Google Foton möjlig medan samma program plockar ihop 360-videor för Jump.
Levoy säger att det tog fem år att få Gcam-mjukvaran precis innan den lanserades i Pixel-smarttelefonen. Eftersom systemet är starkt beroende av programvara, när användare började klaga på linsreflexer, teamet lanserade en firmwareuppdatering för att programvaran automatiskt ska upptäcka och ta bort den.
Så vad är nästa steg för den lilla kameran som började i Google Glass och nu täcker flera produkter? Det mjukvarufokuserade kamerasystemet kan få ett uppsving baserat på artificiell intelligens. "En riktning som vi driver är maskininlärning," sa Levan. "Det finns massor av möjligheter för kreativa saker som faktiskt förändrar utseendet och känslan av det du tittar på. Det kan betyda enkla saker som att skapa ett träningsset för att få en bättre vitbalans. Eller vad är det rätta vi kan göra med bakgrunden – ska vi sudda ut den, ska vi mörka den, göra den ljusare, stilisera den? Vi är på den bästa platsen i världen när det gäller maskininlärning, så det är en verklig möjlighet att slå samman den kreativa världen med en värld av datorfotografi."
Oavsett vad som väntar nästa variant, kommer framgången för Pixel sannolikt att sätta ribban ganska högt.
Redaktörens rekommendationer
- Varför jag inte lämnar min Pixel Fold för Galaxy Z Fold 5
- Är du sugen på Google Pixel 8 Pro? Denna läcka förstörde bara allt
- Kan Pixel Folds kamera slå Galaxy Z Fold 4? jag fick reda på
- Jag älskar Google Pixel-surfplattan - men det finns en hake
- Jag gjorde ett Pixel 7a-kameratest – och det är dåliga nyheter för Samsung
Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.