Tekniikka, nimeltään Gcam, sai alkunsa vuonna 2011, kun tutkijat alkoivat etsiä korkearesoluutioista kameraa, joka mahtuisi vielä Google Glassin silmälasikehykseen. Koska jättiläiskameran lisääminen lasien kylkeen ei tullut kysymykseen, tiimi alkoi sen sijaan tarkastella laskennallista valokuvausta.
Suositellut videot
Sen sijaan, että Gcam ottaisi yhden kuvan suurella korkearesoluutioisella anturilla, se ottaa useita kuvia matalaresoluutiolla anturilla ja yhdistämällä ne ohjelmiston kanssa luo korkearesoluutioisen kuvan – tai ainakin kuvan, joka voi kilpailla sen kanssa tyypillinen älypuhelin
kamera. Stanfordin tietotekniikan tiedekunnan Marc Levoyn johtama tiimi kutsui sitä kuvafuusioksi ja ominaisuutta, joka julkaistiin Google Glassissa vuonna 2013.Liittyvät
- Google Pixel 8: kaikki uusimmat huhut ja mitä haluamme nähdä
- Googlen tulevat Pixel-puhelimet saivat juuri huonoja uutisia
- Jotain outoa tapahtuu Google Pixel Foldin kanssa
Pienen kameran luominen ei kuitenkaan aiheuttanut ongelmia vain resoluutiossa – pienempi objektiivi tallentaa vähemmän valoa, joten valokuvat linssistä tarpeeksi pienet piiloutumaan Google Glassiin olivat myös melko huonoja hämärässä esiintyjä. Kuvien yhdistäminen auttoi korjaamaan asian. Mutta seuraavaksi tiimi tarkasteli, kuinka pienestä kamerasta saadaan enemmän irti käyttämällä korkeaa dynamiikkaa, tekniikkaa yhdistämällä useita kuvia eri valotustasoilla yhteen luodaksesi laajemman valikoiman valoa ja yksityiskohta. HDR+ käynnistettiin sitten nimellä Android kamerasovellus Nexus 5:lle (ja myöhemmin 6:lle) vuonna 2014.
Google Glass -kameran ja HDR+:n takana oleva laskennallinen valokuvaus on nyt Google Pixelissä, samoin kuin Google Photos -sovelluksessa, YouTubessa ja Jumpissa, virtuaalitodellisuuslaitteessa. Ominaisuus mahdollistaa linssin sumennusasetuksen Google Kuvien sisällä, kun sama ohjelma kokoaa 360 asteen videoita Jumpille.
Levoy sanoo, että kesti viisi vuotta saada Gcam-ohjelmisto juuri ennen kuin se julkaistiin Pixel-älypuhelimessa. Koska järjestelmä on vahvasti riippuvainen ohjelmistoista, kun käyttäjät alkoivat valittaa linssistä, tiimi käynnisti laiteohjelmistopäivityksen jotta ohjelmisto tunnistaa ja poistaa sen automaattisesti.
Mitä seuraavaksi tapahtuu pienelle kameralle, joka sai alkunsa Google Glassista ja nyt kattaa useita tuotteita? Ohjelmistokeskeinen kamerajärjestelmä voisi saada lisäpotkua tekoälyn perusteella. "Yksi suunta, jota ajamme, on koneoppiminen", Levan sanoi. "On olemassa monia mahdollisuuksia luoville asioille, jotka todella muuttavat katsomasi ulkoasua ja tuntumaa. Se voi tarkoittaa yksinkertaisia asioita, kuten harjoitussarjan luomista paremman valkotasapainon saavuttamiseksi. Tai mikä on oikea asia, jonka voisimme tehdä taustalle – pitäisikö meidän sumentaa sitä, tummentaa, vaalentaa tai tyylitellä? Olemme koneoppimisen suhteen maailman parhaalla paikalla, joten se on todellinen mahdollisuus yhdistää luova maailma laskennallisen valokuvauksen maailmaan.
Mitä tahansa seuraavaa muunnelmaa varten onkin luvassa, Pixelin menestys todennäköisesti asettaa sen riman melko korkealle.
Toimittajien suositukset
- Miksi en luovu Pixel Foldistani Galaxy Z Fold 5:lle
- Oletko innostunut Google Pixel 8 Prosta? Tämä vuoto vain pilasi kaiken
- Voiko Pixel Foldin kamera voittaa Galaxy Z Fold 4:n? sain selville
- Rakastan Google Pixel Tablettia – mutta siinä on saalis
- Tein Pixel 7a -kameratestin – ja se on huono uutinen Samsungille
Päivitä elämäntapasiDigital Trends auttaa lukijoita pysymään tekniikan nopeatempoisessa maailmassa uusimpien uutisten, hauskojen tuotearvostelujen, oivaltavien toimitusten ja ainutlaatuisten kurkistusten avulla.