Technologia o nazwie Gcam pojawiła się po raz pierwszy w 2011 roku, kiedy badacze zaczęli szukać aparatu o wysokiej rozdzielczości, który nadal zmieściłby się w oprawkach okularów do Google Glass. Ponieważ dodanie gigantycznego aparatu z boku okularów nie wchodziło w grę, zespół zamiast tego zajął się fotografią obliczeniową.
Polecane filmy
Zamiast robić pojedyncze zdjęcie na dużym czujniku o wysokiej rozdzielczości, Gcam robi kilka zdjęć na czujniku o niskiej rozdzielczości i, łącząc je razem z oprogramowaniem, tworzy obraz o wysokiej rozdzielczości — lub przynajmniej obraz, który może konkurować z typowy
smartfon kamera. Zespół kierowany przez Marca Levoya, wykładowcę informatyki na Uniwersytecie Stanforda, nazwał to fuzją obrazów i funkcję tę wprowadzono w Google Glass w 2013 roku.Powiązany
- Google Pixel 8: wszystkie najnowsze plotki i to, co chcemy zobaczyć
- Przyszłe telefony Pixel firmy Google właśnie otrzymały złe wieści
- Coś dziwnego dzieje się z moim Google Pixel Fold
Jednak stworzenie małego aparatu nie tylko spowodowało problemy z rozdzielczością — mniejszy obiektyw rejestruje mniej światło, więc zdjęcia z obiektywu na tyle małego, że można było je ukryć w Google Glassach, też były w dość słabym świetle wykonawca. Połączenie zdjęć pomogło to naprawić. Następnie zespół przyjrzał się, jak wydobyć więcej z małej kamery, stosując technikę o dużym zakresie dynamiki łączenie wielu obrazów o różnych poziomach ekspozycji w celu uzyskania szerszego zakresu światła i Szczegół. HDR+ następnie uruchomiony jako Android aplikacja aparatu na Nexusa 5 (i nowsze wersje 6) w 2014 r.
Fotografia obliczeniowa za aparatem Google Glass i HDR+ jest teraz dostępna w Google Pixel, a także w aplikacji Zdjęcia Google, YouTube i Jump, urządzeniu rzeczywistości wirtualnej. Ta funkcja umożliwia ustawienie rozmycia obiektywu w Zdjęciach Google, podczas gdy ten sam program składa filmy 360° dla Jump.
Levoy twierdzi, że opracowanie oprogramowania Gcam tuż przed jego premierą w smartfonie Pixel zajęło pięć lat. Ponieważ system w dużej mierze opiera się na oprogramowaniu, gdy użytkownicy zaczęli narzekać na odblaski obiektywu, zespół ds uruchomił aktualizację oprogramowania sprzętowego aby oprogramowanie automatycznie je wykryło i usunęło.
Co dalej z małym aparatem, który zaczął się w Google Glass, a teraz obejmuje wiele produktów? System kamer skupiony na oprogramowaniu może zostać ulepszony w oparciu o sztuczną inteligencję. „Jednym z kierunków, w jakim podążamy, jest uczenie maszynowe” – powiedział Levan. „Istnieje wiele możliwości tworzenia kreatywnych rzeczy, które faktycznie zmieniają wygląd i styl tego, na co patrzysz. Może to oznaczać proste rzeczy, takie jak utworzenie zestawu treningowego w celu uzyskania lepszego balansu bieli. Albo co właściwie moglibyśmy zrobić z tłem — czy powinniśmy je rozmazać, przyciemnić, rozjaśnić, nadać stylowi? Jesteśmy w najlepszym miejscu na świecie pod względem uczenia maszynowego, więc jest to realna szansa na połączenie świata kreatywnego ze światem fotografii obliczeniowej.”
Niezależnie od tego, co czeka następną odmianę, sukces Pixela prawdopodobnie ustawi poprzeczkę dość wysoko.
Zalecenia redaktorów
- Dlaczego nie porzucę Pixela Folda na rzecz Galaxy Z Fold 5
- Nie możesz się doczekać Google Pixel 8 Pro? Ten wyciek po prostu wszystko zepsuł
- Czy aparat Pixela Fold może pokonać Galaxy Z Fold 4? dowiedziałem się
- Uwielbiam tablet Google Pixel — ale jest w nim pewien haczyk
- Zrobiłem test aparatu Pixela 7a – i to zła wiadomość dla Samsunga
Ulepsz swój styl życiaTrendy cyfrowe pomagają czytelnikom śledzić szybko zmieniający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zapowiedziom.