Die Technologie mit dem Namen Gcam entstand erstmals im Jahr 2011, als Forscher begannen, nach einer hochauflösenden Kamera zu suchen, die noch in ein Brillengestell für Google Glass passt. Da das Anbringen einer riesigen Kamera an der Seite der Brille nicht in Frage kam, begann das Team stattdessen, sich mit Computerfotografie zu befassen.
Empfohlene Videos
Anstatt ein einzelnes Bild auf einem großen Sensor mit hoher Auflösung aufzunehmen, nimmt Gcam mehrere Bilder auf einem Sensor mit niedriger Auflösung auf und Durch die Zusammenführung mit Software entsteht ein hochauflösendes Bild – oder zumindest ein Bild, das mit dem konkurrieren kann typisch
Smartphone Kamera. Das Team unter der Leitung des Stanford-Informatikdozenten Marc Levoy nannte es Bildfusion und führte die Funktion 2013 in Google Glass ein.Verwandt
- Google Pixel 8: alle aktuellen Gerüchte und was wir sehen wollen
- Die zukünftigen Pixel-Telefone von Google wurden gerade von schlechten Nachrichten getroffen
- Mit meinem Google Pixel Fold passiert etwas Seltsames
Die Entwicklung einer kleinen Kamera führte jedoch nicht nur zu Problemen bei der Auflösung – ein kleineres Objektiv erfasst auch weniger Licht, so dass Fotos aus dem Objektiv, das klein genug war, um in Google Glass versteckt zu werden, auch bei schwachem Licht ziemlich schlecht waren Künstler. Das Zusammenfügen der Fotos hat geholfen, das zu korrigieren. Doch als Nächstes versuchte das Team, mithilfe einer Technik mit hohem Dynamikbereich mehr aus der winzigen Kamera herauszuholen Zusammenfügen mehrerer Bilder mit unterschiedlichen Belichtungsstufen, um ein breiteres Lichtspektrum zu erzeugen Detail. HDR+ dann als gestartet Android Kamera-App für Nexus 5 (und später 6) im Jahr 2014.
Die Computerfotografie hinter der Google Glass-Kamera und HDR+ ist jetzt im Google Pixel sowie in der Google Fotos-App, YouTube und Jump, einem Virtual-Reality-Gerät, enthalten. Die Funktion ermöglicht die Einstellung der Linsenunschärfe in Google Fotos, während dasselbe Programm 360°-Videos für Jump zusammenstellt.
Laut Levoy hat es fünf Jahre gedauert, bis die Gcam-Software auf dem Pixel-Smartphone verfügbar war. Da das System stark auf Software angewiesen ist, begann das Team, als Benutzer sich über Linseneffekte zu beschweren ein Firmware-Update gestartet damit die Software es automatisch erkennt und entfernt.
Was kommt also als nächstes mit der winzigen Kamera, die in Google Glass begann und nun mehrere Produkte abdeckt? Das softwarefokussierte Kamerasystem könnte auf Basis künstlicher Intelligenz einen Schub bekommen. „Eine Richtung, die wir vorantreiben, ist maschinelles Lernen“, sagte Levan. „Es gibt viele Möglichkeiten für kreative Dinge, die das Erscheinungsbild dessen, was man betrachtet, tatsächlich verändern. Das könnte einfache Dinge wie die Erstellung eines Trainingssatzes bedeuten, um einen besseren Weißabgleich zu erzielen. Oder was könnten wir mit dem Hintergrund richtig machen – sollen wir ihn verwischen, abdunkeln, aufhellen, stilisieren? Was maschinelles Lernen angeht, sind wir weltweit an der Spitze, daher ist es eine echte Chance, die kreative Welt mit der Welt der Computerfotografie zu verschmelzen.“
Was auch immer die nächste Variante erwartet, der Erfolg des Pixels legt die Messlatte wahrscheinlich ziemlich hoch.
Empfehlungen der Redaktion
- Warum ich mein Pixel Fold nicht gegen das Galaxy Z Fold 5 eintausche
- Sind Sie gespannt auf das Google Pixel 8 Pro? Dieses Leck hat einfach alles verdorben
- Kann die Kamera des Pixel Fold die des Galaxy Z Fold 4 schlagen? ich fand heraus
- Ich liebe das Google Pixel Tablet – aber es gibt einen Haken
- Ich habe einen Pixel 7a-Kameratest gemacht – und das sind schlechte Nachrichten für Samsung
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.