Als ich das Original getestet habe Sony A7 2014 verkündete ich, dass die Zukunft der Fotografie spiegellos sein würde. Ich hab mich geirrt. Die Zukunft der Fotografie ist rechnerisch und Sie müssen nur einen einzigen Tag mit dem Google Pixel 2 verbringen, um sich mit dieser Tatsache vertraut zu machen.
Ich habe mehrere Tage damit verbracht, als ich sie als meine einzige Kamera mit in den Urlaub genommen habe. Die Kamera im Google Pixel 2 (Und Pixel 2 XL) ist so gut, dass es sich wie Magie anfühlt. Dafür ist nicht die Kamera-Hardware selbst (Objektiv und Bildsensor) verantwortlich, sondern die Software und Verarbeitung von Google. Dank an Algorithmen für maschinelles Lernen und die Fortgeschrittenen HDRDank des +-Modus, den es bei Google-Handys schon seit einigen Jahren gibt, produziert das Pixel 2 die schönsten Bilder, die ich je auf einem gemacht habe Smartphone. Darüber hinaus liefert es in manchen Situationen sogar bessere Ergebnisse als viele direkt von der Kamera aufgenommene Bilder mit einer DSLR oder spiegellose Kamera.
Natürlich werden größere Kameras mit Wechselobjektiven nicht verschwinden – sie sind immer noch da Einschränkungen des Rechenansatzes von Google, und es gibt keinen Ersatz für die Möglichkeit, sie auszutauschen verschiedene Objektive. Aber mit 650 US-Dollar ist das Pixel 2 so teuer, dass es mit fortschrittlichen Kompaktkameras wie der konkurrieren kann Sony RX100-Serie, und für die meisten Menschen ist es der offensichtlich bessere Kauf – schließlich erhält man damit ein ganzes Telefon.
Verwandt
- Ich habe einen Pixel 7a-Kameratest gemacht – und das sind schlechte Nachrichten für Samsung
- Dieser Leak zur Pixel Watch 2 hat sie zur Smartwatch 2023 gemacht, auf die ich kaum warten kann
- Besitzen Sie ein altes Google Pixel? Dieser Kameratest macht Lust auf ein Pixel 7a
Wir haben die Kamera des Pixel 2 bereits angepriesen, aber in diesem Artikel betrachte ich sie aus der Sicht eines Berufsfotografen und frage mich, ob sie wirklich als „echter Kameraersatz“ fungieren kann.
Empfohlene Videos
Warum der Dynamikbereich wichtig ist
Dynamikbereich Möglicherweise ist dies der am wenigsten verstandene Aspekt der Bildqualität unter Nicht-Fotografen. Die meisten Menschen verstehen im Allgemeinen Megapixel und sogar Rauschen/Körnung, aber der Dynamikbereich ist einer der Schlüssel Aspekte der Bildqualität, die eine DSLR- oder spiegellose Kamera mit großem Sensor von so etwas wie einer unterscheidet Smartphone.
Im Wesentlichen ist eine Kamera, die einen größeren Dynamikbereich erfasst, in der Lage, ein breiteres Spektrum an Tönen zu „sehen“. Dadurch bleiben mehr Details in den Schatten und Lichtern eines Bildes erhalten, als dies mit einer schwächeren Kamera der Fall wäre abgeschnitten. Wenn Sie jemals ein Foto an einem hellen, sonnigen Tag aufgenommen haben, sind Sie wahrscheinlich auf die Dynamikbereichsbeschränkung Ihrer Kamera gestoßen – insbesondere, wenn es sich bei der Kamera um ein Telefon oder eine andere kleine Kompaktkamera handelte. Dies kann daran liegen, dass Ihr Motiv vor einem von hinten beleuchteten Himmel zu dunkel ist oder dass der Himmel rein weiß statt blau erscheint. Die Kamera versucht ihr Bestes, um den großen Kontrastumfang der Szene auszugleichen, muss aber irgendwo Abstriche machen.
Die Kamera im Pixel 2 ist so gut, dass es sich wie Magie anfühlt.
Der Sensor im Pixel 2 hat das gleiche Problem, Google hat es jedoch mit einer Software umgangen. Wenn HDR+ aktiviert ist, nimmt die Kamera eine schnelle Fotoserie mit jeweils kurzen Belichtungszeiten auf, um Glanzlichter beizubehalten und Bewegungsunschärfe zu verhindern. Anschließend werden die Bilder zusammengeführt und die Schatten automatisch verstärkt, um Details wiederherzustellen.
Während es bei einem Einzelbelichtungsfoto möglich ist, die Schatten zu verstärken, würde dies jedoch auch zu einer Verstärkung des Rauschens führen. Da das Pixel 2 über mehrere Fotos verfügt, mit denen gearbeitet werden kann, wird das Schattenrauschen gemittelt und Sie erhalten am Ende ein viel saubereres Ergebnis. Google hat eine Ausführliche Erklärung von HDR+ wenn Sie daran interessiert sind, mehr darüber zu erfahren, wie es funktioniert.
Im Grunde ähnelt dies der Funktionsweise anderer HDR-Modi in anderen Telefonen, aber auf dem Pixel 2 funktioniert es einfach unglaublich gut. Das System ist intelligent genug, um Details über einen sehr breiten Tonwertbereich hinweg zu bewahren, ohne dass das Bild zu flach wird oder in das psychedelische, übertriebene Bild abfällt.
Stereo-Tiefenkartierung mit einem einzigen Objektiv
Während viele Telefone über „Porträtmodi“ verfügen, die ein flaches Bild imitieren Tiefenschärfe, die meisten erreichen dies durch die Verwendung von zwei separaten Linsen und Sensoren, die nebeneinander angeordnet sind. Dadurch kann das Telefon eine Tiefenkarte basierend auf den subtilen Unterschieden zwischen den beiden Bildern berechnen, ähnlich wie unsere Augen die Tiefe in der Welt um uns herum wahrnehmen. Das Pixel 2 verfügt nur über ein einziges Kameramodul und kann dennoch die gleiche stereoskopische Tiefenkarte erstellen.
- 1. Originalbild vor der Anwendung der synthetischen Tiefenkarte. (Fotos: Sam Kweskin/Google)
- 2. Tiefenkarte, die mit dem Stereoalgorithmus von Google erstellt wurde. Je heller, desto näher an der Kamera.
- 3. Visualisierung der auf jedes Pixel angewendeten Unschärfe. Je heller das Rot, desto stärker die Unschärfe.
- 4. Endgültiges synthetisches Bild mit geringer Schärfentiefe, generiert durch die Kombination von HDR+, Segmentierungsmaske und Tiefenkarte.
Magie? Fast. Das Pixel 2 verwendet einen On-Chip-Phasendetektions-Autofokus, was bedeutet, dass jedes Pixel tatsächlich in zwei Hälften geteilt wird. Google hat eine viel ausführlichere Erklärung Wie der Porträtmodus funktioniert, aber im Grunde bieten diese geteilten Pixel gerade genug Stereotrennung, um eine Tiefenkarte zu erstellen.
Dies ermöglicht Fotos mit geringer Schärfentiefe von jedem Motiv innerhalb der zulässigen Entfernung, aber für Porträts geht das Telefon noch einen Schritt weiter. Es nutzt KI, die auf Millionen von Beispielfotos in einem neuronalen Netzwerk trainiert wurde, um Gesichter zu erkennen und so die Genauigkeit der Unschärfe an den Stellen im Foto zu verbessern.
In der Praxis weist der Porträtmodus des Pixel 2 die gleichen Inkonsistenzen wie bei anderen Smartphones auf, aber vor allem bin ich beeindruckt, dass er überhaupt funktioniert. Mit der Verbesserung der KI und der Rechenleistung wird dieser rechnerische Ansatz zur Kontrolle der Schärfentiefe noch besser und bietet möglicherweise Vorteile gegenüber einer DSLR- oder spiegellosen Kamera. Das heißt, alles, was rechnerisch erledigt wird, kann theoretisch im Nachhinein kontrolliert oder entfernt werden. Die Schärfentiefe und sogar die subjektive Qualität der Unschärfe könnten in der Postbearbeitung verändert werden, was neue Möglichkeiten der kreativen Kontrolle eröffnet.
Ein Pixel sagt mehr als tausend Worte
Es lässt sich darüber streiten, ob das Pixel 2 (und sein größerer Bruder, das Pixel 2 XL) das beste Smartphone auf dem Markt ist, aber es ist sicherlich eines der besten
Ich werde immer noch an meiner spiegellosen Ausrüstung festhalten, aber das Pixel 2 beweist, dass Software und nicht Hardware die Zukunft der Fotografie ist.
Empfehlungen der Redaktion
- Kann die Kamera des Pixel Fold die des Galaxy Z Fold 4 schlagen? ich fand heraus
- Google Pixel Watch 2: Gemunkelter Preis, Erscheinungsdatum, Neuigkeiten und mehr
- Google kann das perfekte Pixel-Telefon entwickeln – wenn sich dadurch etwas ändert
- Google Pixel Watch 2 könnte viel früher erscheinen, als wir dachten
- Kann das OnePlus 11 das Pixel 7 in einem harten Kameratest schlagen? ich fand heraus
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.