Die größten Verbesserungen an den neuen iPhones von Apple liegen bei den Kameras, und das nicht nur wegen der neuen Ultraweitwinkelobjektive iPhone 11, iPhone 11 Pro, Und iPhone 11 Pro Max. Die Software, die die Kameras antreibt, ist dank Verbesserungen in der Bildqualität für einen deutlichen Sprung nach vorne verantwortlich Computerfotografie Techniken. Eines der interessantesten ist das semantische Rendering, ein intelligenter Ansatz zur automatischen Anpassung von Lichtern, Schatten und Schärfe in bestimmten Bereichen eines Fotos.
Was ist semantisches Rendering?
In der künstlichen Intelligenz bezieht sich „Semantik“ auf die Fähigkeit einer Maschine, Informationen intelligent zu segmentieren, ähnlich wie es ein Mensch tun würde. Verschiedene Zweige des maschinellen Lernens können unterschiedliche Verwendungszwecke für die semantische Segmentierung haben, aber für die Fotografie beginnt es mit der Motiverkennung.
Im Fall von Apple sucht die Kamera gezielt nach Personen im Bild, geht aber noch eine Ebene tiefer. Wenn das iPhone ein menschliches Motiv erkennt, unterscheidet es laut Apple gegenüber Digital Trends weiter zwischen Haut, Haaren und sogar Augenbrauen. Anschließend können diese Segmente unterschiedlich gerendert werden, um die besten Ergebnisse zu erzielen und ein Porträt zu erstellen, das vor dem Hintergrund richtig belichtet wird.
Verwandt
- Das sind die einzigen 2 Gründe, warum ich mich für das iPhone 15 Pro freue
- Ein iPhone wurde gerade für einen wahnsinnigen Betrag versteigert
- Dieses 600-Dollar-Android-Handy hat einen großen Vorteil gegenüber dem iPhone
[/pullquote]Machen Sie einfach ein Foto und das Telefon erledigt die Arbeit in Sekundenbruchteilen. [/pullquote]
Um zu verstehen, warum dies so wichtig ist, ist es hilfreich, auch zu verstehen, wie eine Standardkamera funktioniert. Ob älteres iPhone oder professionelle DSLR, eine Kamera weiß meist nicht, was sie aufnimmt. Es kennt die Farbe und Helligkeit eines bestimmten Pixels, kann jedoch keine Aussage darüber treffen, was sich tatsächlich im Bild befindet. Wenn Sie beispielsweise bei einer Nikon oder Canon das Farbprofil „Porträt“ auswählen, wendet die Kamera lediglich Einstellungen auf bestimmte Farbbereiche von Pixeln an, die üblicherweise bei menschlichen Motiven zu finden sind; Es weiß nicht wirklich, ob eine Person anwesend ist oder nicht.
Ein solcher Effekt wird als globale Anpassung bezeichnet, was bedeutet, dass er gleichmäßig auf das gesamte Foto angewendet wird. Dies ist auch der Standard-High-Dynamic-Range oder HDR, Fotos funktionieren: Lichter werden abgeschwächt, Schatten werden angehoben und der Kontrast im mittleren Bereich kann verbessert werden – aber ohne Rücksicht auf den Inhalt des Bildes. Dieser Ansatz eignet sich gut für Motive wie Landschaften, funktioniert jedoch nicht immer für Porträts.
Mit semantischer Darstellung, an iPhone 11 kann lokale statt globale Anpassungen vornehmen. Dies bedeutet, dass die Helligkeit eines hellen Himmels reduziert werden kann, um Farbe und Details beizubehalten, während die Glanzlichter im Gesicht einer Person nicht so stark reduziert werden, wodurch die Tiefe des Motivs erhalten bleibt. Sharpe kann auch in unterschiedlichen Stärken auf Haut und Haar aufgetragen werden.
Fotografen führen diese Art der Retusche seit Jahren in Programmen wie Adobe Photoshop von Hand durch, doch auf einem iPhone 11 werden die Verbesserungen sofort angewendet.
Wie benutzt man es? Machen Sie einfach ein Foto und das Telefon erledigt die Arbeit in Sekundenbruchteilen. Beachten Sie, dass die semantische Darstellung nur menschliche Porträts betrifft. Andere Arten von Fotos erhalten die Standard-HDR-Behandlung. Es ist nicht auf den Porträtmodus beschränkt – jedes Foto mit einem menschlichen Motiv ist automatisch ein Kandidat für die semantische Darstellung.
Computergestützte Fotografie – die alles von HDR bis hin zu tiefenempfindlichen Porträtmodi umfasst – ermöglicht es Telefonkameras, die physischen Einschränkungen ihrer kleinen Objektive und Sensoren zu überwinden. Das semantische Rendering von Apple gehört zur nächsten Weiterentwicklung dieser Technologien – Google nutzt ähnliches maschinelles Lernen, um die Kamera seiner Pixel-Smartphones anzutreiben.
Auch wenn die zugrunde liegende Technologie komplex ist, ist ihr Ziel einfach. Dadurch, dass das iPhone erkennen kann, wann es eine Person ansieht, sieht es die Welt ein bisschen mehr wie wir, was zu Bildern führt, die natürlicher und lebensechter wirken.
Empfehlungen der Redaktion
- Ich habe mein iPhone in einem Traumurlaub verloren – und es war kein Albtraum
- Laut Bericht könnte Apple aufgrund von Produktionsproblemen mit einem „schwerwiegenden“ iPhone 15-Engpass konfrontiert sein
- Ich wäre wütend, wenn das iPhone 15 Pro diese eine Funktion nicht bekommt
- Ich habe versucht, meine GoPro durch dieses neue Telefon und seine clevere Kamera zu ersetzen
- Ich benutze seit 14 Jahren ein iPhone. Das Pixel Fold hat in mir den Wunsch geweckt, damit aufzuhören
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.