De grootste verbeteringen aan de nieuwe iPhones van Apple zitten in de camera’s, en niet alleen vanwege de nieuwe ultragroothoeklenzen op de iPhone 11, iPhone 11 Pro, En iPhone 11 Pro Max. De software die de camera's aandrijft, is verantwoordelijk voor een aanzienlijke sprong voorwaarts in de beeldkwaliteit dankzij verbeteringen in de beeldkwaliteit computationele fotografie technieken. Een van de meest interessante is semantische weergave, een intelligente benadering voor het automatisch aanpassen van hooglichten, schaduwen en scherpte in specifieke delen van een foto.
Wat is semantische weergave?
Bij kunstmatige intelligentie verwijst ‘semantiek’ naar het vermogen van een machine om informatie slim te segmenteren, vergelijkbaar met hoe een mens dat zou doen. Verschillende takken van machinaal leren hebben misschien verschillende toepassingen voor semantische segmentatie, maar voor fotografie begint het met onderwerpherkenning.
In het geval van Apple zoekt de camera specifiek naar mensen binnen het frame, maar gaat nog een niveau dieper dan dat. Wanneer de iPhone een menselijk onderwerp detecteert, zegt Apple tegen Digital Trends, wordt er verder onderscheid gemaakt tussen huid, haar en zelfs wenkbrauwen. Vervolgens kan het deze segmenten anders weergeven om de beste resultaten te bereiken, waardoor een portret ontstaat dat goed over de achtergrond wordt belicht.
Verwant
- Dit zijn de enige twee redenen waarom ik enthousiast ben over de iPhone 15 Pro
- Een iPhone is zojuist op een veiling voor een bizar bedrag verkocht
- Deze Android-telefoon van $ 600 heeft één groot voordeel ten opzichte van de iPhone
[/pullquote]Maak gewoon een foto en de telefoon doet het werk in een fractie van een seconde. [/pullquote]
Om te begrijpen waarom dit zo belangrijk is, helpt het om ook te begrijpen hoe een standaardcamera werkt. Of het nu een oudere iPhone of een professionele DSLR is, een camera weet meestal niet wat hij fotografeert. Het kent de kleur en helderheid van een bepaalde pixel, maar kan geen enkele betekenis achterhalen over wat zich feitelijk in het frame bevindt. Wanneer u bijvoorbeeld het kleurprofiel “portret” selecteert op een Nikon of Canon, past de camera alleen instellingen toe op specifieke kleurbereiken van pixels die vaak voorkomen bij menselijke onderwerpen; het weet niet echt of een persoon aanwezig is of niet.
Een dergelijk effect wordt een globale aanpassing genoemd, wat betekent dat het gelijkmatig op de hele foto wordt toegepast. Dit is ook hoe standaard een hoog dynamisch bereik is, of HDR, foto's werken: hoge lichten worden verlaagd, schaduwen worden verhoogd en het contrast in het middenbereik kan worden verbeterd, maar zonder rekening te houden met wat er op de foto staat. Deze aanpak werkt goed voor onderwerpen als landschappen, maar werkt niet altijd voor portretten.
Met semantische weergave kan an iPhone 11 kan lokale, in plaats van globale, aanpassingen toepassen. Dit betekent dat de helderheid van een heldere lucht kan worden verminderd om de kleur en details te behouden, terwijl de hoogtepunten op het gezicht van een persoon niet zo veel worden verminderd, waardoor de diepte in het onderwerp behouden blijft. Ook kan Sharpness in verschillende sterktes op de huid en het haar worden aangebracht.
Fotografen voeren dit soort retouches al jaren met de hand uit in programma's als Adobe Photoshop, maar de verbeteringen worden direct toegepast op een iPhone 11.
Hoe gebruik je het? Maak gewoon een foto en de telefoon doet het werk in een fractie van een seconde. Weet dat semantische weergave alleen menselijke portretten beïnvloedt; andere soorten foto's krijgen de standaard HDR-behandeling. Het is niet beperkt tot de portretmodus: elke foto met een menselijk onderwerp komt automatisch in aanmerking voor semantische weergave.
Computationele fotografie – die alles omvat, van HDR tot dieptegevoelige portretmodi – stelt telefooncamera’s in staat de fysieke beperkingen van hun kleine lenzen en sensoren te overstijgen. De semantische weergave van Apple behoort tot de volgende evolutie van deze technologieën: Google heeft soortgelijke machine learning gebruikt om de camera in zijn Pixel-smartphones aan te drijven.
Hoewel de technologie die het aandrijft complex is, is het doel eenvoudig. Door de iPhone de mogelijkheid te geven om te weten wanneer hij naar een persoon kijkt, ziet hij de wereld een beetje meer zoals wij dat doen, wat leidt tot beelden die er natuurlijker en levensechter uitzien.
Aanbevelingen van de redactie
- Ik verloor mijn iPhone tijdens een droomvakantie – en het was geen nachtmerrie
- Apple kan te maken krijgen met een ‘ernstig’ iPhone 15-tekort vanwege productieproblemen, aldus het rapport
- Ik zal woedend zijn als de iPhone 15 Pro deze ene functie niet krijgt
- Ik heb geprobeerd mijn GoPro te vervangen door deze nieuwe telefoon en zijn slimme camera
- Ik gebruik al 14 jaar een iPhone. De Pixel Fold zorgde ervoor dat ik wilde stoppen
Upgrade uw levensstijlMet Digital Trends kunnen lezers de snelle technische wereld in de gaten houden met het laatste nieuws, leuke productrecensies, inzichtelijke redactionele artikelen en unieke sneak peeks.