Les plus grandes améliorations apportées aux nouveaux iPhone d'Apple concernent les appareils photo, et pas seulement à cause des nouveaux objectifs ultra grand angle du iPhone11, iPhone 11 Pro, et iPhone 11 Pro Max. Le logiciel qui alimente les caméras est responsable d'un bond en avant significatif en matière de qualité d'image grâce à des améliorations de photographie informatique techniques. L’un des plus intéressants est le rendu sémantique, une approche intelligente permettant d’ajuster automatiquement les hautes lumières, les ombres et la netteté dans des zones spécifiques d’une photo.
Qu’est-ce que le rendu sémantique ?
En intelligence artificielle, la « sémantique » fait référence à la capacité d’une machine à segmenter intelligemment les informations de la même manière que le ferait un humain. Différentes branches de l’apprentissage automatique peuvent avoir des utilisations différentes pour la segmentation sémantique, mais pour la photographie, cela commence par la reconnaissance du sujet.
Dans le cas d’Apple, l’appareil photo recherche spécifiquement toutes les personnes dans le cadre, mais cela va plus loin que cela. Lorsque l'iPhone détecte un sujet humain, Apple a déclaré à Digital Trends qu'il différenciait davantage la peau, les cheveux et même les sourcils. Il peut ensuite restituer ces segments différemment pour obtenir les meilleurs résultats, créant ainsi un portrait correctement exposé sur l'arrière-plan.
En rapport
- Ce sont les 2 seules raisons pour lesquelles je suis enthousiasmé par l’iPhone 15 Pro
- Un iPhone vient de se vendre pour une somme folle aux enchères
- Ce téléphone Android à 600 $ présente un gros avantage par rapport à l'iPhone
[/pullquote]Prenez simplement une photo et le téléphone fera le travail en fractions de seconde. [/pullquote]
Pour comprendre pourquoi cela est si important, il est également utile de comprendre comment fonctionne un appareil photo standard. Qu’il s’agisse d’un ancien iPhone ou d’un reflex numérique professionnel, un appareil photo ne sait généralement pas ce qu’il filme. Il connaît la couleur et la luminosité d’un pixel donné, mais il ne peut comprendre ce qu’il y a réellement dans le cadre. Lorsque vous sélectionnez le profil de couleur « portrait » sur un Nikon ou un Canon, par exemple, l'appareil photo applique simplement des paramètres à des plages de couleurs spécifiques de pixels couramment trouvées chez les sujets humains; il ne sait pas vraiment si une personne est présente ou non.
Un tel effet est appelé ajustement global, ce qui signifie qu’il est appliqué de manière égale à l’ensemble de la photo. C'est également ainsi que la plage dynamique élevée standard, ou HDR, les photos fonctionnent: les hautes lumières sont atténuées, les ombres sont augmentées et le contraste moyen peut être amélioré, mais sans tenir compte du contenu de l'image. Cette approche fonctionne bien pour des sujets comme les paysages, mais elle ne fonctionne pas toujours pour les portraits.
Avec le rendu sémantique, un iPhone11 peut appliquer des ajustements locaux plutôt que globaux. Cela signifie qu’un ciel lumineux peut voir sa luminosité réduite pour conserver les couleurs et les détails, tandis que les reflets du visage d’une personne ne seront pas autant réduits, préservant ainsi la profondeur du sujet. La netteté peut également être appliquée sur la peau et les cheveux avec différentes forces.
Les photographes effectuent ce type de retouche à la main dans des programmes comme Adobe Photoshop depuis des années, mais les améliorations sont appliquées instantanément sur un iPhone 11.
Comment l'utilisez-vous? Prenez simplement une photo et le téléphone fera le travail en quelques fractions de seconde. Sachez que le rendu sémantique n’affecte que les portraits humains; d'autres types de photos reçoivent le traitement HDR standard. Cela ne se limite pas au mode portrait: toute photo avec un sujet humain est automatiquement candidate au rendu sémantique.
La photographie informatique – qui intègre tout, du HDR aux modes portrait avec détection de profondeur – permet aux appareils photo des téléphones de dépasser les limites physiques de leurs petits objectifs et capteurs. Le rendu sémantique d’Apple fait partie de la prochaine évolution de ces technologies: Google a utilisé un apprentissage automatique similaire pour alimenter l’appareil photo de ses smartphones Pixel.
Bien que la technologie qui l’alimente soit complexe, son objectif est simple. En donnant à l’iPhone la possibilité de savoir quand il regarde une personne, il voit le monde un peu plus comme nous, ce qui conduit à des images plus naturelles et plus fidèles à la réalité.
Recommandations des rédacteurs
- J'ai perdu mon iPhone lors de vacances de rêve – et ce n'était pas un cauchemar
- Apple pourrait être confronté à une « grave » pénurie d’iPhone 15 en raison d’un problème de production, selon un rapport
- Je serai furieux si l’iPhone 15 Pro ne dispose pas de cette fonctionnalité
- J'ai essayé de remplacer ma GoPro par ce nouveau téléphone et sa caméra intelligente
- J'utilise un iPhone depuis 14 ans. Le Pixel Fold m’a donné envie d’arrêter
Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde en évolution rapide de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.