¿Qué es el renderizado semántico y cómo mejora la cámara del iPhone 11?

Triple cámara trasera del iPhone 11 Pro Max
Julian Chokkattu/Tendencias digitales

Las mayores mejoras de los nuevos iPhone de Apple están en las cámaras, y no sólo por las nuevas lentes ultra gran angular del iPhone 11, iPhone 11 Pro, y iPhone 11 Pro Max. El software que alimenta las cámaras es responsable de un importante avance en la calidad de la imagen gracias a las mejoras en fotografía computacional técnicas. Uno de los más interesantes es el renderizado semántico, un enfoque inteligente para ajustar automáticamente las luces, las sombras y la nitidez en áreas específicas de una foto.

¿Qué es la representación semántica?

En inteligencia artificial, la "semántica" se refiere a la capacidad de una máquina para segmentar información de manera inteligente de manera similar a como lo haría un humano. Las diferentes ramas del aprendizaje automático pueden tener diferentes usos para la segmentación semántica, pero en el caso de la fotografía, comienza con el reconocimiento del sujeto.

En el caso de Apple, la cámara busca específicamente a cualquier persona dentro del encuadre, pero va un nivel más profundo que eso. Cuando el iPhone detecta un sujeto humano, Apple le dijo a Digital Trends que diferencia aún más entre piel, cabello e incluso cejas. Luego puede renderizar estos segmentos de manera diferente para lograr los mejores resultados, creando un retrato que esté correctamente expuesto sobre el fondo.

Relacionado

  • Estas son las dos únicas razones por las que estoy entusiasmado con el iPhone 15 Pro
  • Un iPhone acaba de venderse por una cantidad increíble en una subasta
  • Este teléfono Android de 600 dólares tiene una gran ventaja sobre el iPhone

[/pullquote]Simplemente toma una fotografía y el teléfono hará el trabajo en fracciones de segundo. [/pullquote]

Para comprender por qué esto es tan importante, es útil comprender también cómo funciona una cámara estándar. Ya sea un iPhone antiguo o una DSLR profesional, una cámara normalmente no sabe lo que está disparando. Conoce el color y el brillo de cualquier píxel determinado, pero no puede captar ningún significado sobre lo que realmente hay en el marco. Cuando selecciona el perfil de color "retrato" en una Nikon o Canon, por ejemplo, la cámara simplemente aplica ajustes a rangos de color específicos de píxeles que se encuentran comúnmente en sujetos humanos; realmente no sabe si una persona está presente o no.

Este efecto se denomina ajuste global, lo que significa que se aplica a toda la foto por igual. Así es también como se utiliza el alto rango dinámico estándar, o HDR, las fotos funcionan: se reducen las luces, se aumentan las sombras y se puede mejorar el contraste de rango medio, pero sin tener en cuenta lo que hay en la imagen. Este enfoque funciona bien para temas como paisajes, pero no siempre funciona para retratos.

Modo retrato del iPhone 11Julian Chokkattu/Tendencias digitales

Con la representación semántica, un iPhone 11 pueden aplicar ajustes locales, en lugar de globales. Esto significa que se puede reducir el brillo de un cielo brillante para mantener el color y los detalles, mientras que las luces en el rostro de una persona no se reducirán tanto, preservando la profundidad del sujeto. Sharpness también se puede aplicar a la piel y al cabello en diferentes concentraciones.

Los fotógrafos llevan años haciendo este tipo de retoque a mano en programas como Adobe Photoshop, pero las mejoras se aplican instantáneamente en un iPhone 11.

¿Como lo usas? Simplemente toma una fotografía y el teléfono hará el trabajo en fracciones de segundo. Sepa que la representación semántica sólo afecta a los retratos humanos; Otros tipos de fotografías reciben el tratamiento HDR estándar. No se limita al modo retrato: cualquier fotografía con un sujeto humano es automáticamente candidata para la representación semántica.

La fotografía computacional, que incorpora todo, desde HDR hasta modos de retrato con detección de profundidad, permite que las cámaras de los teléfonos superen las limitaciones físicas de sus pequeños lentes y sensores. La representación semántica de Apple se encuentra entre la próxima evolución de estas tecnologías: Google ha estado utilizando un aprendizaje automático similar para alimentar la cámara de sus teléfonos inteligentes Pixel.

Si bien la tecnología que lo impulsa es compleja, su objetivo es simple. Al darle al iPhone la capacidad de saber cuándo está mirando a una persona, ve el mundo un poco más como nosotros, lo que genera imágenes que parecen naturales y más reales.

Recomendaciones de los editores

  • Perdí mi iPhone en unas vacaciones de ensueño y no fue una pesadilla
  • Apple puede enfrentar una escasez "grave" de iPhone 15 por un problema de producción, según un informe
  • Estaré furioso si el iPhone 15 Pro no tiene esta característica
  • Intenté reemplazar mi GoPro con este nuevo teléfono y su cámara inteligente
  • He usado un iPhone durante 14 años. El Pixel Fold me hizo querer parar

Mejora tu estilo de vidaDigital Trends ayuda a los lectores a mantenerse al tanto del vertiginoso mundo de la tecnología con las últimas noticias, reseñas divertidas de productos, editoriales interesantes y adelantos únicos.