O que é renderização semântica e como ela melhora a câmera do iPhone 11

Câmera tripla traseira do iPhone 11 Pro Max
Julian Chokkattu/Tendências Digitais

As maiores melhorias nos novos iPhones da Apple estão nas câmeras, e não apenas por causa das novas lentes ultra grande angulares do iPhone 11, iPhone 11 Pro, e iPhone 11 Pro Máx.. O software que alimenta as câmeras é responsável por um salto significativo na qualidade da imagem graças a melhorias na fotografia computacional técnicas. Uma das mais interessantes é a renderização semântica, uma abordagem inteligente para ajustar automaticamente realces, sombras e nitidez em áreas específicas de uma foto.

O que é renderização semântica?

Na inteligência artificial, “semântica” refere-se à capacidade de uma máquina de segmentar informações de forma inteligente, semelhante à forma como um ser humano faria. Diferentes ramos do aprendizado de máquina podem ter usos diferentes para a segmentação semântica, mas para a fotografia ela começa com o reconhecimento do assunto.

No caso da Apple, a câmera procura especificamente qualquer pessoa dentro do quadro, mas vai um nível mais profundo do que isso. Quando o iPhone detecta um sujeito humano, a Apple disse à Digital Trends que diferencia ainda mais entre pele, cabelo e até sobrancelhas. Ele pode então renderizar esses segmentos de maneira diferente para obter os melhores resultados, criando um retrato que fica devidamente exposto sobre o fundo.

Relacionado

  • Estas são as únicas duas razões pelas quais estou entusiasmado com o iPhone 15 Pro
  • Um iPhone acabou de ser vendido por uma quantia absurda em leilão
  • Este telefone Android de US$ 600 tem uma grande vantagem sobre o iPhone

[/pullquote]Basta tirar uma foto e o telefone fará o trabalho em frações de segundo. [/pullquote]

Para entender por que isso é tão importante, é útil entender também como funciona uma câmera padrão. Quer seja um iPhone mais antigo ou uma DSLR profissional, uma câmera geralmente não sabe o que está filmando. Ele conhece a cor e o brilho de qualquer pixel, mas não consegue extrair nenhum significado sobre o que realmente está no quadro. Quando você seleciona o perfil de cores “retrato” em uma Nikon ou Canon, por exemplo, a câmera está apenas aplicando configurações a faixas de cores específicas de pixels comumente encontradas em assuntos humanos; não sabe realmente se uma pessoa está presente ou não.

Esse efeito é chamado de ajuste global, o que significa que é aplicado igualmente a toda a foto. É também assim que a alta faixa dinâmica padrão, ou HDR, as fotos funcionam: os realces são reduzidos, as sombras são aumentadas e o contraste médio pode ser melhorado – mas sem levar em conta o que está na imagem. Essa abordagem funciona bem para assuntos como paisagens, mas nem sempre funciona para retratos.

Modo retrato do iPhone 11Julian Chokkattu/Tendências Digitais

Com renderização semântica, um iPhone 11 pode aplicar ajustes locais, em vez de globais. Isso significa que um céu claro pode ter seu brilho reduzido para manter a cor e os detalhes, enquanto os realces no rosto de uma pessoa não serão tão reduzidos, preservando a profundidade do assunto. A nitidez também pode ser aplicada à pele e ao cabelo em diferentes intensidades.

Os fotógrafos vêm fazendo esse tipo de retoque manual em programas como o Adobe Photoshop há anos, mas os aprimoramentos são aplicados instantaneamente em um iPhone 11.

como você usa isso? Basta tirar uma foto e o telefone fará o trabalho em frações de segundo. Saiba que a renderização semântica afeta apenas retratos humanos; outros tipos de fotos recebem o tratamento HDR padrão. Não se limita ao modo retrato – qualquer foto com um sujeito humano é automaticamente candidata à renderização semântica.

A fotografia computacional – que incorpora tudo, desde HDR até modos de retrato com detecção de profundidade – permite que as câmeras dos telefones superem as limitações físicas de suas pequenas lentes e sensores. A renderização semântica da Apple está entre a próxima evolução dessas tecnologias – o Google tem usado aprendizado de máquina semelhante para alimentar a câmera em seus smartphones Pixel.

Embora a tecnologia que o alimenta seja complexa, o seu objetivo é simples. Ao dar ao iPhone a capacidade de saber quando está olhando para uma pessoa, ele vê o mundo um pouco mais como nós, resultando em imagens que parecem naturais e mais realistas.

Recomendações dos Editores

  • Perdi meu iPhone nas férias dos meus sonhos – e não foi um pesadelo
  • A Apple pode enfrentar uma escassez ‘grave’ do iPhone 15 devido a problemas de produção, diz o relatório
  • Ficarei furioso se o iPhone 15 Pro não tiver esse recurso
  • Tentei substituir minha GoPro por este novo telefone e sua câmera inteligente
  • Eu uso um iPhone há 14 anos. O Pixel Fold me fez querer parar

Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.