Cos'è il rendering semantico e come migliora la fotocamera dell'iPhone 11

Tripla fotocamera posteriore dell'iPhone 11 Pro Max
Julian Chokkattu/Tendenze digitali

I maggiori miglioramenti ai nuovi iPhone di Apple riguardano le fotocamere, e non solo grazie ai nuovi obiettivi ultra grandangolari sul iPhone11, iPhone 11 Pro, E iPhone 11 Pro Max. Il software che alimenta le fotocamere è responsabile di un significativo balzo in avanti nella qualità dell'immagine grazie ai miglioramenti fotografia computazionale tecniche. Uno dei più interessanti è il rendering semantico, un approccio intelligente per regolare automaticamente luci, ombre e nitidezza in aree specifiche di una foto.

Cos'è il rendering semantico?

Nell’intelligenza artificiale, la “semantica” si riferisce alla capacità di una macchina di segmentare in modo intelligente le informazioni in modo simile a come farebbe un essere umano. Rami diversi dell’apprendimento automatico possono avere usi diversi per la segmentazione semantica, ma per la fotografia tutto inizia con il riconoscimento del soggetto.

Nel caso di Apple, la fotocamera cerca specificamente le persone all’interno dell’inquadratura, ma va a un livello più profondo. Quando l’iPhone rileva un soggetto umano, Apple ha dichiarato a Digital Trends che distingue ulteriormente tra pelle, capelli e persino sopracciglia. È quindi possibile eseguire il rendering di questi segmenti in modo diverso per ottenere i migliori risultati, creando un ritratto correttamente esposto sullo sfondo.

Imparentato

  • Questi sono gli unici 2 motivi per cui sono entusiasta dell’iPhone 15 Pro
  • Un iPhone appena venduto all'asta per una cifra folle
  • Questo telefono Android da $ 600 ha un grande vantaggio rispetto all'iPhone

[/pullquote]Basta scattare una foto e il telefono farà il lavoro in frazioni di secondo. [/pullquote]

Per capire perché questo è così importante, è utile capire anche come funziona una fotocamera standard. Che si tratti di un vecchio iPhone o di una DSLR professionale, una fotocamera di solito non sa cosa sta riprendendo. Conosce il colore e la luminosità di ogni dato pixel, ma non riesce a ricavare alcun significato su ciò che è effettivamente nell'inquadratura. Quando si seleziona il profilo colore “ritratto” su una Nikon o Canon, ad esempio, la fotocamera applica semplicemente le impostazioni a specifiche gamme di colori dei pixel comunemente presenti nei soggetti umani; non sa realmente se una persona è presente o meno.

Tale effetto è chiamato regolazione globale, nel senso che viene applicato equamente all'intera foto. Questo è anche il modo in cui l'alta gamma dinamica standard, o HDR, le foto funzionano: le luci vengono ridotte, le ombre vengono aumentate e il contrasto dei medi potrebbe essere migliorato, ma indipendentemente da ciò che c'è nell'immagine. Questo approccio funziona bene per soggetti come i paesaggi, ma non sempre funziona per i ritratti.

Modalità verticale dell'iPhone 11Julian Chokkattu/Tendenze digitali

Con la resa semantica, an iPhone11 possono applicare aggiustamenti locali, piuttosto che globali. Ciò significa che è possibile ridurre la luminosità di un cielo luminoso per mantenere colori e dettagli, mentre le luci sul viso di una persona non verranno ridotte altrettanto, preservando la profondità del soggetto. Nitidezza può anche essere applicato alla pelle e ai capelli con diverse intensità.

Da anni i fotografi eseguono questo tipo di ritocco manualmente in programmi come Adobe Photoshop, ma i miglioramenti vengono applicati immediatamente su un iPhone 11.

Come lo usi? Basta scattare una foto e il telefono farà il lavoro in frazioni di secondo. Sappi che la resa semantica influisce solo sui ritratti umani; altri tipi di foto ricevono il trattamento HDR standard. Non si limita alla modalità ritratto: qualsiasi foto con un soggetto umano è automaticamente candidata al rendering semantico.

La fotografia computazionale, che incorpora di tutto, dall’HDR alle modalità ritratto con rilevamento della profondità, consente alle fotocamere dei telefoni di superare i limiti fisici dei loro piccoli obiettivi e sensori. Il rendering semantico di Apple rientra nella prossima evoluzione di queste tecnologie: Google ha utilizzato un apprendimento automatico simile per alimentare la fotocamera dei suoi smartphone Pixel.

Sebbene la tecnologia che lo alimenta sia complessa, il suo obiettivo è semplice. Dando all'iPhone la capacità di sapere quando sta guardando una persona, vede il mondo un po' più come lo vediamo noi, producendo immagini che sembrano naturali e più fedeli alla vita.

Raccomandazioni degli editori

  • Ho perso il mio iPhone durante una vacanza da sogno e non è stato un incubo
  • Apple potrebbe dover affrontare una “grave” carenza di iPhone 15 a causa di problemi di produzione, afferma il rapporto
  • Sarei furioso se l’iPhone 15 Pro non avesse questa funzionalità
  • Ho provato a sostituire la mia GoPro con questo nuovo telefono e la sua fotocamera intelligente
  • Uso un iPhone da 14 anni. Il Pixel Fold mi ha fatto venire voglia di smettere

Migliora il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, divertenti recensioni di prodotti, editoriali approfonditi e anteprime uniche nel loro genere.