
La tecnología, llamada Gcam, surgió por primera vez en 2011, cuando los investigadores comenzaron a buscar una cámara de alta resolución que aún pudiera caber dentro de un par de monturas de gafas para Google Glass. Dado que agregar una cámara gigante en el costado de las gafas estaba fuera de discusión, el equipo comenzó a buscar fotografía computacional.
Vídeos recomendados
En lugar de tomar una sola imagen con un sensor grande de alta resolución, Gcam toma varias imágenes con un sensor de baja resolución y, al fusionarlos con software, se crea una imagen de alta resolución, o al menos una imagen que puede competir con la típico
teléfono inteligente cámara. El equipo, dirigido por Marc Levoy, profesor de Ciencias de la Computación de Stanford, lo llamó fusión de imágenes y la función se lanzó en Google Glass en 2013.Relacionado
- Google Pixel 8: todos los últimos rumores y lo que queremos ver
- Los futuros teléfonos Pixel de Google acaban de recibir malas noticias
- Algo extraño está pasando con mi Google Pixel Fold
Sin embargo, crear una cámara pequeña no solo introdujo problemas de resolución: una lente más pequeña captura menos luz, por lo que las fotos tomadas con lentes lo suficientemente pequeñas como para ocultarse en Google Glass también tenían poca luz ejecutante. Fusionar las fotos ayudó a corregir eso. Pero a continuación el equipo buscó sacar más provecho de la pequeña cámara utilizando un alto rango dinámico, una técnica fusionar varias imágenes con diferentes niveles de exposición para crear una gama más amplia de luz y detalle. HDR+ luego lanzado como un Androide Aplicación de cámara para Nexus 5 (y posteriores 6) en 2014.
La fotografía computacional detrás de la cámara Google Glass y HDR+ ahora está dentro del Google Pixel, así como de la aplicación Google Photos, YouTube y Jump, un dispositivo de realidad virtual. La función hace posible la configuración de desenfoque de lente dentro de Google Photos mientras el mismo programa reúne videos 360 para Jump.
Levoy dice que tomó cinco años tener el software Gcam justo antes de su lanzamiento en el teléfono inteligente Pixel. Dado que el sistema depende en gran medida del software, cuando los usuarios comenzaron a quejarse de los destellos en las lentes, el equipo lanzó una actualización de firmware para que el software lo detecte y elimine automáticamente.
Entonces, ¿qué sigue para la pequeña cámara que comenzó con Google Glass y ahora cubre múltiples productos? El sistema de cámara centrado en software podría recibir un impulso basado en inteligencia artificial. "Una dirección que estamos impulsando es el aprendizaje automático", dijo Levan. “Hay muchas posibilidades para cosas creativas que realmente cambian la apariencia de lo que estás mirando. Eso podría significar cosas simples como crear un conjunto de entrenamiento para lograr un mejor balance de blancos. ¿O qué es lo correcto que podríamos hacer con el fondo? ¿Deberíamos difuminarlo, oscurecerlo, aclararlo, estilizarlo? Estamos en el mejor lugar del mundo en términos de aprendizaje automático, por lo que es una oportunidad real para fusionar el mundo creativo con el mundo de la fotografía computacional”.
Independientemente de lo que esté reservado para la próxima variación, el éxito del Pixel probablemente ponga el listón bastante alto.
Recomendaciones de los editores
- Por qué no me desharé de mi Pixel Fold por el Galaxy Z Fold 5
- ¿Estás emocionado por el Google Pixel 8 Pro? Esta filtración acaba de estropearlo todo.
- ¿Puede la cámara del Pixel Fold vencer al Galaxy Z Fold 4? Lo descubrí
- Me encanta la tableta Google Pixel, pero hay un problema
- Hice una prueba de la cámara Pixel 7a y son malas noticias para Samsung
Mejora tu estilo de vidaDigital Trends ayuda a los lectores a mantenerse al tanto del vertiginoso mundo de la tecnología con las últimas noticias, reseñas divertidas de productos, editoriales perspicaces y adelantos únicos.