el primer chip propio de Google es la clave de la cámara de los Pixel 2

El tiro de los Pixel 2 y Pixel 2 XL dejó claras las intenciones de Google en el mercado de los smartphones de escala suscripción, y si había una característica destacada en estos dispositivos, eran sus cámaras, que según investigación independientes como los de DxOMark son las mejores en el ámbito de la fotografía móvil.

Las fotografías que se obtienen con esas cámaras son según los analistas excepcionales, poco sorprendente teniendo en cuenta que Google no se ha sumado a la tendencia de la cámara dual. No las necesitan, porque tienen un as guardado en la manga del que no nos habían hablado hasta ahora: sus primeros chips propios, los coprocesadores llamados Pixel Visual Core.

Fotografías con mucha inteligencia fabricado detrás

Ofer Schacham, uno de los ingenieros de Google responsables del explicación del chip, explicaba en un artículo en el blog oficial de la empresa cómo la cámara de los Pixel 2 y Pixel 2 XL se ha presbítero de la inteligencia fabricado y del enseñanza espontáneo (machine learning) para conseguir que ese modo HDR+ se convierta en uno de los prodigios de la actual fotografía computacional integrada en esos móviles.

Es ahí donde entra en entretenimiento el nuevo Pixel Visual Core, el coprocesador encargado de procesar todos los parámetros de una imagen para proporcionar ese modo HDR+ que da longevo contraste y rango dinámico a las imágenes y que encima facilita por ejemplo que disfrutemos del propósito profundidad de campo (bokeh) en un móvil con un solo sensor.

Este coprocesador se cimiento en la integración de ocho Image Processing Units (IPUs), cada una de las cuales tiene 512 unidades aritmético-lógicas (ALUs) que permiten ofrecer una potencia de cálculo combinada de 3 billones de operaciones por segundo. Este coprocesador libera al procesador principal, y transmitido que es un chip para tareas específicas de prosperidad del ámbito de la fotografía logra ejecutar esas tareas cinco veces más rápido que la CPU usando encima una décima parte de la energía que usaría el procesador convencional de estos móviles.

Un coprocesador que podría marcar una tendencia

En Google explican encima cómo la integración entre el hardware y el software es imprescindible para conseguir sacar partido de ese co-procesador. Las IPUs hacen uso del estilo Halide para fotografía computacional y de TensorFlow para aplicar ese enseñanza espontáneo que permite sacar el mejor partido de las fotos en cada situación.

Pixel Visual Core1 A la izquierda, una foto tomada con el Pixel 2 pero con una aplicación de cámara de terceras partes. A la derecha, la misma imagen tomada con la aplicación nativa de los Pixel 2 y con el modo HDR+ proporcionado por el chip Pixel Visual Core.

La potencia de este chip está apto tan solo en la aplicación de cámara de los Pixel 2 y Pixel 2 XL, pero en Google han aclarado que en las próximas semanas ofrecerán a los desarrolladores las herramientas necesarias para exprimir estas tecnologías para otras aplicaciones distintas.

Esperamos poder comprobar los resultados por nosotros mismos muy pronto, pero desde luego tanto las imágenes de ejemplo que ha utilizado Google como las que ya han ido apareciendo en algunos investigación externos dejan claro que ese coprocesador llamado Pixel Visual Core se comporta de forma fantástica.

Puede que otros fabricantes tomen nota, y sería interesante que este tipo de chip dedicado acabase convirtiéndose en una de las tendencias de un segmento cada vez más centrado en que las cámaras de sus móviles funcionen lo mejor posible.

En Xataka | Estas impresionantes fotos nocturnas demuestran de lo que es capaz la fotografía móvil computacional


Source link

deja tu opinion

Seguinos

Tecnoblog en las redes sociales