El nuevo iPhone X y su hardware especializado en Deep Learning e Inteligencia Artificial

Ayer, 12 de septiembre,  tuvo lugar el evento de presentación de productos de Apple para anunciar el lanzamiento de sus nuevos modelos de Apple Watch, Apple TV, sistemas operativos, y , para finalizar, nuevas versiones de su producto estrella el iPhone , y en especial su espectacular iPhone X.  Hoy todos los medios destacaban el evento y daban diferentes respuestas a porqué el mercado está dispuesto a pagar más de mil euros por un iPhone. Quizás porque el nuevo iPhone X dispone de nuevas prestaciones, tales como el reconocimiento facial o realidad aumentada que le permiten considerarse “el futuro del smartphone” que ofrecen inteligencia artificial en el dispositivo.

Para ello hace falta un hardware avanzado que me gustaría presentarles puesto que en todos los artículos que menciono en general no se habla de un elemento tan importante como es el chip que permite todas estas prestaciones.  Concretamente, Apple habló ayer de su nuevo “motor neural” que incorpora el chip llamado A11 Bionic que da todo este poder a los nuevos iPhone X y 8. Según las notas de prensa de Apple  y su presentación, se trata de un componente específico de doble núcleo que permite realizar hasta 600 millones de operaciones por segundo para el procesamiento en tiempo real de algoritmos específicos para ejecutar redes neuronales que permiten el reconocimiento facial que incorpora el iPhone X así como la ejecución eficiente de modelos Deep Learning que puedan incorporar los desarrolladores en sus aplicaciones.

Para acelerar aplicaciones Deep Learning además el chip A11 Bionic también integra una unidad de procesamiento gráfico (GPU) diseñada por Apple de tres núcleos que ofrece un rendimiento gráfico de hasta un 30 por ciento más rápido que la generación anterior. Esta GPU está optimizada para los juegos 3D y Metal 2  que proporciona acceso a la unidad de procesamiento gráfico (al estilo de CUDA o OpenCL).

También se ha optimizado para el framework CoreML que permite a los desarrolladores integrar modelos de Machine Learning en sus aplicaciones haciendo uso del nuevo hardware de forma clara para el desarrollador.

Además de estos componentes, el procesador central del chip A11 cuenta con un diseño de CPU de seis núcleos (cores) de 64 bits formado por 4.300 millones de transistores.  En la presentación, Phil Schiller (foto adjunta obtenida de zdnet) explicó que estos 6 núcleos son de dos tipos de arquitectura (dos de alto rendimiento y cuatro muy eficientes en consumo)  para sacar más rendimiento del hardware, así como un nuevo sistema de planificación de threads para aprovechar mejor los seis núcleos para cargas de trabajo multitarea.

El chip también incluye mejoras relacionadas con la cámara, incluyendo un ISP (procesador de señal de imagen) diseñado por Apple, que trae consigo un procesador de píxeles mejorado, un autofoco de poca luz más rápido y una reducción de ruido de imagen multibanda a nivel de hardware. Y por lo que se refiere a  vídeo, el A11 Bionic incluye un codificador de vídeo a nivel de hardware diseñado por Apple para el códec H265, con la capacidad de manejar velocidades de fotogramas más rápidas que permite el análisis de imágenes y movimiento en tiempo real.

Espero con este breve post demostrar una vez más que “el hardware sí importa” aunque sea transparente al usuario y que sin este el Deep Learning y la Inteligencia Artificial no serían posibles.

Mi agradecimiento a Francesc Sastre, experto en estos temas, por permitirme contrastar todos estos datos técnicos antes de publicar este post.

2017-11-11T22:07:01+00:00 September 13th, 2017|