4/6
4.1 Características generales de las NPUs Ascend
Las NPU Ascend de Huawei representan componentes de hardware altamente especializados diseñados para potenciar el procesamiento de cálculos en inteligencia artificial y mejorar el rendimiento de dispositivos Huawei, con especial enfoque en teléfonos inteligentes y otros dispositivos móviles [4]. Algunas de las características clave de estos procesadores incluyen:
A) Aceleración interconstruida para IA. Los procesadores tradicionales no se concibieron para abordar de manera eficaz las exigencias computacionales de la inteligencia artificial. Por esta razón, Huawei ideó las NPU como aceleradores de hardware especializados, diseñados específicamente para ejecutar cálculos relacionados con la inteligencia artificial de manera altamente eficiente. Estas NPU se han integrado en la solución Kirin, que es un SoC7.
B) Arquitectura y diseño. Aunque los detalles precisos acerca de los componentes que integran los procesadores de Huawei están protegidos por derechos de autor y son de naturaleza propietaria, se sabe que están especialmente orientados al procesamiento avanzado de datos. Esto se logra mediante la combinación de estructuras de memoria, algoritmos especializados adaptados al hardware y unidades de procesamiento que comparten similitudes con las GPU en su capacidad para manejar cargas de cálculo matemático. Los algoritmos desempeñan un papel esencial en la interacción con el hardware, particularmente en la resolución de redes neuronales de aprendizaje profundo. Por tanto, el diseño está centrado en mejorar el rendimiento, reducir el consumo de energía y optimizar la eficiencia en general.
C) Desarrollo y optimización. El desarrollo de las NPU implica una sinergia entre el diseño de hardware, desarrollo de software y la optimización de componentes, una combinación considerada de manera integral por los ingenieros de Huawei. Un componente esencial de las NPU es su capacidad para gestionar operaciones matriciales, que resulta significativamente más eficiente en comparación con las GPUs tradicionales. Esto se debe a que las NPU están especializadas en resolver problemas relacionados con redes neuronales, lo que implica una disposición tridimensional de cálculos y, como resultado, una reducción en la cantidad de ciclos necesarios para obtener los resultados en comparación con otras arquitecturas de hardware.
D) Entrenamiento e inferencia. Las NPU de Huawei son versátiles y admiten tanto el entrenamiento como la inferencia de modelos de inteligencia artificial. Durante la fase de entrenamiento, estas NPU aceleran las tareas que requieren un intenso poder de cómputo, lo que incluye la propagación hacia adelante y hacia atrás en el conjunto de datos, la actualización de los pesos específicos de la información y la optimización continua de los algoritmos que conforman las redes neuronales. En la etapa de inferencia, donde el modelo se especializa en predecir resultados basados en nuevos datos, las NPU de Huawei son capaces de ejecutar tareas de inteligencia artificial en tiempo real. Esto se aplica tanto en los servidores que componen el Laboratorio del Espacio de Innovación como en dispositivos periféricos.
E) Evolución y avances. A lo largo de los últimos años, Huawei ha realizado numerosos avances en el desarrollo de las NPU. En cada iteración del hardware, se ha trabajado en la mejora del rendimiento, la reducción del consumo de energía y la ampliación del soporte de software, al mismo tiempo que se han optimizado los algoritmos de inteligencia artificial para enriquecer la investigación respaldada por las NPU.
4.2 Arquitectura y capacidades
La arquitectura empleada en las NPU que soportan los proyectos de la Alianza UNAM – Huawei se denomina DaVinci, y es una de las más avanzadas en su tipo para el desarrollo y aceleración de los cálculos que requiere la Inteligencia Artificial, desde los teléfonos inteligentes hasta los centros de datos. Desarrollada por el segmento HiSilicon de Huawei, la arquitectura DaVinci de las NPU incluye varias características que la distinguen de las GPU y CPU ya descritas previamente en este artículo:
A) Alto rendimiento. Las NPU DaVinci tienen amplias capacidades de procesamiento, lo que se estima mejor para la IA, ya que facilita el aprendizaje profundo y el entrenamiento de las redes neuronales a través del aprendizaje de máquina.
B) Versatilidad. Esta arquitectura soporta un amplio rango de modelos de IA y marcos de desarrollo, lo que asegura la compatibilidad con los esquemas más populares (TensorFlow, Pytorch, Caffe, Keras) De esa manera los proyectos que se desarrollan en el espacio de innovación se pueden migrar de manera muy simple a otras plataformas de hardware y de software para extender las capas de entrenamiento e inferencia y con ello robustecer los modelos de IA que se están investigando.
C) Eficiencia energética. Las NPU consumen lo mínimo de energía necesaria para maximizar el rendimiento por watt, lo que es adecuado no solo para el entrenamiento de grandes modelos de IA que procesan volúmenes monumentales de datos, sino también para que los modelos puedan ejecutarse en dispositivos más pequeños donde la capacidad y eficiencia energéticas son claves, tales como teléfonos inteligentes, cámaras y tabletas que componen parte del universo de la Internet de las Cosas.
D) Escalabilidad. Esta arquitectura está diseñada para ampliarse en función del dispositivo y los escenarios de utilización. Ya sea en teléfonos, cámaras o centros de datos, la arquitectura se reduce o amplía conforme sea necesario, sin que se requiera una reprogramación de los algoritmos.
E) Aceleración de redes neuronales. Se deja en la capacidad de las unidades especializadas de hardware y de los algoritmos avanzados la aceleración de las operaciones en la red neuronal, en ámbitos como las multiplicaciones matriciales o las convoluciones. Estas capacidades de aceleración incrementan la velocidad en las fases del entrenamiento y la inferencia de los modelos de IA que se aprobaron en el marco del Espacio de Innovación.
F) Flexibilidad en el procesamiento neuronal. Las NPU de Huawei están diseñadas para proporcionar cálculos de punto fijo y de punto flotante, lo que permite procesar múltiples tipos de datos. Esta adaptabilidad permite una utilización más eficiente de los recursos físicos mientras se atienden los requerimientos de las tareas de IA.
G) Inteligencia Artificial “en el dispositivo”. Mucho del objetivo de las NPU reside en que se puedan ejecutar realmente algoritmos de IA en cualquier dispositivo, sin depender todo el tiempo de la conectividad a grandes centros de datos o los recursos en nube pública, a la vez que se protege la privacidad e integridad de los datos recolectados localmente.
Fecha de recepción: julio de 2023
Fecha de publicación: noviembre de 2023
HTML Code Generator