La inteligencia artificial está teniendo un impacto en el hardware, esto es evidente. También lo está teniendo en el lado del software, y en otros ámbitos. Pero en este artículo nos centraremos en el hardware, y veremos cómo se han tenido que modificar la forma en la que se diseñan los chips para que puedan mejorar las prestaciones con la IA y el ML, e incluso crear aceleradores como las NPUs.
Índice de contenidos
El campo del aprendizaje profundo está experimentando un rápido y radical cambio, tanto que algunos creen que es una amenaza para la humanidad. Inicialmente, la atención se centró en la categorización de imágenes a través de redes neuronales convolucionales, que logró impresionantes ganancias de precisión. Poco a poco fueron evolucionando los algoritmos y también fueron alimentados con infinidad de datos para que aprendiesen.
Curiosamente, a medida que las tareas se volvieron más complejas, gran parte del cálculo necesario empezó a afectar al hardware fuera de las funciones convencionales de las redes neuronales. Por ejemplo, en el caso de SSD, se requiere un gran rendimiento para los accesos, ya que se necesita realizar un gran número de ellos.
En los últimos años, las cargas de trabajo basadas en el lenguaje han ganado más atención y cada vez cuentan con más aplicaciones. Un componente crucial en el avance del aprendizaje profundo ha sido el modelo de memoria RAM, y también la memoria secundaria, especialmente en tareas secuenciales y temporales como el reconocimiento de voz y la traducción automática de un idioma a otro. Al igual que con los enfoques de procesamiento de imágenes, gran parte del cálculo en tareas basadas en el lenguaje se realiza fuera de los componentes tradicionales de las redes neuronales.
Otra área en la que las interacciones naturales con las máquinas han progresado es en los diálogos de larga duración, como los chatbots, los asistentes virtuales (Siri, Alexa, Google Assistant, etc.) entre otros. Recientemente, los métodos basados en transformadores y atención han necesidad de mejoras en cuanto al procesamiento de texto.
Por último, cabe destacar los enfoques de aprendizaje automático basados en redes neuronales gráficas, que permiten ejemplos de tamaño arbitrario. Estos enfoques capturan grandes cantidades de conocimiento mundial en forma de gráficos, donde personas, lugares y objetos se representan como nodos, y las relaciones entre ellos. Esto también ha implicado la necesidad de una mejora en el hardware.
Todas estas cargas de trabajo especiales para la inteligencia artificial han obligado a que el hardware necesite de unas características o prestaciones diferentes para poder ejecutar estos algoritmos de forma eficiente y rápida. Por ejemplo, la GPU se ha hecho vital en estos casos, y se debe mejorar en los siguientes puntos:
En la Era de la IA, se hace evidente la necesidad de un diseño de chip completamente nuevo. Las soluciones actuales, como las CPU y GPU, se han quedado algo obsoletas y no pueden hacer frente a los desafíos actuales. Los futuros chips deben ofrecer un conjunto de características fundamentales: facilidad de uso, durabilidad, reprogramabilidad, escalabilidad en el tiempo, dinamismo y eficiencia, para poder satisfacer las demandas cada vez más rigurosas de las redes neuronales y sus algoritmos más complejos. Es necesario un enfoque radicalmente innovador para mantenerse al ritmo de los avances en la inteligencia artificial.
Por este motivo, muchos SoCs han empezado a implementar NPUs o aceleradores para cargas de trabajo de IA, como las unidades Tensoriales o TPUs, mejoras en las GPUs, aceleradores como los incluidos en AMD Ryzen Zen 4 con su Ryzen AI, o los Neural Engine en los chips de Apple, etc.
También te puede interesar saber qué es ChatGPT
Además, las nuevas generaciones de hardware para cargas de trabajo de inteligencia artificial también necesitan grandes anchos de banda de memoria, por eso en HPC y donde se ejecutan tareas pesadas de IA se ha comenzado a usar memoria HBM.
Al mismo tiempo, como he comentado anteriormente, es importante que el acceso a la enorme cantidad de datos que tienen que hacer estas aplicaciones de inteligencia artificial lo hagan de la forma más rápida posible. Por eso las unidades SSD han supuesto un antes y un después con respecto a las lentas HDDs.
Para finalizar, la inteligencia artificial no solo ha tenido un impacto en la forma de diseñar o de aprovechar los recursos de hardware, también lo ha tenido en la funcionalidad. Especialmente, un campo que se ha visto muy afectado de forma positiva es el del Internet de las Cosas o IoT (Internet of Things).
En las aplicaciones de IoT, es fundamental contar con capacidad de procesamiento y análisis de datos en tiempo real, y es precisamente la IA la que proporciona las herramientas necesarias para llevar a cabo estas tareas de manera eficiente. Los dispositivos IoT que incorporan capacidades de IA son capaces de tomar decisiones autónomas basadas en datos en tiempo real, lo que conduce a una mayor eficiencia y funcionalidad en diversos entornos, como el hogar inteligente, la industria y la atención médica. La combinación de IoT y AI abre nuevas oportunidades para mejorar la calidad de vida, optimizar los procesos industriales y brindar un cuidado de la salud más efectivo y personalizado. No olvides comentar con tus dudas o sugerencias…
CHIEFTEC acaba de presentar dos nuevas cajas para PC, Visio y Visio Air con un…
Asus ZenWiFi BT8 es un sistema Mesh Wi-Fi 7 el cual se sitúa por debajo…
Qualcomm anuncia nuevos SoC Snapdragon X, pero no se trata de una nueva generación, sino…