El CEO de Intel ha tenido una serie de declaraciones en contra de CUDA de Nvidia, que es utilizado para la inteligencia artificial. Según la compañía que dirige Pat Gelsinger, la industria exige estándares más abiertos.
Intel fue duro contra la tecnología CUDA de Nvidia, afirmando que la tecnología de inferencia será más importante que el entrenamiento para la inteligencia artificial, y que la industria quiere estándares más abiertos.
«Toda la industria está motivada para eliminar el mercado CUDA», afirmó Gelsinger. Citó ejemplos como MLIR, Google y OpenAI, y sugirió que se están pasando a una «capa de programación Pythonic» para que el entrenamiento de IA sea más abierto.
«Creemos que el foso de CUDA es pequeño y poco profundo», continuó Gelsinger. «Porque la industria está motivada para aportar un conjunto más amplio de tecnologías para el entrenamiento amplio, la innovación, la ciencia de datos, etcétera».
Te recomendamos nuestra guía sobre las mejores tarjetas gráficas del mercado
Así mismo, Intel está convencida que el progreso de la inteligencia artificial se va a basar en la inferencia.
«Una vez entrenado el modelo, no hay dependencia de CUDA», continúa Gelsinger. «Se trata de si puedes ejecutar bien ese modelo». Sugirió que con Gaudí 3, mostrado en el escenario por primera vez, Intel estará a la altura del reto, y podrá hacerlo también con Xeon y los PC edge. No es que Intel no vaya a competir en formación, pero «fundamentalmente, el mercado de la inferencia es donde estará el juego», dijo Gelsinger.
A día de hoy, Nvidia es el líder en la inteligencia artificial y CUDA es la tecnología más extendida en este campo, algo que Intel no ve con buenos ojos, y parece que gran parte de la industria está exigiendo que surjan alternativas a CUDA que sean mucho más libres para desarrollar. Os mantendremos al tanto de todas las novedades.
CHIEFTEC acaba de presentar dos nuevas cajas para PC, Visio y Visio Air con un…
Asus ZenWiFi BT8 es un sistema Mesh Wi-Fi 7 el cual se sitúa por debajo…
Qualcomm anuncia nuevos SoC Snapdragon X, pero no se trata de una nueva generación, sino…