HardwareNoticias

NVIDIA PrefixRL: circuitos 25% más pequeños y más eficientes

Nvidia y sus investigadores han publicado un artículo donde comparten su IA PrefixRL, que les ayuda a crear circuitos integrados para sus tarjetas gráficas y otros chips. Gracias a esta IA, han conseguido reducir el tamaño de sus circuitos, que serían un 25% más pequeños.

NVIDIA PrefixRL: circuitos 25% más pequeños y más eficientes

PrefixRL

Los investigadores de Nvidia han publicado un artículo en el que muestran cómo los circuitos diseñados con IA han ayudado a reducir el tamaño de un circuito aritmético de la GPU en un 25%.

Para lograr esto se ha utilizado PrefixRL, que es un agente de aprendizaje profundo. Gracias a su aprendizaje profundo, se puede utilizar para crear nuevos diseños desde cero que sean más pequeños, rápidos y eficientes. PrefixRL ha logrado mejores resultados que las herramientas de automatización del diseño electrónico (EDA), que son las utilizadas por grandes proveedores como Cadence, Synopsys o Siemens/Mentor.

Los proveedores de EDA suelen implementar su propia inteligencia artificial para la colocación y el enrutamiento del silicio (PnR). Sin embargo, el PrefixRL de Nvidia estaría ofreciendo unos mejores resultados, lo que marca cómo ha mejorado Nvidia en el terreno de la inteligencia artificial o aprendizaje profundo.

Te recomendamos nuestra guía sobre las mejores tarjetas gráficas del mercado

Según Nvidia, la última arquitectura de GPU Hopper H100 utiliza 13.000 instancias de circuitos aritméticos que fueron trabajados por PrefixRL. NVIDIA ha conseguido un modelo que produce un circuito un 25% más pequeño que los resultados comparables de EDA.

Al utilizar circuitos más pequeños, se gana en eficiencia energética y se reduce los costes de producción. En la imagen compartida podemos ver una comparativa entre un sumador de 64 bits diseñado por PrefixRL y otro diseñado por la herramienta EDA.

PrefixRL

Para lograr el circuito sumador de 64 bits se requiere de mucho tiempo de cálculo y también mucho hardware involucrado. Nvidia requirió de 256 núcleos de CPU para cada GPU y 32.000 horas de GPU.

Pueden ver más información en el blog oficial de Nvidia.

Fuente
techpowerup

Gustavo Gamarra

Soy operador de PC e instalador de redes informáticas , redactor y escritor en mis ratos libres. Amante de la tecnología, el cine, el fútbol y los videojuegos.
Los datos de carácter personal que nos facilite mediante este formulario quedarán registrados en un fichero de Miguel Ángel Navas Carrera, con la finalidad de gestionar los comentarios que realizas en este blog. La legitimación se realiza a través del consentimiento del interesado. Si no se acepta no podrás comentar en este blog. Puedes consultar Política de privacidad. Puede ejercitar los derechos de acceso, rectificación, cancelación y oposición en info@profesionalreview.com
Botón volver arriba