Entre el vasto catálogo de Intel podemos encontrar los procesadores Intel Xeon, los cuales son los menos conocidos por los usuarios por no estar enfocados al sector doméstico. En este artículo os explicamos qué son estos procesadores y cuales son las diferencias con los domésticos.
Índice de contenidos
Xeon es una marca de microprocesadores x86 diseñada, fabricada y comercializada por Intel, dirigida a los mercados de estaciones de trabajo, servidores y sistemas integrados. Los procesadores Intel Xeon fueron presentado en junio de 1998. Los procesadores Xeon se basan en la misma arquitectura que las CPU normales de escritorio, pero tienen algunas características avanzadas como soporte para memoria ECC, mayor número de núcleos, soporte para grandes cantidades de RAM, mayor memoria caché y más provisión para funciones de confiabilidad, disponibilidad y facilidad de servicio de nivel empresarial responsables de manejar las excepciones de hardware a través de la arquitectura Machine Check. A menudo son capaces de continuar la ejecución de forma segura donde un procesador normal no puede debido a sus características RAS adicionales, dependiendo del tipo y la gravedad de la Excepción de verificación de la máquina. Algunos también son compatibles con sistemas de múltiples sockets con 2, 4 u 8 sockets mediante el uso del bus Quick Path Interconnect.
Te recomendamos la lectura de nuestro post sobre AMD Ryzen – Los mejores procesadores fabricados por AMD
Algunas deficiencias que hacen que los procesadores Xeon sean inadecuados para la mayoría de los PCs de consumo incluyen frecuencias más bajas al mismo precio, ya que los servidores ejecutan más tareas en paralelo que los escritorios, los recuentos de núcleos son más importantes que las frecuencias de reloj, generalmente la ausencia de un sistema GPU integrado, y falta de soporte para overclocking. A pesar de estas desventajas, los procesadores Xeon siempre han tenido popularidad entre los usuarios de escritorio, principalmente jugadores y usuarios extremos, principalmente debido a un mayor potencial de recuento de núcleos, y una relación precio / rendimiento más atractiva que el Core i7 en términos de poder de cómputo total de todos los núcleos . La mayoría de las CPU Intel Xeon carecen de una GPU integrada, lo que significa que los sistemas construidos con esos procesadores requieren una tarjeta gráfica discreta o una GPU separada si se desea una salida de monitor.
Intel Xeon es una línea de productos distinta de Intel Xeon Phi, que recibe el nombre similar. La Xeon Phi de primera generación es un tipo de dispositivo completamente diferente más comparable a una tarjeta gráfica, pues está diseñado para una ranura PCI Express y está destinado a ser utilizado como un coprocesador de múltiples núcleos, como el Nvidia Tesla. En la segunda generación, Xeon Phi se convirtió en un procesador principal más similar al Xeon. Se ajusta al mismo socket que un procesador Xeon y es compatible con x86; sin embargo, en comparación con Xeon, el punto de diseño del Xeon Phi enfatiza más núcleos con mayor ancho de banda de memoria.
Hay grandes cambios en marcha en el centro de datos de la empresa. Muchas organizaciones están pasando por una transformación generalizada basada en servicios y datos en línea, están aprovechando esos datos para poderosas aplicaciones de Inteligencia Artificial y analíticas que pueden convertirlo en ideas que cambian el negocio, y luego implementar herramientas y servicios que hagan que esas ideas funcionen. Esto exige un nuevo tipo de servidor e infraestructura de red, optimizado para inteligencia artificial, análisis, conjuntos de datos masivos y más, impulsado por una nueva y revolucionaria CPU. Ahí es donde entra la línea Xeon Scalable de Intel.
Intel Xeon Scalable representa posiblemente el mayor cambio de pasos en veinte años de CPU Xeon. No es simplemente un Xeon o Xeon más rápido con más núcleos, sino una familia de procesadores diseñados en torno a una sinergia entre las capacidades de computación, red y almacenamiento, aportando nuevas funciones y mejoras de rendimiento en los tres.
Si bien Xeon Scalable ofrece un impulso de rendimiento medio de 1.6 veces respecto a las CPU Xeon de la generación anterior, los beneficios van más allá de los estándares para cubrir optimizaciones del mundo real para análisis, seguridad, IA y procesamiento de imágenes. Hay más potencia para ejecutar complejos de alto rendimiento. En lo que respecta al centro de datos, es una victoria en todos los sentidos.
Quizás el cambio más grande y obvio es la sustitución de la antigua arquitectura Xeon basada en anillos, donde todos los núcleos del procesador se conectaban a través de un solo anillo, con una nueva arquitectura de malla o mesh. Esto alinea los núcleos más el caché asociado, la RAM y la E / S, en filas y columnas que se conectan en cada intersección, lo que permite que los datos se muevan de manera más eficiente de un núcleo a otro.
Si lo imaginas en términos de un sistema de transporte por carretera, la antigua arquitectura Xeon era como una circular de alta velocidad, donde los datos que se mueven de un núcleo a otro deberían moverse alrededor del anillo. La nueva arquitectura mesh es más como una grilla de carreteras, solo una que permite que el tráfico fluya a la velocidad máxima de punto a punto sin congestión. Esto optimiza el rendimiento en tareas con subprocesos múltiples donde diferentes núcleos pueden compartir datos y memoria, al tiempo que aumenta la eficiencia energética. En el sentido más básico, es un propósito de la arquitectura creado para mover grandes cantidades de datos en torno a un procesador que podría tener hasta 28 núcleos. Además, es una estructura que se amplía de manera más eficiente, ya sea que estemos hablando de procesadores múltiples o CPUs nuevas con incluso más núcleos más adelante.
Si la arquitectura de mesh se trata de mover datos de manera más eficiente, entonces las nuevas instrucciones de AVX-512 tratan de optimizar la forma en que se procesa. Basándose en el trabajo Intel comenzó con sus primeras extensiones SIMD en 1996, AVX-512 permite que se procesen aún más elementos de datos simultáneamente que con AVX2 de última generación, duplicando el ancho de cada registro y agregando dos más para mejorar el rendimiento. AVX-512 permite el doble de operaciones de punto flotante por segundo por ciclo de reloj, y puede procesar el doble de elementos de datos que AVX2 podría tener en el mismo ciclo de reloj.
Mejor aún, estas nuevas instrucciones están diseñadas específicamente para acelerar el rendimiento en cargas de trabajo complejas y de uso intensivo de datos, como la simulación científica, el análisis financiero, el aprendizaje profundo, el procesamiento de imágenes, audio y video, y la criptografía. Esto ayuda a un procesador Xeon Scalable a manejar las tareas de HPC más de 1.6 veces más rápido que el equivalente de la generación anterior o acelera la inteligencia artificial y las operaciones de aprendizaje profundo en 2.2x.
AVX-512 también ayuda con el almacenamiento, acelerando funciones clave como la deduplicación, el cifrado, la compresión y la descompresión para que pueda hacer un uso más eficiente de sus recursos y fortalecer la seguridad de los servicios en las instalaciones y en la nube privada.
En este sentido, AVX-512 funciona mano a mano con la tecnología Intel QuickAssist (Intel QAT). QAT permite la aceleración de hardware para criptografía, autenticación y compresión y descompresión de datos, lo que aumenta el rendimiento y la eficiencia de los procesos que imponen grandes exigencias a la infraestructura de red actual, y eso solo aumentará a medida que implemente más servicios y herramientas digitales.
Utilizado junto con la infraestructura definida por software (SDI), QAT puede ayudarlo a recuperar los ciclos de CPU perdidos empleados en tareas de seguridad, compresión y descompresión, de modo que estén disponibles para las tareas de computación intensiva que aporten un valor real a la empresa. Como una CPU habilitada para QAT puede manejar compresión y descompresión de alta velocidad, casi gratis, las aplicaciones pueden trabajar con datos comprimidos. Esto no solo tiene una huella de almacenamiento más pequeña, sino que requiere menos tiempo para transferir de una aplicación o sistema a otro.
Las CPU Intel Xeon Scalable se integran con los conjuntos de chips de la serie C620 de Intel para crear una plataforma para un rendimiento equilibrado en todo el sistema. La conectividad Intel Ethernet con iWARP RDMA viene incorporada, ofreciendo comunicaciones 4x10GbE de baja latencia. La plataforma ofrece 48 líneas de conectividad PCIe 3.0 por CPU, con 6 canales de RAM DDR4 por CPU con capacidades de soporte de hasta 768GB a 1.5TB por CPU y velocidades de hasta 2666MHz.
El almacenamiento recibe el mismo trato generoso. Hay espacio para hasta 14 unidades SATA3 y 10 puertos USB3.1, por no mencionar el control RAID NMMe virtual integrado en la CPU. La compatibilidad con la tecnología Intel Optane de próxima generación aumenta aún más el rendimiento del almacenamiento, con dramáticos efectos positivos para la base de datos en memoria y las cargas de trabajo analíticas. Y con Intel Xeon Scalable, el soporte para el tejido Omni-Path de Intel viene incorporado sin necesidad de una tarjeta de interfaz discreta. Como resultado, los procesadores escalables Xeon vienen listos para aplicaciones de alto ancho de banda y baja latencia en clusters HPC.
Con Xeon Scalable, Intel ha entregado una línea de procesadores que cubren las necesidades de los centros de datos de la próxima generación, pero ¿qué significa toda esta tecnología en la práctica? Para empezar, los servidores que pueden manejar cargas de trabajo analíticas más grandes a velocidades más altas, obteniendo información más rápida de conjuntos de datos más grandes. Intel Xeon Scalable también tiene la capacidad de almacenamiento y cómputo para aplicaciones avanzadas de aprendizaje profundo y aprendizaje automático, lo que permite a los sistemas capacitarse en horas, no días, o «inferir» el significado de los nuevos datos con mayor velocidad y precisión al procesar imágenes, discurso o texto.
El potencial para las aplicaciones de base de datos y análisis en memoria, como SAP HANA, es enorme, con un rendimiento hasta 1,59 veces mayor cuando se ejecutan cargas de trabajo en memoria en el Xeon de última generación. Cuando su empresa se basa en obtener información de vastos conjuntos de datos con fuentes en tiempo real, eso podría ser suficiente para darle una ventaja competitiva.
Xeon Scalable tiene el rendimiento y el ancho de banda del sistema y la memoria para alojar aplicaciones HPC más grandes y complejas, y encuentra soluciones para problemas empresariales, científicos y de ingeniería más complejos. Puede ofrecer una transcodificación de video más rápida y de mayor calidad mientras se transmite video a más clientes.
Un aumento en la capacidad de virtualización podría permitir a las organizaciones ejecutar cuatro veces más máquinas virtuales en un servidor Xeon Scalable que en un sistema de última generación. Con una sobrecarga casi nula para la compresión, descompresión y cifrado de datos en reposo, las empresas pueden usar su almacenamiento de manera más efectiva, a la vez que fortalece la seguridad al mismo tiempo. Esto no se trata solo de los puntos de referencia, se trata de tecnología que transforma la forma en que funciona su centro de datos y, al hacerlo, también su negocio.
ECC es un método para detectar y luego corregir errores de memoria de un solo bit. Un error de memoria de un solo bit, es un error de datos en la producción o producción del servidor, y la presencia de errores puede tener un gran impacto en el rendimiento del servidor. Hay dos tipos de errores de memoria de un solo bit: errores duros y errores suaves. Los errores físicos son causados por factores físicos, como la variación excesiva de temperatura, el estrés de tensión o el estrés físico que se produce en los bits de memoria.
Los errores suaves ocurren cuando los datos se escriben o se leen de forma diferente a la originalmente prevista, como las variaciones en el voltaje en la placa base, a los rayos cósmicos o la desintegración radiactiva que pueden hacer que los bits en la memoria se vuelvan volátiles. Como los bits retienen su valor programado en la forma de una carga eléctrica, este tipo de interferencia puede alterar la carga del bit de memoria, causando un error. En los servidores, hay varios lugares donde pueden ocurrir errores: en la unidad de almacenamiento, en el núcleo de la CPU, a través de una conexión de red y en varios tipos de memoria.
Para estaciones de trabajo y servidores donde los errores, la corrupción de datos y / o fallas del sistema deben evitarse a toda costa, como en el sector financiero, la memoria ECC suele ser el recuerdo elegido. Así es como funciona la memoria ECC. En informática, los datos se reciben y transmiten a través de bits, la unidad más pequeña de datos en una computadora, que se expresan en código binario utilizando uno o cero.
Cuando los bits se agrupan, crean código binario, o «palabras», que son unidades de datos que se direccionan y se mueven entre la memoria y la CPU. Por ejemplo, un código binario de 8 bits es 10110001. Con la memoria ECC, hay un bit ECC adicional, que se conoce como bit de paridad. Este bit de paridad extra hace que el código binario lea 101100010, donde el último cero es el bit de paridad y se usa para identificar errores de memoria. Si la suma de todos los 1 en una línea de código es un número par (sin incluir el bit de paridad), entonces la línea de código se llama paridad par. El código sin errores siempre tiene paridad par. Sin embargo, la paridad tiene dos limitaciones: solo es capaz de detectar números impares de errores (1, 3, 5, etc.) y permite que pasen números pares de errores (2, 4, 6, etc.). La paridad tampoco puede corregir errores, solo puede detectarlos. Ahí es donde entra en juego la memoria ECC.
La memoria ECC utiliza bits de paridad para almacenar un código cifrado al escribir datos en la memoria, y el código ECC se almacena al mismo tiempo. Cuando se leen los datos, el código ECC almacenado se compara con el código ECC que se generó cuando se leyeron los datos. Si el código que se leyó no coincide con el código almacenado, se descifra mediante los bits de paridad para determinar qué bit estaba en error, entonces este bit se corrige inmediatamente. A medida que se procesan los datos, la memoria ECC está constantemente escaneando código con un algoritmo especial para detectar y corregir errores de memoria de un solo bit.
En las industrias de misión crítica, como el sector financiero, la memoria ECC puede marcar una gran diferencia. Imagina que estás editando la información de una cuenta confidencial de un cliente y luego intercambiando esta información con otras instituciones financieras. A medida que envías los datos, digamos que un dígito binario se voltea por algún tipo de interferencia eléctrica. La memoria del servidor ECC ayuda a preservar la integridad de sus datos, evita la corrupción de los datos y evita los fallos y fallos del sistema.
Tras varias iteraciones, los procesadores Intel Xeon Scalable avanzaron hacia su cuarta generación en la que incorporan hasta 56 núcleos de procesamiento dentro de sus series Max, Platinum, Gold, Silver y Bronze.
El tope de gama es el Intel Xeon Platinum 8480+, lanzado en 2023 y que llega a los 3.8GHz de turbo con sus 56 núcleos. Sin ninguna duda su mayor rival es AMD Ryzen Threadripper y EPYC, que alcanzan los 96 núcleos e incluso los 128 con núcleos Zen 4c.
Con esto finaliza nuestro artículo sobre Intel Xeon y todo lo que necesitas saber sobre estos nuevos procesadores, recuerda compartirlo en las redes sociales para que pueda ayudar a más usuarios que lo necesitan.