ATI Technologies fue una empresa esencial en la historia de las tarjetas gráficas. Dentro, te contamos toda su historia ¿La quieres conocer?
La historia de los ordenadores personales está marcada por empresas como ATI Technologies porque lograron desarrollar lo que antes eran computadoras. En este caso, ATI se dedicaba a la fabricación de tarjetas gráficas y al mundo de los gráficos 3D en un contexto marcado por otros fabricantes como 3dfx interactive o Nvidia. Después, terminó siendo absorbida por AMD y su nombre pasaría a ser AMD Radeon en 2010.
A continuación, tenéis a vuestra disposición la historia de uno de los mejores fabricantes de tarjetas gráficas de la historia: ATI Technologies.
Índice de contenidos
ATI es fundada por Lee Ka Lau, Kwok Yuen Ho, Francis Lau y Benny Lau en Canadá. Entonces, se denominaría Array Technology Inc y sería un «simple» fabricante de equipamiento, concretamente, de tarjetas gráficas integradas. En este sentido, IBM y Commodore también trabajaban en lo mismo; de hecho, IBM era uno de los fabricantes más potentes del mundo.
En octubre de este mismo año, ATI usa la tecnología ASIC para desarrollar su primer controlador gráfico, lo que sería la primera gráfica integrada.
Todo comenzó con «Small Wonder«.
Conforme vayáis leyendo, veréis que las tarjetas gráficas van a estar marcadas por la tecnología de los monitores. Es más, se podría decir que el desarrollo de las tarjetas gráficas y de los monitores van de la mano.
Por el momento, ATI saca su primera tarjeta gráfica: la EGA Wonder. Se denominaba de esta manera porque los monitores de finales de los 80 incorporaban gráficos EGA. Esta tarjeta funcionaba con cualquier interfaz de gráficos, sistema operativo o monitor.
Este fabricante se interesó por los ordenadores personales, así que intentó proveer de gráficos más rápidos a éstos.
En ATI seguían «preguntándose» cómo sería el mundo de las tarjetas gráficas, pero esta vez con la VGA Wonder. Tenía dos versiones: una con 256kb DRAM y otra con 512kb DRAM. Esta gráfica era una tarjeta de 16-bit ISA que funcionaba en una ranura de 8-bit ISA.
Traía un chip denominado ATI 18800 y soportaba el modo gráfico SVGA. Además, se sincronizaba automáticamente con el monitor.
Esta empresa empezaba a asomar la cabeza en un sector peliagudo y con muchísima competencia. Sin embargo, no sabía que la guerra por los gráficos 3D se avecinaba en los 90.
Esta gráfica lanzada en los 90, suponía el inicio de los aceleradores gráficos 2D en ordenadores personales. Mach8 era como una expansión de las Wonder y llevaban un chip clonado del IBM 8514/A con expansiones. Esto supuso uno de los primeros chips de aceleración de gráficos 2D del mercado.
No obstante, se requería otra tarjeta VGA complementaria para poder utilizar la Mach8. Esto encarecería mucho el precio de disfrutar gráficos 2D porque había que comprarse una tarjeta VGA y la Mach8. Esta ATI se enchufaba en el puerto ISA o MCA, reproducía colores en 8-bit y tenía dos versiones:
El chip de la Mach8 se usaría en modelos posteriores y sería una gráfica que era capaz de procesar gráficos sin CPU.
Con la Mach32 la cosa empezaba a ponerse seria porque empezábamos a ver tarjetas más que decentes en el mercado. Por aquel entonces, estaba MS-DOS, así que la Mach32 incorporaba un acelerador GUI de 32-bit para dicho SO. Además, el interfaz de memoria era de 64-bit y teníamos dos modelos: uno de 1Mb y otro de 2 Mb.
La Mach32 integraba un procesador VGA, de modo que se bastaba ella sola para funcionar. Como últimos datos, seguía utilizando ISA y MCA, pero también PCI… una ranura que sería muy famosa en los 90. Además, era compatible con nuevos modos de colores: 15 bbp,16 bbp y 24 bbp, como con el chip IBM 8514/A.
En 1993, ATI Technologies Inc. saldría a las bolsas de Toronto y NASDAQ. Como curiosidad, su símbolo trading no sería ATI, sino ATY.
En este año, ATI lanzaría una de las últimas tarjetas gráficas de la familia «Mach». Nos empezábamos a meter en el preámbulo de los gráficos 3D. Mientras tanto, ATI a lo suyo:
El chip Mach64 era completamente nuevo y suponía una de las primeras tarjetas gráficas en acelerar vídeo en movimiento. Este chip sería protagonista en el 3DRage, que veremos más adelante.
En este mismo año, ATI lanza un software multilenguaje compatible con 13 idiomas distintos. Esta gráfica daría vida a Graphics Xpression o a Graphics Pro Turbo.
Llegaban los gráficos 3D a los ordenadores personales de la mano de 3dfx Interactive, nVidia y ATI. En concreto, la 3D Rage combinaba aceleración 3D, video aceleración y aceleración 2D. Además de ser la sucesora de la serie Mach, usaba el mismo chip que la Mach 64.
La 3D Rage se lanzó en abril de 1996 y usaría 3D Xpression, como sería compatible con MPEG-1. Se trataba del primer chip de 3D en la historia de las tarjetas gráficas, lo que supuso más de 1 millón de chips vendidos.
Sin embargo, esto sólo acababa de empezar.
La 3D Rage 2 casi doblegaba a su antecesora en cuanto a gráficos 3D. Incorporaba un chip Mach64 reestructurado para conseguir un mejor rendimiento 2D. De hecho, es compatible con su hermana mayor, la Rage 1.
Esta gráfica mejoraba a la anterior generación en casi todo:
Además, su core funcionaba a 60 MHz, su memoria SGRAM hasta 83 MHz y tenía un bandwith de 480 MB/s. Era un producto buenísimo, estando presente en muchos ordenadores personales, como los Macintosh G3.
Decimos que la guerra está servida porque estamos en un 1997 muy competitivo en cuanto a gráficos 3D con las nuevas nVidia RIVA 128 y las Voodoo de 3dfx. La Rage Pro era la solución contra estas dos, pero ATI cometió varios errores: no superaban en rendimiento a sus rivales, ni soportaba OpenGL.
En aquel momento, OpenGL era esencial para disfrutar de los mejores videojuegos. ATI lo intenta de nuevo con Rage Pro Turbo, pero fracasa de nuevo frente a sus rivales porque su rendimiento no es el anunciado y la Turbo no mejoraba mucho a la Pro.
Por tanto, nos encontramos con una ATI como un fabricante fuerte de tarjetas gráficas por tener contratos cerrados con empresas como Apple para la integración de gráficas en los Mac. Además, trabaja en traer chips de gráficos para televisión. Sin olvidar que introduce el primer chip 3D para portátiles, que tendría el nombre de Rage LT.
Sin embargo, la competición por los gráficos 3D sería más dura de lo que se pensaban porque, a pesar de que las Rage tuvieran un acelerador Direct3D 6 con aceleración DVD, no parecían remontar el vuelo contra sus rivales.
Rage 128 era compatible con Direct3D 6 y OpenGL 1.2. Trajo la novedad del IDCT, el primer renderizador dual de texturas de ATI. También, conocimos su procesador que era capaz de reproducir colores de 32-bit, como en 16-bit, aunque inexplicablemente peor en este modo.
Esta tarjeta gráfica pretendía competir contra la RIVA TNT y la Voodoo 3, una tarjeta decadente. Por otro lado, Matrox se metía por en medio con sus G200 y G400. Finalmente, pudo competir contra ellas y lo hizo realmente bien porque la Voodoo 3 no soportaba 32-bit.
Para terminar de describirla, incorporaba 250 MHz RAMDAC y 2 puertos AGP.
Lanzada en agosto de 1999, integraba chips de 250 nm y soportaba DirectX 6.0. Era la sucesora de la Rage 128 y su chip tenía mejoras relacionadas con la compresión DirectX, mejor filtrado de texturas, soporte DVI y más puertos AGP. Esta gráfica surgió para competir contra la Voodoo 3 2000, la TNT2 y la Matrox 6400.
Lo cierto es que no fue un producto que pudiese competir de tú a tú con los modelos mencionados porque su reloj era más lento. Es cierto que ATI se las ingeniaba para romper todos los benchmarks, pero, a la hora de la verdad, su rendimiento en videojuegos decepcionaba.
La próxima serie la denominarían Rage 6, pero cambiaría de nombre a Radeon, uno de los nombres más recordados en las tarjetas gráficas.
De Rage, pasaríamos a Radeon, una línea que daría mucho que hablar en todo el siglo XXI. Esta nueva serie llegaría en abril de 2000, momento en el que se presentaría la Radeon DDR. Ante los continuos fracasos contra nVidia, ATI no quería fallar, así que se tomó muy en serio la DDR.
Para aclarar el contexto, estábamos en la era de Pentium 4 y AMD Athlon, por lo que había unos gráficos 3D marcados por juegos como el Quake.
Introducida esta serie, pasemos a meternos de lleno con la DDR. Estaba construida en chips de 180nm fabricados por TSMC. Soportaba DirectX 7.0 y trajo las novedades de 2 pixel shaders y 1 vertex shader junto con 6 TMU y 2 ROPs. Además, era compatible con OpenGL 1.3. Por último, traería la tecnología de HyperX e incorporaría el primer chip de la serie: el R100.
Teníamos dos modelos: 32 MB y 64 MB. La última, tiene un reloj más rápido (183Mhz) y con capacidad VIVO. Su principal rival era la serie GeForce de nVidia, pero ATI no volvió loco al mundo con sus Radeon, aunque era un producto que funcionaba muy bien.
En 2001, ATI tomó la vía de la relación calidad–precio, ya que no lograba desbancar a nVidia. En este campo, fui difícil ganar a ATI porque hizo un movimiento empresarial magnífico.
La Radeon 8500 de ATI fue comercializada el 14 de agosto de 2001. Utilizaba unos chips de 150nm y estaba enfocada para los más gamers. Dentro de esta serie tendríamos 3 tarjetas:
La XT fue cancelada porque con sólo 300 MHz habría sido aplastada por la GeForce 4 Ti4600. Así que, ATI se centró en la gama media y en la gama más baja.
En este mismo año ATI sacó la 8500 All-In-Wonder, la cual fue todo un éxito porque incorporaba un sintonizador de televisión analógica y de radio FM. En el sector multimedia, arrasó sin complejos.
Entrando de lleno en gráficos 3D, la Radeon 9000 pertenece a la serie R300 y fue lanzada en agosto de 2002. Se trata de una GPU que traía soporte de Direct3D 9.0 y OpenGL 2.0. Además, era compatible con Windows 98, 98SE, Me, 2000 y XP.
Traía 64MB o 128 MB DDR, 200 Mhz de core y 500 MHz de memoria. Finalmente, su ancho de banda era de 8 GB/s. Era una gráfica algo liviana, ya que tenía unas especificaciones más bajas que la 8500.
Las cosas se ponen serias con la salida de la Radeon 9600 Pro el 1 de octubre de 2003. Con unos chips de 130 nm y una memoria de 128 MB, era capaz de ofrecer un bandwith de 9.6 GB/s. Soportaba OpenGL 2.0 y DirectX 9.0. Tenía salidas DVI, VGA y S–Video. Montaba el chip RV360.
Es cierto que la 9600 Pro tenía la misión de reemplazar la 9500 Pro, pero no lo hizo, aunque sí que era mucho más económica. Nos metíamos en un reloj de 600 Mhz enfocados a una gama media que dio un rendimiento espectacular.
La única pega era que no soportaba Shader Model 3.0. Por otro lado, hay que destacar el avance que supuso Mobility Radeon 9600 en los gráficos para portátiles.
No obstante, ATI sorprendió con la 9800XT en el mismo año, una tarjeta que daba miedo. Se trataba de una gráfica que tenía 256 MB de memoria, un ancho de banda de 23.36 GB/s y un GPU Clock de 412 MHz, como un Memory Clock de 365 MHz, capaz de sacar 730 MHz.
ATI volvía al ruedo y competía de tú a tú con Nvidia. Eso sí, a un precio muy alto.
La nueva serie R420 de Radeon estaría marcada por las gráficas X700 y X800. La X700 no tuvo una buena entrada porque no era compatible con el Shader Pixel 3.0, a pesar de tener un precio muy económico. Las GeForce 6600 y 6800 se llevaron el gato al agua. Se empezó a usar el PCI–Express.
ATI seguía sacando modelos de alta, media y baja gama. En este caso, la X700 SE, X700 LE, X700, X700 Pro y la que nunca salió: la X700XT. Esta serie no caló, así que habría que esperar un año más.
En este año vimos la plataforma SLI de Nvidia (apropiada de 3dfx), pero ATI respondió con Crossfire, que era una plataforma muy parecida que combinaba la potencia de sus gráficas x2, x3 o x4, según las gráficas que se instalaran.
Nvidia sacó la FX 5800 Ultra, así que ATI compitió contra ella con su nuevo modelo: X850 XT.
Esta gráfica fue realmente rápida, pero la situación con el Shader Model 3.0 empeoraba porque había muchos juegos que no funcionaban en equipos AMD. Así que, teníamos una gráfica espectacular, pero que dependía de una comunidad de usuarios para que «hackeasen» el juego en cuestión y poder jugarlo.
La X850 XT tenía 256 MB GDDR3, un ancho de banda de 34.56 GB/s, un reloj de 520 MHz y una memoria capaz de llegar a 1080 Mhz. Su gran pega: el Shader Model 2.0b.
Hay que decir que ATI derrotó a Nvidia en otras gamas, como le pasó a la GeForce 6800 GT.
En 2005, ATI volvió a empezar con la X1300 Pro. A pesar de su compatibilidad con Shader Model 3.0… fue derrotada, una vez más, por Nvidia.
Nos situamos en la serie R520 que desarrolló ATI y produjo TSMC. Toda esta serie contaría con Direct3D 9.0c, Shader Model 3.0 y OpenGL 2.0. Esto no bastaría, aunque podría competir contra Nvidia.
La X1650 Pro usaba un núcleo RV535, lo que le hacía más fría y más eficiente. Estábamos en DDR2, 256 MB, 800 Mhz de frecuencia y un bandwith de 12.8 GB/s. Compitió bien en la gama media, pero nada más.
Sólo con el nombre asustaba, y no era para menos porque la X1950XTX derrotó a las Geforce 7, derrocando del reino a Nvidia. Fue muy cara, una estufa, pero terriblemente rápida. Se presentó el 23 de agosto de 2006.
Soportaba memoria GDDR4, trabajaba a 1 GHz y daba 64 GB/s de ancho de banda. No sólo eso, tenía un GPU Core 650 MHz y 512 MB de memoria de vídeo.
Cambiamos a la serie R600, la cual se lanzó el 28 de junio de 2007. Se trataba de las tarjetas gráficas HD 2000, las cuales competirían con GeForce 8. Como modelo a destacar, la HD 2900 XT era extrema hasta en su diseño de llamas plateadas en su carcasa roja.
Su rendimiento fue brutal, pero se mejoró más con la actualización de drivers. Incorporaba un ventilador que hacía más ruido que la guerra y que era insuficiente para mantener la gráfica fresca. Aunque se rumoreó que incorporaría 1GB de memoria, finalmente eran 512 Mb.
ATI tenía que volverse a enfocar en otros nichos porque las nuevas GeForce le dejaron en jaque. De esta manera, surgen las HD 3850, unas tarjetas gráficas que funcionaban muy bien y que se hicieron populares por su rendimiento en gamas medias.
Nvidia dominaba la gama alta de gráficas y ATI parecía Rocky Balboa mareado, dando crouches certeros en los últimos asaltos. Las dos marcas se atizaban sin piedad.
Nunca hay que rendirse. ATI luchaba cada 8 meses por sacar algo que pudiera hacer competencia a Nvidia. En esta ocasión, pusieron mucha fuerza bruta, ya que se trataba de 2 tarjetas gráficas en 1.
Como es lógico, los requerimientos de energía eran brutales y había que echar cuentas con las fuentes de alimentación (y la factura de la luz). De todos modos, esta gráfica recuperó el trono gracias a su gran rendimiento.
ATI sabía que su mayor baza era la gama media porque podía vender muy buenas tarjetas gráficas a un precio comedido. Estábamos en una época donde el HD reinaba y el 720p ocupaba todos los ordenadores. Esta gráfica de 512 MB GDDR3 funcionaba muy bien y era compatible con DirectX 10.1, OpenGL 3.3 y Shader Model 4.1.
Esa mini gráfica era perfecta para equipos multimedia u ordenadores de tamaño reducido (HTPC) ¡Bien pensado ATI!
Se hizo rápidamente popular porque era la tarjeta gráfica con mejor calidad-precio del mercado. Derrocaba a Nvidia una vez más con una gráfica redonda en todos los sentidos. Lo que más atraía era su precio económico, 299 dólares. Fue lanzada el 25 de junio de 2008.
Sus especificaciones eran magníficas:
ATI sacó una versión X2 para los más exigentes. Sin embargo, parece que los drivers podrían haber sacado mejor provecho de su rendimiento.
Nos encontramos en último año de ATI como empresa independiente de tarjetas gráficas. Esto no lo sabía, prácticamente, nadie, pero no ha supuesto un cambio brutal en la actualidad.
Comenzando por la HD 4890, era un refrito de la HD 4870 y no tuvo el éxito que ATI esperaba de ella. Tenía buenas especificaciones y un buen rendimiento en Full HD, pero nada más lejos de la realidad: Nvidia volvía a dominar fuerte con sus GTX.
Por ello, el mismo año se presentaría la HD 5770, una tarjeta de gama media que conquisto muchos hogares. Sus principales razones:
Esta compañía había quedado relegada a la gama media-baja, por lo que nadie esperaba otro golpe en la mesa, como sí dieron con la HD 4870 o la X1950XTX. En este año, AMD ya estaba presente en la compañía, así que la adquisición era un secreto a voces.
El 2009 terminaría para ATI con dos últimos lanzamientos: la HD 5780 y la HD 5970. Eran tarjetas gráficas que se situaban en la gama alta por precio, pero no por rendimiento. Que no se me malinterprete, su rendimiento era bueno, pero no igualaba a lo mejor de Nvidia, cuyos modelos valían mucho más dinero.
La HD 5970 era una gráfica X2, como las que ya estábamos acostumbrados a ver. ATI volvía a contestar a Nvidia con esta gran tarjeta gráfica, pero su consumo alejaba a todo comprador.
El final de ATI vendría de la mano su último lanzamiento: la HD 5670. Esta gráfica abría una nueva posibilidad de gama media en el mercado porque traía muy buenas especificaciones a un precio competitivo. A pesar de que la compra de AMD se diese en 2006, la marca ATI terminaba desapareciendo en 2010. La primera gráfica AMD sería la HD 6850, una gráfica bastante buena y continuista.
Así es como terminan las historias tristes. ATI tuvo muy buenos momentos en los 90, pero el siglo XXI se le hizo cuesta arriba. Lo de Nvidia tuvo mucho mérito porque no necesitaba sacar gráficas monstruosas como ATI para tener el mejor rendimiento en videojuegos. Su I+D fue mejor que el de ATI, sin debate.
Te recomendamos la lectura de las mejores tarjetas gráficas
¿Qué os ha parecido la historia de ATI? ¡Compartid vuestras impresiones!
Intel revela sus próximas aceleradoras Jaguar Shores, que van a llegar después del lanzamiento de…
Abysm es una de las muchas marcas que celebran el Black Friday a lo grande.…
YouTube se prepara para lanzar una función que va a cambiar la forma en la…