Tarjeta Gráfica
Existen tarjetas de 2D y 3D. También existen tarjetas aceleradoras de 3D que deben usarse con una tarjeta de 2D común. También existen las tarjetas graficas “combo”, que realizan funciones de 2D y 3D. Al día de hoy, incluso las tarjetas gráficas on board (se refiere a dispositivos que vienen integrados en la placa madre) vienen con recursos 3D, aunque su rendimiento no se compara en lo absoluto con el de una tarjeta gráfica de calidad.
Histórica
La historia de las tarjetas gráficas da comienzo a finales de los años 1960cuando se pasa de usar impresoras, como elemento de visualización, a utilizar monitores. Las primeras tarjetas sólo eran capaces de visualizar texto a 40x25 u 80x25, pero la aparición de los primeros chips gráficos como el Motorola 6845 permiten comenzar a dotar a los equipos basados en bus S-100 oEurocard de capacidades gráficas. Junto con las tarjetas que añadían un modulador de televisión fueron las primeras en recibir el término “tarjeta de video”.
El éxito de la computadora doméstica y las primeras videoconsolas hacen que por abaratamiento de costes (principalmente son diseños cerrados), esos chips vayan integrados en la placa base. Incluso en los equipos que ya vienen con un chip gráfico se comercializan tarjetas de 80 columnas, que añadían un modo texto de 80x24 u 80x25 caracteres, principalmente para ejecutar softCP/M (como las de los Apple II y Spectravideo SVI-328).
Curiosamente la tarjeta de vídeo que viene con el IBM PC, que con su diseño abierto herencia de los Apple II popularizará el concepto de tarjeta gráfica intercambiable, es una tarjeta de sólo texto. La Monochrome Display Adapter(MDA), desarrollada por IBM en 1981, trabajaba en modo texto y era capaz de representar 25 líneas de 80 caracteres en pantalla. Contaba con una memoria VRAM de 4KB, por lo que sólo podía trabajar con una página de memoria. Se usaba con monitores monocromo, de tonalidad normalmente verde.9
A partir de ahí, se sucedieron diversas controladoras para gráficos resumidas en la tabla adjunta.10 11 12 13
Año | Modo texto | Modo gráficos | Colores | Memoria | |
---|---|---|---|---|---|
MDA | 1981 | 80*25 | - | 1 | 4 KiB |
CGA | 1981 | 80*25 | 640*200 | 4 | 16 KiB |
HGC | 1982 | 80*25 | 720*348 | 1 | 64 KiB |
EGA | 1984 | 80*25 | 640*350 | 16 | 256 KiB |
IBM 8514 | 1987 | 80*25 | 1024*768 | 256 | - |
MCGA | 1987 | 80*25 | 320*200 | 256 | - |
VGA | 1987 | 720*400 | 640*480 | 256 | 256 KiB |
SVGA | 1989 | 80*25 | 1024*768 | 256 | 1 MiB |
XGA | 1990 | 80*25 | 1024*768 | 65K | 2 MiB |
Video Graphics Array (VGA) tuvo una aceptación masiva, lo que llevó a compañías como ATI, Cirrus Logic y S3 Graphics, a trabajar sobre dicha tarjeta para mejorar la resolución y el número de colores. Así nació el estándarSuper Video Graphics Array (SVGA, o Súper VGA). Con dicho estándar se alcanzaron los 2 MB de memoria VRAM, así como resoluciones de 1024x768 pixeles a 256 colores.
La competencia de las PC, Commodore Amiga 2000 y Apple Macintoshreservaron en cambio esa posibilidad a ampliaciones “profesionales”, integrando casi siempre la GPU (que batía en potencia con total tranquilidad a las tarjetas gráficas de las PC del momento) en sus placas base. Esta situación se perpetúa hasta la aparición del bus Peripheral Component Interconnect(PCI), que sitúa a las tarjetas de PC al nivel de los buses internos de sus competidores, al eliminar el cuello de botella que representaba el bus Industry Standard Architecture (ISA). Aunque siempre por debajo en eficacia (con la misma GPU “S3 ViRGE”, lo que en una PC es una tarjeta gráfica avanzada deviene en acelerador 3D profesional en los Commodore Amiga con ranura Zorro III), la fabricación masiva (que abarata sustancialmente los costes) y la adopción por otras plataformas del bus PCI hace que los chips gráficos VGA comiencen a salir del mercado de la PC.
En 1995, la evolución de las tarjetas gráficas dio un giro importante con la aparición de las primeras tarjetas 2D/3D, fabricadas por Matrox, Creative, S3 y ATI, entre otros. Dichas tarjetas cumplían el estándar SVGA, pero incorporaban funciones 3D.
En 1997, 3dfx lanzó el chip gráfico “Voodoo”, con una gran potencia de cálculo, así como nuevos efectos 3D (Mip Mapping,Z-Buffering, Antialiasing, etcétera). A partir de ese punto, se suceden una serie de lanzamientos de tarjetas gráficas como “Voodoo2” de 3dfx, “TNT” y “TNT2” de NVIDIA. La potencia alcanzada por dichas tarjetas fue tal, que el puerto PCI donde se conectaban se quedó corto de ancho de banda. Intel desarrolló el puerto Accelerated Graphics Port (AGP) que solucionaría los cuellos de botella que empezaban a aparecer entre el procesador y la tarjeta.
Desde 1999 hasta 2002, NVIDIA dominó el mercado de las tarjetas gráficas (comprando incluso la mayoría de bienes de 3dfx)14 con su gama GeForce. En ese período, las mejoras se orientaron hacia el campo de los algoritmos 3D y la velocidad de los procesadores gráficos. Sin embargo, las memorias también necesitaban mejorar su velocidad, por lo que se incorporaron las memorias DDR a las tarjetas gráficas. Las capacidades de memoria de vídeo en la época pasan de los 32 MB de GeForce, hasta los 64 y 128 MB de GeForce 4.
La mayoría de videoconsolas de sexta generación y sucesivos utilizan chips gráficos derivados de los más potentes aceleradores 3D de su momento. Los Apple Macintosh incorporan chips de NVIDIA y ATI desde el primer iMac, y los modelos PowerPC con bus PCI o AGP pueden usar tarjetas gráficas de PC con BIOS no dependientes de CPU.
Con este dispositivo hemos visto o lee ido que su avance tecnológico en cuanto a diseño,capacidad,velocidad,manejo de gráficos ect. han sido de importancia en ambiente de manejo gráficos como por ejemplo de vídeo juegos,etc.Es importante asesorarse a la hora de obtener un dispositivo de esto.
ResponderEliminar