Una tarjeta de vídeo, también
llamada tarjeta gráfica (entre otros nombres) tiene a su
cargo el procesamiento de los datos que provienen del procesador principal (CPU
o UCP) y convertirlos en información que se pueda representar en dispositivos
tales como los monitores y los televisores. Cabe mencionar que este componente
puede presentar una gran variedad de arquitecturas, aunque comúnmente se
denominan de igual forma, incluso si se habla de un chip de vídeo integrado
en una placa madre (motherboard); en este último caso, es más correcto decirGPU (Unidad de Procesamiento Gráfico).
Desde su concepción, las tarjetas
gráficas han incluido diversas prestaciones y funciones, tales como la
posibilidad de sintonizar la televisión o de capturar secuencias de vídeo de un
aparato externo. Es importante notar que no se trata de un componente hallado
exclusivamente en los ordenadores actuales, sino que han existido desde hace ya
más de cuatro décadas y hoy en día también son parte indispensable de las consolas de videojuegos, tanto de las portátiles como de
las caseras.
Su creación data del final de la década
del 60, época en la cual se dejó atrás el uso de una impresora para visualizar
la actividad de los ordenadores y se comenzó a usar monitores. Al principio, las resoluciones eran ínfimas en
comparación a la ya conocida por todos alta definición. Fue gracias al trabajo
de investigación y desarrollo de Motorola que las características de los chips
se volvieron más complejas y sus productos dieron pie a que se estandarizara el
nombre de tarjetas de vídeo.
A medida que los ordenadores para uso
personal y las primeras consolas de videojuegos se hicieron populares, se optó
por integrar los chips gráficos en las placas madre, dado
que esto permitía disminuir considerablemente los costes de fabricación. A
simple vista, esto presenta una clara desventaja: la imposibilidad de
actualizar el equipo; sin embargo, se trataba de sistemas cerrados, que eran construidos tomando en
consideración todos y cada uno de sus componentes, de forma que el producto
final fuera consistente y ofreciera el mayor rendimiento posible.
Cabe alcarar que al día de hoy esto sigue
sucediendo con las consolas, y es gracias a este tipo de diseño inalterable que
luego de unos años los desarrolladores obtengan resultados muy superiores a los
primeros experimentos; esto no es posible en una PC, por poderosa que sea, dado
que una compañía de software no puede considerar todas las combinaciones
posibles de las máquinas de sus consumidores. Además, la arquitectura de un
ordenador tiene puntos débiles justamente debido a que sus partes son intercambiables, siendo el más notable
la distancia que existe entre la memoria, la tarjeta gráfica y el procesador principal.
A comienzos de los años 80, IBM se basó
en el diseño del inolvidable Apple II y
consiguió que la tarjeta de vídeo intercambiable se volviera popular, aunque en
su caso sólo ofrecía la posibilidad de mostrar caracteres en pantalla. Se trataba de un adaptador con la modesta
cantidad de 4KB de memoria (en la
actualidad pueden tener 2GB, 512 veces más) y que se utilizaba con un monitor
monocromático. Este fue el punto de partida, y las mejoras no se hicieron
esperar mucho.
Tiempo después, IBM estandarizó el
término VGA, que se refiere a una tecnología de tarjetas de vídeo capaces de ofrecer una
resolución de 640 píxeles de ancho por 480 de alto, así como a los monitores
que podían representar dichas imágenes y al conector necesario para su uso.
Luego del trabajo de varias empresas dedicadas exclusivamente a la
gráfica, Super VGA (también conocido como SVGA) vio la luz del día, aumentando la definición
disponible (a 1024 x 768) así como la cantidad de colores que
podían ser representados de forma simultánea (de 16 colores en 640 x 480 se
pasó a 256 en 1024 x 768).
No hay comentarios:
Publicar un comentario