salida de vídeo

Las salidas de vídeo

Se conoce como salidas de vídeo a los puertos de conexión que se utilizan para conectar la tarjeta gráfica al monitor.
Hay muchos tipos de salida de vídeo diferentes, pero en la actualidad se utilizan únicamente las siguientes:
  • VGA (prácticamente en desuso): significa Video Graphics Array, y fue el estándar de vídeo analógico en la década de los 90. Estaba diseñada para monitores CRT, y sufre bastante de ruido eléctrico y distorsión en la conversión de analógico a digital, por lo que los cables VGA suelen llevar filtro de línea en el propio cable. Su conector se llama D-sub y tiene 15 pines.
  • DVI: Significa Digital Visual Interface, y sustituye a la anterior. Es totalmente digital, por lo que no hay que hacer conversión, eliminando gran parte del ruido eléctrico y la distorsión. Ofrece una mayor calidad y mayores resoluciones posibles.
  • HDMI: Significa High Definition Multimedia Interface, y actualmente es el que más se utiliza. Cuenta con cifrado sin compresión y es capaz de transmitir audio a la vez que vídeo, ofreciendo resoluciones todavía más altas.
DisplayPort: Actualmente es el “rival” del HDMI. Se trata de una tecnología propietaria de VESA que también transmite audio y vídeo, pero a mayor resolución y frecuencia que HDMI. Tiene como ventaja que está libre de patentes, por lo que es más fácil que su uso se extienda (actualmente prácticamente todas las gráficas llevan DisplayPort). Cuenta con una versión de tamaño reducido llamada Mini DisplayPort de iguales características que permite la inclusión de muchos más puertos en una misma tarjeta gráfica.

Un poco de historia ¿por qué se inventaron las tarjetas gráficas?

La historia de las tarjetas gráficas comienza a finales de los años 60, cuando se deja de utilizar impresoras como principal elemento de visualización y entran en juego los monitores. Las primeras tarjetas gráficas solo eran capaces de mostrar una resolución de 40 x 25 píxeles monocromo, hasta que aparecieron los primeros chips gráficos dedicados como el Motorola 6845.
Más tarde comenzaron a aparecer las primeras videoconsolas y el éxito del PC (Personal Computer, ordenador doméstico) tuvo un gran auge, abaratando mucho los costes de producción dado que se hacían ya en masa. Al principio las tarjetas gráficas que se comercializaban eran de 80 columnas, que añadían un modo texto de hasta 80 x 25 caracteres (no píxeles), principalmente para software CP/M. Después, llegaron los famosos IBM PC que popularizaron el diseño “intercambiable” de las tarjetas gráficas. La más extendida fue la MDA (Monochrome Display Adapter) que IBM creó en 1981. Ésta gráfica contaba con una memoria gráfica de 4 KB y era capaz de representar en el monitor hasta 25 líneas de texto de 80 caracteres cada una.
A partir de ahí se entró en un ciclo de competencia en el mercado de PC, con nombres que os sonarán mucho tales como Commodore, Amiga 2000 y Apple Macintosh. Éstos equipos comenzaron a utilizar tecnología propietaria para la tarjeta gráfica, integrando la GPU en la placa base. Esta situación se mantiene hasta la aparición de otro integrante que también os sonará: el puerto PCI.
El PCI eliminaba el cuello de botella de la interfaz anterior (ISA), y comenzaron a desarrollarse los primeros adaptadores 3D profesionales (S3 ViRGE). Se comenzó a la fabricación masiva de gráficas para zócalos PCI. A partir de ahí, la industria evolucionó hasta como la conocemos hoy en día, con los siguientes hitos destacados:
  • En 1995 aparecieron las primeras tarjetas gráficas 2D/3D fabricadas por Matrox, ATI, S3 y Creative entre otros. Cumplían con el estándar SVGA pero con funciones 3D.
  • En el año 1997, 3DFX lanzó el que posiblemente sea el chip gráfico más famoso de todos los tiempos: Voodoo. Éste tenía una potencia de cálculo ingente para la época y añadía diversos efectos 3D como Mip Mapping, Z-Buffering y Antialiasing. A partir de ésta, se lanzaron diversos modelos conocidos como el Voodoo2 de 3DFX, TNT de Riva y después, el TNT2 de NVIDIA (después de adquirir Riva).
  • Tal era la potencia de esas gráficas que el puerto PCI se quedó corto, pero llegó Intel para desarrollar el puerto AGP (Accelerated Graphics Port) que solucionó los cuellos de botella que ya había en ese entonces.


Entre 1999 y 2002, NVIDIA se hizo con la hegemonía del mercado de tarjetas gráficas (entre otras cosas compró 3DFX) con su familia GeForce. En ese periodo hubo gran cantidad de mejoras gráficas en el entorno 3D. Las gráficas destacadas de aquellos tiempos tenían hasta 128 MB de memoria DDR.

  • La mayor parte de las consolas de aquellos tiempos utilizaban chips gráficos basados en las tarjetas aceleradoras 3D. Los Apple Macintosh usaban chips de NVIDIA y ATI.
  • En 2006 AMD compra ATI, y se hace rival directo de NVIDIA en el mercado de tarjetas gráficas. Desde entonces se repartieron el liderazgo con sus respectivas familias GeForce y Radeon, y así siguen hasta el día de hoy.

Las mejores tarjetas gráficas


Cada año, o a lo sumo cada dos años, llegan al mercado nuevas tarjetas gráficas más potentes y con nuevas tecnologías (como el nuevo Ray Tracing para los videojuegos) que nos ofrecen una experiencia mucho más realista en los juegos.



Hoy en día, las tarjetas gráficas más potentes para gaming que podemos encontrar llegan de la mano de NVIDIA, entre las que destacan los modelos de la serie 10 (Pascal) y de la serie 20 (Turing). Dentro de la serie 10 de NVIDIA podemos encontrarnos con la NVIDIA GTX 1060 (aunque este modelo se considera más como gama media), NVIDIA GTX 1070, GTX 1070 Ti, GTX 1080 y GTX 1080 Ti. Dentro de la serie 20, también conocida como RTX, de NVIDIA podemos optar por la NVIDIA RTX 2060 (con una potencia superior a la NVIDIA GTX 1070), NVIDIA RTX 2070, RTX 2080 y el modelo más avanzado y potente de todos, la NVIDIA RTX 1080 Ti.

No hay comentarios:

Publicar un comentario

QUÉ ES UNA TARJETA GRÁFICA? Hoy en día, máxime con el auge de los equipos Gaming, la tarjeta gráfica es uno de los principales co...