Ir al contenido

Video

De Wikipedia, la enciclopedia libre
Esta es una versión antigua de esta página, editada a las 19:39 23 sep 2010 por 200.83.2.4 (discusión). La dirección URL es un enlace permanente a esta versión, que puede ser diferente de la versión actual.

El vídeo[1]​ o video[2][3]​ es la tecnología de la captación, grabación, procesamiento, almacenamiento, transmisión y reconstrucción por medios electrónicos digitales o analógicos de una secuencia de imágenes que representan escenas en movimiento. Etimológicamente la palabra video proviene del verbo latino video, vides, videre, que se traduce como el verbo ‘ver’. Se suele aplicar este termino a la señal de vídeo y muchas veces se la denomina «el vídeo» o «la vídeo» a modo de abreviatura del nombre completo de la misma.

La tecnología de vídeo fue desarrollada por primera vez para los sistemas de televisión, pero ha derivado en muchos formatos para permitir la grabación de vídeo de los consumidores y que además pueda ser visto a través de Internet.

En algunos países se llama así también a una grabación de imágenes y sonido en cinta magnética o en disco de láser (DVD), aunque con la aparición de estos últimos dicho término se identifica generalmente con las grabaciones anteriores en cinta magnética, del tipo VHS, BETAMAX.

Inicialmente la señal de vídeo está formada por un número de líneas agrupadas en varios cuadros y estos a la vez divididos en dos campos portan la información de luz y color de la imagen. El número de líneas, de cuadros y la forma de portar la información del color depende del estándar de televisión concreto. La amplitud de la señal de vídeo es de 1Vpp (1 voltio de pico a pico) estando la parte de la señal que porta la información de la imagen por encima de 0V y la de sincronismos por debajo el nivel de 0V. La parte positiva puede llegar hasta 0,7V para el nivel de blanco, correspondiendo a 0V el negro y los sincronismos son pulsos que llegan hasta -0,3V. En la actualidad hay multitud de estandares diferentes, especialmente en el ámbito informático.

Partes de la señal de vídeo analógica

La señal de vídeo consta de lo que se llama luminancia, crominancia y de los sincronismos. La amplitud se sitúa entre los -0,3 V del nivel inferior del sincronismo hasta los 0,7 V que corresponde al blanco. La señal propia es la referida a la luminancia con los sincronismos, a la que se le añade la señal de crominancia, con su sincronía propia, la salva de color, de tal forma que la crominancia monta encima de la luminancia.

El ancho de banda de la señal de luminancia suele ser del orden de 5 MHz, pero depende del sistema empleado. La crominancia es una señal modulada en cuadratura (es decir en amplitud y en fase). A la portadora se la denomina «subportadora de color» y es una frecuencia próxima a la parte alta de la banda, en PAL es de 4,43 MHz; evidentemente, esta frecuencia tiene relación con el resto de frecuencias fundamentales de la señal de vídeo que están referenciadas a la frecuencia de campo que toma como base, por cuestiones históricas, la frecuencia de la red de suministro eléctrico, 50 Hz en Europa y 60 Hz en muchas partes de América.

Información de la imagen

La imagen esta formada por luz y color; la luz define la imagen en blanco y negro (es la información que se utiliza en sistemas de blanco y negro) y a esta parte de la señal de vídeo se la llama luminancia.

Existen estándares diferentes para la codificación del color, NTSC (utilizado en casi toda América, dependencias estadounidenses, Corea, Japón y Myanmar), SECAM (Francia, sus dependencias y ex colonias; mayoría de Rusia) y PAL (resto de Europa; Argentina, Brasil, Groenlandia y Uruguay en América; mayoría de África, Asia y Oceanía).

Sincronismos

En lo referente a los sincronismos se distinguen tres clases, de línea u horizontales, de campo o verticales y los referentes al color.

Los sincronismos de línea indican donde comienza y acaba cada línea de las que se compone la imagen de video; se dividen en: pórtico anterior, pórtico posterior y pulso de sincronismo.

Los sincronismos verticales son los que nos indican el comiezo y el final de cada campo. Están compuestos por los pulsos de igualación anterior, pulsos de sincronismo, pulsos de igualación posterior y líneas de guarda (donde en la actualidad se inserta el teletexto y otros servicios).

Barras de color EBU vistas en un MFO y un vectoscopio.

La frecuecia de los pulsos de sincronismo depende del sistema de televisión: en América (con excepción de Argentina y Uruguay, que siguen la norma europea) se usa frecuencia de línea (número de líneas) de 525 líneas por cuadro (y 60 campos por segundo), mientras que en Europa se utilizan 625 líneas por cuadro (312,5 por cada uno de los dos campos en la exploración entrelazada), a una frecuencia de 15.625 Hz, y 50 campos por segundo, (25 cuadros). Estas cifras se derivan de la frecuencia de la red eléctrica en la que antiguamente se enganchaban los osciladores de los receptores.

En lo referente al color, en todos los estándares se modula una portadora con la información del color. En NTSC y PAL lo que se hace es una modulación en amplitud para la saturación, y en fase para el tinte, lo que se llama «modulación en cuadratura». El sistema PAL alterna la 180º en cada línea la fase de la portadora para compesar distorsiones de la transmisión. El sistema SECAM modula cada componente del color en las respectivas líneas.

Descripción de videos

Los estándares de vídeo analógico en todo el mundo.       NTSC       PAL o cambiando a PAL       SECAM       Sin información

El término vídeo se refiere comúnmente a varios formatos: los formatos de vídeo digital, incluyendo DVD, QuickTime, DVC y MPEG-4 y las cintas de vídeo analógico, incluyendo VHS y Betamax. El vídeo se puede grabar y transmitir en diversos medios físicos: en cinta magnética cuando las cámaras de vídeo registran como PAL, SECAM o NTSC señales analógicas, o cuando las cámaras graban en medios digitales como MPEG-4 o DVD (MPEG-2).

La calidad del vídeo depende esencialmente del método de captura y de almacenamiento utilizado. La televisión digital (DTV) es un formato relativamente reciente con mayor calidad que los primeros formatos de la televisión y se ha convertido en un estándar para la televisión. El vídeo 3D, vídeo digital en tres dimensiones, estrenado a finales del siglo XX. Para capturar secuencias de vídeo en 3D se utilizan normalmente seis u ocho cámaras con medición en tiempo real de la profundidad. El formato de vídeo 3D se fija en MPEG-4 Parte 16 Animation Framework eXtension (AFX).

En el Reino Unido, Australia, Países Bajos y Nueva Zelanda, el término vídeo se utiliza a menudo informalmente para referirse a las grabadoras de vídeo y a las cintas de vídeo más destacadas el sentido normalmente se desprende del contexto.

Características de los flujos de vídeo

Número de imágenes por segundo

Velocidad de carga de las imágenes: número de imágenes por unidad de tiempo de video, para viejas cámaras mecánicas cargas de seis a ocho imágenes por segundo (fps) o 120 imágenes por segundo o más para las nuevas cámaras profesionales. Los estándares PAL (Europa, Asia, Australia, etc.) y SECAM (Francia, Rusia, partes de África, etc.) especifican 25 fps, mientras que NTSC (EE. UU., Canadá, Japón, etc.) especifica 29,97 fps. El cine es más lento con una velocidad de 24fps, lo que complica un poco el proceso de transferir una película de cine a video. Para lograr la ilusión de una imagen en movimiento, la velocidad mínima de carga de las imágenes es de unas quince imágenes por segundo.

Entrelazado

El vídeo puede ser entrelazado o progresivo. El entrelazado fue inventado como un método de lograr una buena calidad visual dentro de las limitaciones de un estrecho ancho de banda. Las líneas entrelazadas de cada imagen están numeradas consecutivamente y divididas en dos campos: el campo impares (campo superior), que consiste en las líneas de los números impares y el campo pares (casilla inferior), que consiste en las líneas de los números pares. NTSC, PAL y SECAM son formatos entrelazados. Las especificaciones abreviadas de la resolución de vídeo a menudo incluyen una i para indicar entrelazado. Por ejemplo, el formato de vídeo PAL es a menudo especificado como 576i50, donde 576 indica la línea vertical de resolución, i indica entrelazado, y el 50 indica 50 campos (la mitad de imágenes) por segundo.

En los sistemas de barrido progresivo, en cada período de refresco se actualizan todas las líneas de exploración. El resultado es una mayor percepción de la resolución y la falta de varios artefactos que pueden formar parte de una imagen estacionaria aparentemente en movimiento o que parpadea. Un procedimiento conocido como desentrelazado puede ser utilizado para transformar el flujo entrelazado, como el analógico, el de DVD, o satélite, para ser procesado por los dispositivos de barrido progresivo, como el que se establece en los televisores TFT, los proyectores y los paneles de plasma. El desentrelazado no puede, sin embargo, producir una calidad de vídeo equivalente al material de barrido progresivo real.

Resolución de vídeo

Comparación de resoluciones de televisión.

El tamaño de una imagen de vídeo se mide en píxeles para vídeo digital, o en líneas de barrido horizontal y vertical para vídeo analógico. En el dominio digital, (por ejemplo DVD) la televisión de definición estándar (SDTV) se especifica como 720/704/640 × 480i60 para NTSC y 768/720 × 576i50 para resolución PAL o SECAM. Sin embargo, en el dominio analógico, el número de líneas activas de barrido sigue siendo constante (486 NTSC/576 PAL), mientras que el número de líneas horizontal varía de acuerdo con la medición de la calidad de la señal: aproximadamente 320 píxeles por línea para calidad VCR, 400 píxeles para las emisiones de televisión, y 720 píxeles para DVD. Se conserva la relación de aspecto por falta de píxeles «cuadrados».

Los nuevos televisores de alta definición (HDTV) son capaces de resoluciones de hasta 1920 × 1080p60, es decir, 1920 píxeles por línea de barrido por 1080 líneas, a 60 fotogramas por segundo. La resolución de vídeo en 3D para vídeo se mide en voxels (elementos de volumen de imagen, que representan un valor en el espacio tridimensional). Por ejemplo, 512 × 512 × 512 voxels, de resolución, se utilizan ahora para vídeo 3D simple, que pueden ser mostrados incluso en algunas PDA.

Relación de aspecto

Comparación de la relación de aspecto entre cinematografía común y la televisión tradicional (verde).

La relación de aspecto se expresa por la anchura de la pantalla en relación a la altura. El formato estandar hasta el momento en que se comenzó con la estandalización de la televisión de Alta resolución tenía una relación de aspecto de 4/3. El adoptado es de 16/9. La compatibilidad entre ambas relaciones de aspecto se puede realizar de diferentes formas.

Una imagen de 4/3 que se vaya a ver en una pantalla de 16/9 puede presentarse de tres formas diferentes:

  • Con barras negra verticales a cada lado (letterbox). Manteniendo la relación de 4/3 pero perdiendo parte de la zona activa de la pantalla.
  • Agrandando la imagen hasta que ocupe toda la pantalla horizontalmente. Se pierde parte de la imagen por la parte superior e inferior de la misma.
  • Deformando la imagen para adaptarla la formato de la pantalla. Se usa toda la pantalla y se ve toda la imagen, pero con la geometríaa alterada (los círculos se ven elipses con el diámetro mayor orientado de derecha a izquierda).

Una imagen de 16/9 que se vaya a ver en una pantalla de 4/3, de forma similar, tiene tres formas de verse:

  • Con barras horizontales arriba y abajo de la imagen (letterbox). Se ve toda la imagen pero se pierde tamaño de pantalla (hay varios formatos de letterbox dependiendo de la parte visible de la imagen que se vea (cuanto más grande se haga más se recorta), se usan el 13/9 y el 14/9).
  • Agrandando la imagen hasta ocupar toda la pantalla verticalmente, perdiendose las partes laterales la imagen.
  • Deformando la imagen para adaptarla a la relación de aspecto de la pantalla. se ve toda la imagen en toda la pantalla, pero con la geometría alterada (los circulos se ven elipses con el diámetro mayor orientado de arriba a abajo).

Espacio de color y bits por píxel

Ejemplo de color U-V plano, valor de Y=0.5.

El nombre del modelo del color describe la representación de color de video. El sistema YIQ se utilizó en la televisión NTSC. Se corresponde estrechamente con el sistema YUV utilizado en la televisión NTSC y PAL; y con el sistema YDbDr utilizado por la televisión SECAM. El número de colores distintos que pueden ser representados por un pixel depende del número de bits por pixel (bpp). Una forma de reducir el número de bits por píxel en vídeo digital se puede realizar por submuestreo de croma (por ejemplo, 4:2:2, 4:1:1, 4:2:0).

Calidad de vídeo

La calidad de vídeo se puede medir con métricas formales como PSNR o subjetivas con calidad de vídeo usando la observación de expertos. La calidad de vídeo subjetiva de un sistema de procesamiento de vídeo puede ser evaluada como sigue:

  • Elige las secuencias de vídeo (el SRC) a usar para la realización del test.
  • Elige los ajustes del sistema a evaluar (el HRC).
  • Elige un método de prueba para presentar las secuencias de vídeo a los expertos y recopilar su valoración.
  • Invita a un número suficiente de expertos, preferiblemente un número no menor de 15.
  • Realiza las pruebas.
  • Calcula la media para cada HRC basándote en la valoración de los expertos.

Hay muchos métodos de calidad de vídeo subjetiva descritos en la recomendación BT.500. de la ITU-T. Uno de los métodos estandarizados es el Double Stimulus Impairment Scale (DSIS). En este método, cada experto ve una referencia intacta del vídeo seguida de una versión dañada del mismo video. El experto valora entonces el vídeo dañado utilizando una escala que va desde “los daños son imperceptibles” hasta “los daños son muy molestos”.

Método de compresión de vídeo (sólo digital)

Se usa una amplia variedad de métodos para comprimir secuencias de video. Los datos de vídeo contienen redundancia temporal, espacial y espectral, lo que hace que las secuencias de vídeo sin comprimir sean extremadamente ineficientes. En términos generales, se reduce la redundancia espacial registrando diferencias entre las partes de una misma imagen (frame); esta tarea es conocida como compresión intraframe y está estrechamente relacionada con la compresión de imágenes. Así mismo, la redundancia temporal puede ser reducida registrando diferencias entre imágenes (frames); esta tarea es conocida como compresión interframe e incluye la compensación de movimiento y otras técnicas. Los estándares mor satélite, y MPEG-4 usado para los sistemas de vídeo “caseros”.

Tasa de bits (sólo digital)

La tasa de bits es una medida de la tasa de información contenida en un flujo o secuencia de video. La unidad en la que se mide es bits por segundo (bit/s o bps) o también Megabits por segundo (Mbit/s o Mbps). Una mayor tasa de bits permite mejor calidad de video. Por ejemplo, el VideoCD, con una tasa de bits de cerca de 1Mbps, posee menos calidad que un DVD que tiene una tasa de alrededor de 20Mbps. La VBR (Variable Bit Rate – Tase de Bits Variable) es una estrategia para maximizar la calidad visual del vídeo y minimizar la tasa de bits. En las escenas con movimiento rápido, la tasa variable de bits usa más bits que los que usaría en escenas con movimiento lento pero de duración similar logrando una calidad visual consistente. En los casos de vídeo streaming en tiempo real y sin buffer, cuando el ancho de banda es fijo (por ejemplo en videoconferencia emitida por canales de ancho de banda constante) se debe usar CBR (Constant Bit Rate – Tasa de Bits Constante).

Estereoscópico

El vídeo estereoscópico requiere o bien dos canales (un canal derecho para el ojo derecho y un canal izquierdo para el izquierdo) o dos capas recubiertas codificadas por colores. Esta técnica de capa izquierda y derecha se usa ocasionalmente en redes de difusión o en recientes lanzamientos “anaglyph” de películas 3D en DVD. Unos cristales de plástico rojo/cyan proporcionan la forma de ver las imágenes discretamente para formar una vista estereoscópica del contenido. Los nuevos discos HD DVD y blu-ray mejorarán en gran medida el efecto 3D en los programas estéreo codificados por colores. Los primeros reproductores HD disponibles comercialmente se esperaba que debutaran en el NAB Show de abril del 2006 en Las Vegas.

Formatos de video

Estándares de dispositivos de video Estándares de conectores de video
  • Nuevos digitales:
    • ATSC (EE. UU., Canadá, México, etc.)
    • DVB-T (Europa, Digital Video Broadcasting)
    • ISDB-T (Japón, Brasil, Chile, Perú, etc., Servicios Digitales Integrados de Broadcast)
  • Antiguos analógicos:
    • MAC (Europa - Obsoleta)
    • MUSE (Japón-analog HDTV)
    • NTSC (EE. UU., Canadá, Japón, etc.)
    • PAL (Europa, Asia, Australia, etc.)
    • SECAM (Francia, la antigua URSS y África central.)

Referencias

Véase también