top of page

LINAJE DEL COLOR: MUESTREO DE SEÑAL Y ORIGEN DEL 4:2:2 DIGITAL

Nov 20, 2024

5 min read

4

113

0



¡Hola, coloristas!


Hoy quiero compartir con vosotros algo que, sin duda, os resultará interesante. En este primer artículo os presento Linaje del color, la primera sección de la web.

En ella, exploraremos los orígenes de lo que hoy conocemos como etalonaje digital, desglosando y estudiando cómo se trabajaba con el fílmico y la señal analógica no hace tanto tiempo.


El objetivo de esta sección es descubrir el camino que nos ha llevado hasta las prácticas actuales en el tratamiento del color y todo lo relacionado a ello. Comprender de dónde venimos no solo enriquece nuestro oficio, sino que también nos ayuda a dar sentido a las decisiones que tomamos en el proceso y a arrojar luz sobre las incógnitas que encontramos en nuestro apasionante trabajo.


 

Como bien sabemos, la codificación digital en formatos como 4:2:2 o 4:4:4 es esencial para entender cómo se almacena y transmite la información visual en el video moderno. Pero, ¿de dónde surge esta nomenclatura? Hoy en día, la utilizamos para describir el nivel de compresión de cada canal Y, Cb y Cr (luminancia, crominancia azul y crominancia roja), es decir, la cantidad de datos (ceros y unos) que componen cada uno.

Esta nomenclatura no es casual y responde a una lógica bien definida. Para comprender su origen, debemos remontarnos a los inicios de la televisión en Estados Unidos y analizar la señal que se transmitía en aquel entonces. Se trataba de una sola señal NTSC analógica en blanco y negro, que únicamente representaba diferencias de brillo a lo largo del tiempo: a mayor voltaje, más blanco, a menor voltaje, más negro. Así de sencillo.


Todo esto cambió con la llegada del color a las televisiones, ya que ahora era necesario transportar tres señales: rojo, verde y azul. Sin embargo, se quería que el sistema fuera retrocompatible, es decir, que aquellos con televisores antiguos en blanco y negro pudieran ver la misma retransmisión que quienes tuvieran un televisor en color. El desafío era lograr esto manteniendo una sola señal. Con esta, la misma transmisión debía ser visible tanto en un televisor a color como en uno en blanco y negro.


En este punto encontramos el primer dilema: Tenemos tres señales (R, G y B) que transportar, tres señales a la que se le añade una cuarta ya que a parte de los tres colores se debía mantener la señal de luminancia antigua.


El primer acercamiento a la solución fue la invención de la Señal en componentes:





Esta señal representa el primer recorte de señal y durante la época analógica tanto en NTSC como en PAL, las cámaras capturaban una señal R-Y, otra B-Y y otra Y. EL problema está en que esto todavía no se puede emitir ya que todo el sistema en Estados Unidos estaba montado para una única señal.

Los consumidores solo tenían en sus casas una toma para enchufar el cable a sus televisores y ahí solo viaja una señal, ni tres ni cuatro. Así que se debía seguir haciendo cortes hasta quedarnos con una sola.


Así surgió la señal en S - Video



Este recorte unificaba las señales R-Y y B-Y en una sola señal a la que llamaron "crominancia", acercándonos mucho más al objetivo a conseguir.


El paso final consistió en establecer la señal de luminancia como la principal y la señal de crominancia "subcortada" sobre esta. De este modo, se creó una señal combinada en la que, aunque se transmitían dos señales, estas viajaban unidas como una sola.


Esta señal fue denominada CVBS o Video compuesto



Las televisiones modernas podían interpretar ambas señales, mientras que las televisiones antiguas solo reconocían la de luminancia, cumpliendo así el objetivo de garantizar la retrocompatibilidad.


 

Una vez entendido el concepto de señal analógica, podemos pasar a hablar de su digitalización. Pero, ¿qué es la digitalización? La respuesta es sencilla: es el proceso mediante el cual una señal analógica se transforma en información digital, es decir, en ceros y unos.


La digitalización implica analizar la señal analógica original y tomar un número determinado de muestras, las cuales conformarán la señal digital. Este proceso se denomina muestreo.


Hoy en día, este procedimiento está presente en actividades tan cotidianas como grabar un video con nuestro smartphone, tomar una fotografía o incluso registrar una nota de voz. Es importante entender que la realidad que capturamos no se convierte automáticamente en ceros y unos. En su lugar, dentro de nuestro dispositivo, primero se genera una señal eléctrica analógica que, mediante el proceso de muestreo, se transforma en datos digitales. En otras palabras, la base siempre es una señal analógica.


En este punto, podemos definir el muestreo como el número de muestras tomadas de la señal analógica original para que la señal digital resultante sea coherente y fiel a ella.



Dado que la información de una señal cambia en el tiempo, cuanto más espaciadas estén estas muestras, es decir, cuantas menos muestras tomemos por segundo, mayor será la diferencia entre una muestra y la siguiente y menos fiel será la señal digital obtenida.


Entonces, ¿Cómo determinamos el número óptimo de muestras que debemos tomar? Esto lo resuelve el conocido como teorema de Nyquist, que establece que existe un punto de equilibrio a partir del cual tomar más muestras no tiene sentido, ya que el ojo humano no percibirá la diferencia.


Llegados a este punto, conocemos las señales disponibles en este momento de la historia: RGBY, Componentes, S-Video y Vídeo compuesto. ¿Cuál de ellas sería la mejor opción para digitalizar? Sin duda, RGBY, ya que es la que más información contiene por canal. Sin embargo, en esta etapa temprana de la digitalización, no existían los medios necesarios para convertir esta señal completa, por lo que se optó por trabajar con la señal Componentes.



 


Una vez estandarizada la señal a digitalizar, los ingenieros comenzaron a hacer pruebas utilizando el teorema de Nyquist, llegando a la conclusión de que La señal de luminancia debía ser muestreada a 13.5 Mhz para que fuese fiel a la analógica (13500 muestras por segundo) y aunque lo ideal sería codificar las señales R-Y y B-Y (Color) a la misma frecuencia de muestreo, la realidad es que pesaría demasiado como para moverlo a tiempo real con los medios de los que se disponía entonces.


Así pues los ingenieros decidieron trabajar con la mitad de muestras para los canales de color debido a que el ojo humano tiene más bastones que conos, es decir, que es más sensible a los cambios de luz que de color.


Podemos empezar a sospechar de dónde viene esta nomenclatura, ¿Verdad?. Efectivamente, el concepto 4:2:2 no era más que una forma de indicar resumidamente que los canales de color estaban codificados a la mitad de frecuencia de muestreo que el de luminancia. Esta esquematización no solo economizaba la forma de referirnos a ello, sino que también facilitaba la comprensión del concepto para un público no especializado.



 

Con esto concluimos este recorrido por los orígenes del 4:2:2 y la evolución de la codificación de video. Este viaje nos ha permitido comprender cómo las limitaciones tecnológicas y las necesidades prácticas dieron forma a conceptos que hoy damos por sentado en nuestro día a día.


Conocer esta historia no solo nos ayuda a valorar las herramientas que utilizamos, sino que también nos ofrece una perspectiva más profunda para entender las decisiones que tomamos al trabajar con el color y todo lo que engloba. Cada estándar, cada proceso, tiene un trasfondo técnico y humano que enriquece nuestro oficio.


Gracias por acompañarme en este artículo. Espero que te haya resultado interesante y útil. Nos vemos en el próximo capítulo de Linaje del color.








Nov 20, 2024

5 min read

4

113

0

Comments

Share Your ThoughtsBe the first to write a comment.

© 2024 by David San José. All rights reserved.

bottom of page