"Coulisses" d'une image vidéo

Bonsoir à tous,

c’est rigolo, enfin j’ai pas vraiment tout compris, problème d’âge probablement :blush:
J’attends avec impatience le prochain épisode pour savoir ce qu’il y a dans le paquet cadeau avec le joli ruban rouge :smiley:

Patrick

Chronogramme des synchros:
Chrono_syncs.png

VBI en Pal:
vbi_pal.jpg

Pour la chaine PRO 7 SD, le VBI en PAL sortant sur la CVBS du tuner sat est occupé totalement par le TXT. Si on a le mode SECAM sur la sortie CVBS, ce sera pareil: PAS de " BOUTEILLES " vertes.

Je me pose une question concernant les espaces colorimétriques différenciés (YCbCr et Cie…).

Dans une grande majorité de cas, nous confondons entre eux ces systèmes, où l’on prend le YUV pour du YCbCr ou du YPbPr, quand ce n’est pas du YIQ ou du YDbDr.

Au final, quelles sont les différences entre ces systèmes, et si oui, de quelle nature sont-elles :question: :question: :question:

Bonjour,
C’est essentiellement une question de coefficients.

U est le signal « différence de couleur » B-Y affecté d’un coefficient,
V est le signal R-Y affecté d’un autre coefficient
fr.wikipedia.org/wiki/YUV

Pour Y Cb Cr, c’est une adaptation de YUV pour optimiser la numérisation de ces signaux:
fr.wikipedia.org/wiki/YCbCr

Après quelques recherches, je suis tombé sur ceci, qui illustre bien ces différences:
Y_systems.jpg
Les codages couleurs que sont le Pal/Secam/Ntsc exploitent respectivement le YUV, le YDbDr, et le YIQ.
De quoi se mélanger les pinceaux !

durant l’été dernier j’ai eu à faire avec ces histoires d’espace couleur YUV pour ajouter une émulation pal/secam à cryptimage, le résumé de marceljack est bon,

tu as juste à retenir la signification des 3 lettres ( composantes couleurs U et V appelées chroma, et Y l’information liée à la luminance ) et qu’il y a des coefficients derrière pour pondérer le tout,

et que c’est un subterfuge inventé du temps de la TV analogique pour faciliter la transmission hertzienne et permettre la compatibilité avec les TV noir et blanc ( qui n’auront qu’à utiliser l’information de luminance Y ), le concept a ensuite été repris pour la compression vidéo numérique ( ainsi que la compression photo numérique type jpeg ),

pour les coefficients il y a 2 normes de matrices en vidéo numérique : bt601 ( vidéos simple définition ) et bt709 ( vidéo haute définition ) :

en.wikipedia.org/wiki/Rec._601
en.wikipedia.org/wiki/Rec._709

et le très récent bt2020 pour l’ultra-haute définition :
en.wikipedia.org/wiki/Rec._2020
itu.int/dms_pubrec/itu-r/re … !PDF-E.pdf

UV ou D’b D’r, c’est la même chose à un coefficient près.
Pour I Q c’est différent car les signaux I (In phase) et Q (Quadrature) sont deux combinaisons linéaires de R-Y et B-Y qui ont été choisies de façon à ce que l’une des deux (Q) demande moins de bande passante que l’autre (de mémoire 600 kHz pour Q contre 1,3 MHz pour I).
On voit d’ailleurs sur ton image qu’il y a très peu d’information dans le signal Q.

Il faut voir qu’à l’époque où le NTSC a été défini (1952 !) les Américains avaient fait beaucoup de recherches sur la perception des couleurs pour réduire le plus possible la bande passante nécessaire aux signaux de chroma.

I et Q ont sur l’axe un déphasage de 33° par rapport à R-Y et B-Y

C’est bizarre en lisant une VHS NTSC en mode NTSC 4,43, sur un TV PAL (non NTSC) j’avais de la couleur qui clignotait une ligne sur deux.

Il existe sous Gimp des options de décomposition colorimétrique en YCbCr et YUV.
Mais existe-t-il le YIQ ?

il faut installer le plugin gmic dans gimp :

gmic.eu/gimp.shtml
discuss.pixls.us/t/feature-requ … yers/487/8

Comment avoir le modèle colorimétrique du secam YDbDr ?
La programmation de greffons Gimp me semble ardue.

Bonjour,

si tu connais les valeurs RVB de chaque pixel de ton image alors il est facile d’obtenir les 3 valeurs Y’ ( la luminance ), Db ( différence pondérée entre la valeur du bleu et la luminance ) et Dr ( différence pondérée entre la valeur du rouge et la luminance ), qui s’obtiennent via ces équations :

Y’ = 0.299 R + 0.587 G + 0.114 B
Db = + 1.505 (B - Y’)
= - 0.450 R - 0.883 G + 1.333 B
Dr = - 1.902 (R - Y’)
= - 1.333 R + 1.116 G + 0.217 B

fr.wikipedia.org/wiki/YDbDr
en.wikipedia.org/wiki/YDbDr

Db et Dr représentent donc la chroma,

dans ton script tu parcours chaque pixel de ton image pour récupérer la valeur R, G et B et tu appliques la transformation via ces équations,

en python il est facile de modifier les pixels d’une image, en important le module pillow de python, on parcourt les pixels de l’image via une boucle for, on fait les modifs et on sauvegarde l’image sous un nom différent, il doit alors être possible de créer 3 images representant respectivement la couche Y’, Db et Dr si c’est ça que tu veux faire

pillow.readthedocs.io

Idéalement, il faudrait un greffon décomposant l’image en YDbDr, mais la programmation n’est pas encore dans mes cordes. :unamused:

j’ai pour ma part essayé d’utiliser un mini tv n&b pour voir les bords

en vertical: facile : il y a un potar ; l’image se tasse
en horizontal : on ajoute une self en série avec la bobine de déflection H

las, la ci spécialisé ka2915 et semble forcer l’effacement …

J’ai réussi à attraper le top trame de ma carte graphique, sous différentes formes:
top0.jpg
top1.jpg
top2.jpg
top3.jpg

Suite
top4.jpg
top5.jpg
top6.jpg
top7.jpg

Sur tous les TV à circuits intégrés relativement récents (à partir du début des années 80), l’effacement est assuré par une impulsion à 3 niveaux dite « sandcastle ».
-niveau bas (environ 2,5V): effacement trame
-niveau moyen (environ 4,5V): effacement ligne
-niveau haut (7,5 à 12V): clamp luma et sélection de salve chroma

Trop fort :mrgreen: :mrgreen: :mrgreen:
Le logo C+ sur un oscillo, sans trucage ! :exclamation:
Bdt: 10 µS @ 50 mV/div
cplus_oscillo.jpg