module inscription newsletter haut de page forum mobile

Ateliers et Formations

question d'echantillonnage

Discussion in 'Archives moteurs' started by skip le cariboo, Sep 29, 2006.

Tags:
  1. skip le cariboo

    Appréciations:
    +0 / 0 / -0

    Trophy Points:
    1,000
    Likes Received:
    0
    Messages:
    80
    Salut,

    Je voulais savoir si qqun pouvait m'eclairer sur l'echantillonage de la chrominance (et luminance?) que l'on voit souvent comme 4:2:2 ou 4:2:1 ?
    D'apres ce que j'ai compris, c'est une histoire de conversion RGB->YUV où on prend un certain nombre d'echantillons de R,G,et B pour en sortir les Y,U, et V ? 1 echantillon par pixel ? Combien de pixel ? nombre de bits par couleur ?

    Voila autant de questions auxquelles je n'ai pas su trouver reponse malgré recherche sur l'internet...Si vous en savez plus que moi, merci...
     
  2. skip le cariboo

    Appréciations:
    +0 / 0 / -0

    Trophy Points:
    1,000
    Likes Received:
    0
    Messages:
    80
    ok je viens de trouver un lien tout a fait interessant sur le sujet ;
    Transformation des espaces de couleurs
    mais alors si on veut du 4:4:4 YUV, on est obligé de sacrifier 3x4 pixels du capteur pour obtenir un pixel YUV ?
     
  3. Vidéo98

    Appréciations:
    +1 / 2 / -0

    Trophy Points:
    2,630
    Likes Received:
    70
    Messages:
    8,161
    Si on veut du vrai 4.4.4, le capteur doit comporter au moins trois photosites (subpixels) par pixel. Un pixel est composé de trois informations, R, V, B. Il est d'usage courant d'appeler les photosites "pixels" pour désigner les cellules sensibles d'un capteur. Théoriquement, pour une image en 720x576, il faudrait au moins 1 244 160 photosites pour faire les 414 720 pixels de l'image en 4.4.4. ;)
     
  4. Bérenger Brillante

    Appréciations:
    +0 / 4 / -0

    Trophy Points:
    2,330
    Likes Received:
    22
    Messages:
    734
    entre parantheses c'est pour ca que certains moniteurs se vendent comme des 1440 x 234 pixels alors qu'en fait ce ne sont que des 480 x 234... (meme pas assez pour faire du dv...)

    Ne pas se faire avoir...
     
  5. mcprod

    Appréciations:
    +0 / 0 / -0

    Trophy Points:
    1,000
    Likes Received:
    0
    Messages:
    868
    Tu parles des petits moniteurs LCD genre 7" ?

    A+

    mcprod
     
  6. Vidéo98

    Appréciations:
    +1 / 2 / -0

    Trophy Points:
    2,630
    Likes Received:
    70
    Messages:
    8,161
    C'est exact. Certains commerciaux jouent trop avec des mots qu'ils déforment sciemment ou par ignorance. :(
     
  7. skip le cariboo

    Appréciations:
    +0 / 0 / -0

    Trophy Points:
    1,000
    Likes Received:
    0
    Messages:
    80
    oui, j'ai déja vu ce genre d'arnaque...notament sur les 7"...
    Cependant, j'ai encore quelque questions...
    Si je veux mes 720x576 pixels en 4:4:4, dont chaque pixels possedes 3 canaux couleurs (RGB), alors il faudrait en fait un capteur de 4 fois plus de pixels afin d'avoir 4 echantillons par canal...soit 1 658 880 pixels. Ca tient la route ? est-ce que ca veut dire que pour toute caméra, le capteur doit etre au moins 4 fois plus grand que le format d'enregistrement ?
    Aute question, au niveau de la diffusion, comment cela se passe pour savoir quoi afficher pour un pixel, a partir des 4 echantillons que l'on a ? Si le lecteur en fait une moyenne, alors pourquoi dit on que faire cette moyenne a l'enregistrement (cad 4:2:2, etc) est une perte de qualité ?
    Encore une autre question, pourquoi enregistre t'on en YUV alors que les capteurs donne du RGB et que les pixels d'un ecran necessite aussi du RGB ?

    merci pour vos lanternesz ;-)
     
  8. Vidéo98

    Appréciations:
    +1 / 2 / -0

    Trophy Points:
    2,630
    Likes Received:
    70
    Messages:
    8,161
    Au départ du numérique il y a un nombre magique, 3,375 qui est un paramètre commun aux standards mondiaux. Ce nombre correspond à 3,375 MHz qui est la fréquence d'échantillonnage de base. Ça veut dire qu'en respect de cette norme, un signal traité en 4 aura une horloge d'échantillonnage à 13,5 MHz pour le canal considéré. Tous les systèmes ne respectent pas cette norme recommandée par le CCIR/UIT.
    Un signal en 4.4.4 signifie que la fréquence d'échantillonnage R.V.B ou Y.U.V sera de 13,5 MHz/13,5 MHz/13,5 MHz, donc trois canaux de qualité égale.
    Le plus courant est de considérer l'usage du 4.2.2 pour diminuer la bande passante en Y.U.V (13,5 MHz/6,75 MHz/6,75 MHz)) car la définition chroma n'a pas besoin d'être égale à celle de la luminance.
    Le 4.2.0 par contre signifie Y.U et V.Alternat vertical, soit 13,5 MHz/ U et V chacun à 6,75 MHz/ lignes U et V séquentielles alternées.
    En HD on peut avoir 22.11.11 ce qui donne 74,25 MHz/37,125 MHz/37,125 MHz, mais par détournement du sens des mots, on parle le plus souvent de 4.2.2 dans cette même situation.

    Non, le capteur, par couleur, doit au moins avoir la même définition de matrice que l'enregistrement pour donner la meilleure qualité permise par le gabarit. Pour des raisons pratiques de traitement d'images, si le nombre de photosites du capteur excède de beaucoup le format d'enregistrement, le rendu des détails sera amélioré. Mais on a vu des caméscopes donner des images considérées comme très bonnes avec des capteurs dont les matrices sont inférieures au format d'enregistrement (assez courant en HDV).

    Pour chaque pixel, on doit avoir trois informations, R, V et B avec une profondeur d'analyse d'au moins 8 bits par composante, plus dans certaines caméras. Le RVB 4.4.4 nécessaire à l'affichage final sera reconstitué à partir du signal de base en 4.2.2, 4.1.1 ou 4.2.0 ; les informations manquantes seront interpolées à partir des infos réelles disponibles. L'information chroma sera donc moins précise que l'information luminance, ce qui est considéré comme acceptable pour un usage grand public (vidéo et télédiffusion). En production, en particulier pour transférer les images électroniques sur pellicule, le 4.4.4 est préférable, mais la qualité a un prix.

    Le YUV a de gros avantages de compatibilité car U et V peuvent être échantillonnés à des fréquences inférieures à Y sans altérer sensiblement la résolution de l'image. On pourrait faire du RVB en 4.2.2, mais la manipulation des signaux serait plus complexe.
    Ce serait encore plus flagrant en 4.1.1 très utilisé par les américains.
    Du RVB en 4.4.4 ou du YUV en 4.4.4 donnent les mêmes résultats. Le passage de l'un à l'autre n'est qu'une manipulation mathématique. :)
     
  9. skip le cariboo

    Appréciations:
    +0 / 0 / -0

    Trophy Points:
    1,000
    Likes Received:
    0
    Messages:
    80
    aaaah...je sais pas pourquoi je m'etais mis en tete que les 4 echantillons etaient pris au meme instant t...
    Par contre ce sont tous les pixels qui sont echantillonnés en meme temps a 3,375Mhz non ? sinon on aurait jamais le temps de constitué au moins 25 trames par seconde...
    Donc ca c'est en sortie de capteur CCD/CMOS si j'ai bien compris, puis un DSP va en faire un signal "lisible". J'imagine que le DSP ne peut pas gerer les 4*3375000 par pixel par seconde qui sorte du capteur...C'est donc ré-échantillonné au niveau du dsp ?
    Merci Vidéo98 pour ton aide, tu a l'air plutot calé. Aussi, si tu as une url ou un bouquin a conseiller pour tout ce qu'y est traitement du signal dans une caméra numerique, je serais fortement interessé....
     
  10. Vidéo98

    Appréciations:
    +1 / 2 / -0

    Trophy Points:
    2,630
    Likes Received:
    70
    Messages:
    8,161
    Pourquoi pas? C'est la puissance du DSP qui va déterminer la limite des conversions, tous les DSP ne sont pas aussi performants les uns que les autres. Ce n'est toutefois pas du choix de l'utilisateur final, mais du concepteur du produit qui va choisir des circuits adaptés aux performances recherchées.

    Pour ce qui est des informations de base, commence par consulter Wikipedia et fais bon usage de Google et de ses confrères. Maîtrise de la langue anglaise recommandée. :)
     
  11. Hugues Lemoîne

    Appréciations:
    +0 / 0 / -0

    Trophy Points:
    1,900
    Likes Received:
    1
    Messages:
    3,004
  12. skip le cariboo

    Appréciations:
    +0 / 0 / -0

    Trophy Points:
    1,000
    Likes Received:
    0
    Messages:
    80
    Merciiiii a vous !
    Mais je cherche en fait de la doc sur la chaine de traitement du signal vidéo (vulgarisée bien sur) d'une caméra numérique, du capteur a la cassette DV ou de la prise firewire...Une sorte de datasheet complet d'une caméra ;-) car étant etudiant en elec et systeme embarqués, j'aimerai m'orienter vers ce genre de projets... J'avais trouver un topic sur le repaire avec des schémas ou apparaissait la chaine capteur -> dsp -> encodage mpeg -> cassette -> decodeur -> sortie firewire/component mais je ne le retrouve plus.. C'est en gros ce que je recherche mais en + poussé. si je demande ca c'est parceque je me rend compte que j'ai decouvert la partie émergée de l'iceberg, et que j'imagine qu'il y a des sources plus "conventionnelles" (et moins emmerdantes pour les gens qui repondent) pour avoir un aprecu de la partie immergée ^^
     
  13. barraalice

    Appréciations:
    +0 / 4 / -0

    Trophy Points:
    4,830
    Likes Received:
    71
    Messages:
    1,416
    A titre anecdotique, et si je me souviens bien, le codage YUV a été choisi a l'époque non pas pour sa prédisposition à réduire de manière optimisée la bande passante d'un signal, mais par soucis de compatibilité avec le parc de dispositifs de diffusion du moment : à savoir les télévisions en noir et blanc.
    La séparation du signal RVB en un signal de luminance et deux de chrominance permettait la diffusion, sans artéfacts, du dit signal sur les postes couleurs et les postes noir et blanc, ces derniers ignorant simplement la fréquence porteuse des informations de couleur.
     
  14. skip le cariboo

    Appréciations:
    +0 / 0 / -0

    Trophy Points:
    1,000
    Likes Received:
    0
    Messages:
    80
  15. Vidéo98

    Appréciations:
    +1 / 2 / -0

    Trophy Points:
    2,630
    Likes Received:
    70
    Messages:
    8,161
    barraalice, ce que tu dis est tout à fait exact car, selon le principe de Georges Valensi, il était nécessaire d'assurer la compatibilité entre les téléviseurs monochromes et les téléviseurs en couleurs sur un même signal diffusé.

    Les américains ont commencé la diffusion en 1950 par le procédé de CBS avec la télévision couleur en 24 i/s RVB et 405 lignes, adoptée par le FCC, avant que le Ntsc ne l'emporte par K.O. en 1953, le FCC retournant fort judicieusement sa veste. Le signal télédiffusé n'était pas compatible avec le parc de télés n&b déjà en place, ce qui imposait la coûteuse diffusion en multicast et la commercialisation de téléviseurs multistandards (tiens, ça rappelle la France). Seul compromis qui a été fort bien digéré par les vieux téléviseurs, le signal EIA qui était jusqu'alors en 30 i/s est passé pour le Ntsc en 29,97 i/s.

    Les vecteurs U et V du Pal et I et Q du Ntsc, associés à Y ont fait les beaux jours de la télévision couleur compatible n&b. Par simplification on a détourné U et V comme abréviation de R-Y et B-Y, sans que le Pal, le Sécam et le Ntsc ne soient plus concernés. Y étant l'information de luminance et correspondant au signal noir et blanc nécessaire pour un téléviseur noir et blanc, la compatibilité devenait naturelle.
    L'usage du YUV et du Y (R-Y) (B-Y) a montré quelques avantages sur le RVB en exploitation et diffusion. :)
     
Loading...

Dernières occasions

 

Share This Page