module inscription newsletter haut de page forum mobile

Rejeter la notice

formations etalonnage sur davinci resolve

Nos Formations Etalonnage avec Forest reviennent en octobre !
Adoptez une réelle méthodologie d'étalonnage professionnelle et atteignez vos objectifs créatifs avec nos formations intensives sur 3 jours
Toutes les infos
Rejeter la notice

Formation Lumière - Pratique Intensive du 14 au 16 octobre à Paris
Formez-vous avec cet atelier de pratique intensive dans des conditions exceptionnelles ! Formation finançable.
Toutes les infos

Ateliers et Formations

Cogitations : Combien faut-il en acheter, des pixels

Discussion dans 'Discussions générales sur la vidéo' créé par guy-jacques, 10 Mars 2004.

Tags:
  1. guy-jacques

    So

    Points Repaire:
    9 200
    Recos reçues:
    156
    Messages:
    9 236
    Appréciations:
    +83 / 289 / -3
    720 x 576 ça suffit ou bien "plus il y a de pixels sur le capteur, meilleure est la vidéo" ?
    Quelques discussions récentes font revenir sur cette âpre question.

    La "suffisance de 414 720 pixels", bien qu'admise, est difficile à soutenir pour les capteurs MONOCCD.
    Sur les deux modes de filtrage possibles, on y trouve des pixels filtrés "vert" : comment peut on justifier qu'un seul pixel filtré vert fournisse, à lui seul, un pixel d'affichage Rouge-Vert-Bleu ?

    Peut-on penser qu'une "cuisine" va créer plus de "pointsRGB" par ligne que de pixels au capteur : un peu… peut-être, beaucoup… Hey Shannon !!! écrit vsb dans une autre discussion.
    Peut-on inversement dire que la "cible" utilisée sur le capteur MONOCCD peut utiliser plus de pixels , par exemple 1600 sur 1200 pixels que les traitements informatiques ultérieurs et internes vont ramener à 720 x 576… POURQUOI PAS?

    Pourquoi pas lorsque ce MONOCCD est filtré "Bayer" (Rouge, Vert, Vert, Bleu) : chaque quadruplet de pixels CCD pourrait être "travaillé" pour fournir un pixel(Y UV) : l'information donnée sur le CanonMxv 3i (Stab. optique) déclare 1 770 000 pixels efficaces en vidéo (576 x 768 x 4 = 1 769 472, pourquoi pas ???

    MAIS, PAS si les pixels des capteurs MONOCCD, filtrés "Complémentaires" (Cyan, Jaune, Magenta, Vert) sont "relevés" trame après trame et sur chaque trame, ligne après ligne selon le "tempo" du système (EU ou US) et, pour chaque ligne sur 2 rangées superposées de pixels, comme l'indique la documentation technique Sony (ICX089AK) d'où je "tire" les illustrations ci-dessous.
    [​IMG]

    Comme une rangée de pixels d'une ligne d'une trame est relue - 1/50s (ou 1/60s) plus tard - dans une ligne "analogue" de la trame suivante, on peut considérer que le "facteur de Kell" est appliqué.

    Et, important pour la question, il n'est pas relevé plus de lignes que chaque trame en comporte : 288, chacune demandant deux rangs de pixels, en y ajoutant le décalage de 1, il faut : 2 x 288 + 1 = 577 rangées de pixels.

    Des tests (de C.V. & M.) montrent que la "définition en points par ligne" des camescopes ainsi équipés progresse (quelque peu) avec la dotation en pixels de leurs capteurs.
    La description Sony établit que deux pixels successifs sont employés -sur chacune des 2 rangées - pour avoir un relevé brut de la composante Y (Luminance) et d'une des deux composantes de Chrominance (Dr sur une ligne, Db sur l'autre).
    [​IMG]
    -Ici, Y = R + 1,5 G + B Dr = R - 2G (et Db = B - 2G) … Un traitement sera nécessaire pour donner les valeurs Y, U, V conformes-

    J'ai pensé à une première "arithmétique":
    en faisant prélever les deux composantes suivantes sur les colonnes c3, c4 de la même ligne, et ainsi de suite… Ça implique deux fois plus de colonnes de pixels que… la définition initiale que le concepteur choisit de donner à cette capture.
    J'ai cru trouver un indice dans la notice du Sony TRV-PC100E qui déclare (env) 690 000 pixels "effectifs" en vidéo. 690 000 / (2x577) donne à très peu près 600 soit, d'après cette arithmétique, "en tête" : 600 pts/ligne, … plausible ! Ça demande une "cible" de 692400 pixels : 1200 par 577. Pour conserver le rapport 4 x 3, il faudrait que ces pixels soient environ 1,6 fois plus "hauts" que "larges" - et ça serait différent en "ntsc" - .
    Cette première "arithmétique" devient inacceptable. …Il me faut corriger les discussions où je l'ai avancée…


    Une seconde arithmétique vient à l'esprit:
    les deux premières composantes étant prélevées sur les colonnes c1 et c2, on fait relever les deux suivantes sur c2 et c3 de la même ligne et ainsi de suite.
    [​IMG]
    le relevé, une fois sur deux, d'une alternance négative de la composante Chrominance est facilement "redressable"
    Ne progresser que d'une colonne de pixelsCCD pour passer du relevé d'un couple de composantes au couple suivant ne nécessite qu'une colonne de plus que le nombre de relevés.
    Une matrice de 769 par 577, garde (pratiquement) la proportion 4 x 3.
    Elle fournit deux trames entrelacées 768 x 288 avec des pixels physiques "carrés".
    …_Jusqu'à maintenant j'ai pas trouvé mieux!

    Pour un capteur monoCCD filtré "complémentaire" en mode entrelacé 769 x 577 = 443 713 pixels sont suffisants pour relever une image.
    Une telle cible serait "bien" suffisante pour finir à 720 échantillons de luminance et 360 de la même composante de chrominance par ligne comme le veut le DV pour système "pal".
    Il faut y ajouter de quoi faire flotter le stabilisateur numérique (cas général maintenant) et les pixels "aveugles" du cadre de référence: le minimum actuel pour les camescopes monoCCD se situe à 540kp…
    Si c'est cette méthode qui est utilisée, l'augmentation de définition des camescopes à capteurs analogues mieux dotés… n'est pas due au capteur lui même mais aux autres éléments en amont et en aval …

    Les camescopes DV pour système "ntsc" ne relèvent que 480 lignes en format 4 x 3 : 481 rangs par 641 colonnes demandent 308 321 pixels. Dans ce cas, échantillonner à 720 le "courant analogique Y" peut sembler médiocrement satisfaisant, et le fait que le "courant Chrominance" d'une ligne soit d'une seule composante alors que l'échantillonnage DV"ntsc" veut 180 "Db" et 180"Dr", n'est pas trop satisfaisant non plus.

    Nulle part je n'ai trouvé de description complète de la manière dont sont relevées ces composantes, je n'ai donné là que des éléments de discussion en attendant de lire la certitude… quelque part .
     
  2. Thor27

    Thor27 Guest

    Appréciations:
    +0 / 0 / -0
    Bonsoir,
    j'ai juste envie de dire, la cuisine et l'électronique ont un seul point commun: la qualité du produit de base sera le reflet du résultat obtenu
    Les circuits électroniques sont si peu couteux par rapport à la réalisation des éléments de pointe type capteur que le commercial arrive à faire croire qu'un capteur nul avec une électronique de pointe marche mieux qu'un capteur de bonne qualité avec une électronique courante, mais pourquoi ne pas parler d'un capteur de bonne qualité avec une électronique de pointe. Il est sur que le premier cas laisse des marges plus substancielles:lol: :lol: :lol:

    Thor27
     
  3. Bob Art

    Bob Art Supermodérateur
    Modérateur

    Points Repaire:
    3 720
    Recos reçues:
    5
    Messages:
    14 529
    Appréciations:
    +0 / 3 / -0
    Bravo guy-jacques. Tu relèves avec panache un défi que tu t'es imposé et dans lequel les ingégnieurs et techniciens qui savent sont invités à nous faire part de leur analyse.

    Pour tout dire, j'aimerais bien savoir aussi et bénéficier d'explications techniques accessibles. Ceux que le sujet ardu n'intéresse pas ne sont pas obligés de lire.

    Bob
     
  4. Thor27

    Thor27 Guest

    Appréciations:
    +0 / 0 / -0
    Bonsoir,bob

    Pense-tu que je ne connaisse pas le fonctionnement des filtres d'indexation au vue de ma réponse, j'ai senti une pointe d'ironie mais je suis sur le forum pour me détendre alors!:love:
    J'apprécie le forum pour son coté image, montage que je ne connais pas et où j'ai déja trouvé de nombreuses infos mais coté technique j'ai déja ma dose et je trouverais de mauvais gout d'en faire un bêtisier

    Amicalement

    Thor27
     
  5. Bob Art

    Bob Art Supermodérateur
    Modérateur

    Points Repaire:
    3 720
    Recos reçues:
    5
    Messages:
    14 529
    Appréciations:
    +0 / 3 / -0
    Ouh-là ! Je ne t'avais pas vu venir. Non, non, ma réponse ne s'adressait pas du tout à toi. Elle est très générale et je ne vois pas comment j'aurais pu te viser, même inconsciemment.

    Ce que j'apprécie beaucoup dans la démarche de guy-jacques, c'est qu'il n'hésite pas à tatonner pour avancer. Ici, nous sommes dans un forum DV, plutôt amateurs passionnés. Un peu de technique, ça aide aussi un peu à y voir clair, pour ceux qui cherchent à aller plus loin. Le renfort de ceux qui maîtrisent bne fera pas de mal.

    guy-jacques n'a pas hésité à se lancer. Il fallait oser le faire.

    Ceux qui ne sont pas intéressés n'accrocheront pas, c'est tout. Chacun ses dadas, pafois pour un moment seulement.

    Bob
     
  6. Thor27

    Thor27 Guest

    Appréciations:
    +0 / 0 / -0
    Merci pour la courtoisie de ta réponse, le coté ne sont pas obligés de lire m'avait paru choquant dans le sens ou j'étais le seul à avoir répondu
    Pour moi le dv est plus qu'un dada c'est mon métier et les filtres d'indexation me ramène plutôt vingt ans en arrière au début des mono-ccd
    Le problème des filtres d'indexation ne présente guère d'interêt sauf pour la technique pure, et encore!!
    Pour pousser plus loin guy-jacques pourrait comparer techniquement mono et tri avec le process nécessaire à chaque capteur, en faire un bilan colorimetrique et un rapport signal/bruit en fonction de l'éclairage et du gain, faire un bilan des shading, des gammas, des knees et des clipping, regarder les possibilités de skin et de coring, le black stretch etc...
    Je plaisante :lol: :lol:
    Moi du coté technique j'aimerai bien savoir justement comment les spécialistes de l'image exploite ces parametres et les modifications qu'ils y apportent par rapport aux réglages de base

    Thor27
     
  7. guy-jacques

    So

    Points Repaire:
    9 200
    Recos reçues:
    156
    Messages:
    9 236
    Appréciations:
    +83 / 289 / -3
    La première ligne de mon post initial dans cette discussion donne ma motivation. Depuis deux ans que j'ai le temps de participer au Repaire cette question sous-tend une majorité de requêtes de Repairenautes en recherche de leur premier camescope.
    En général, ils visent plutôt dans cette catégorie "monoCCD" où, sur la quantité importante de modèles, seuls trois (en mars 2004) sont équipés de capteurs non filtrés "complémentaire" (je crois qu'il y a plus d'un an que j'avais aussi écrit que ces questions de filtrage étaient connues, utilisées et non modifiées depuis plus de 20 ans…). C'est donc à propos de cette technologie que j'ai "pondu" ce post, et je pense le dire clairement.

    Pour ce qui est des "triCCD", sauf pour un, ça change de catégorie de prix et aussi de catégorie d ' amateur vidéo. Un amateur débutant ne va pas vers cette solution d'emblée : un peu de "stagnation" dans un rayon de distribution renseigne sur les demandes et offres "grand-public". C'est donc là que j'ai voulu démystifier.

    En ce qui concerne la "qualité" des capteurs CCD : avant qu'il soit posé une grille de filtres sur leurs "pixels", à fabricant, technologie (HAD pour les camescopes), calibre et dotation identiques… ce sont les mêmes qu'ils soient montés en mono (avec ou sans filtrage) ou en tri sans filtrage. Et, alors qu'appelle t'on "qualité" (MTBF, "rendement"…?) qui est capable de l'évaluer hors fabrication - et il y rêgne le secret -

    En cuisine, même l' amateur est capable, sur le marché de se faire une idée à peu près juste des "produits de base"— ce n'est pas le cas en vidéo : le "marché" ne livre pas ses secrets (bis) !
    En fait, pour la cuisine et la vidéo (et bien d'autres encore), c'est le "produit fini", dans l'assiette ou sur l'écran (tv) que ça se juge… les bons font des miracles avec peu et, d'autres du gachis avec beaucoup de moyens : je l'écris aussi dans chaque post prétendu technologique.
    OK, c'est la direction d'un véritable lab de recherche que thor27 me propose… Désolé, je suis en grève :bravo:
     
  8. guy-jacques

    So

    Points Repaire:
    9 200
    Recos reçues:
    156
    Messages:
    9 236
    Appréciations:
    +83 / 289 / -3
    hors "philosophie"

    SI, les relevés des courants électriques sur les capteurs de ce type sont réellement comme je les décris, la dimension totale des capteurs perd de son importance relativement à la sensibilité.
    En effet, l'utilisation du même nombre de pixels avec des "pas de pixels" qui y sont à peu de chose près voisins de 3µm feraient que les surfaces de capture effectivement utilisées pour la vidéo seraient très voisines :col: :perplexe:

    Evidemment, ça ne concerne pas les triCCD dont la triple dotation en pixels et l'absence de stab. numérique permet de relever les 442 368 trios valeurs de composantes (RGB ou YUV) : c'est pratiquement toute leur surface qui est "effectivement utilisée".
    Le cas du XL1s doit être envisagé avec sa technologie "décalage de pixels verts", elle permet de d'augmenter la fréquence du "courant Y"… Mais si l'on se déplace dans ce domaine : fréquences, largeur de bande, etc… on sort de l' arithmétique
     
  9. Vidéo98

    Points Repaire:
    2 630
    Recos reçues:
    70
    Messages:
    8 161
    Appréciations:
    +1 / 2 / -0
    Le document de Sony a le mérite d'expliquer que les pixels de l'image sont bien issus du mélange des informations de 4 photosites. Il en ressort que le nombre de lignes géométriquement disponibles dans une hauteur d'image est de 291 au lieu de 582 en utilisant le même capteur dans un montage tri CCD.
    Un entrelacé partiel de trame est cependant obtenu en décalant d'un rang verticalement la surface d'un pixel d'une trame à l'autre, provoquant de ce fait une variation partielle du contenu de deux lignes adjacentes (paire et impaire). Cette disposition provoque un filtrage optique et la quasi suppression du scintillement des détails de taille proche de la hauteur d'un photosite (ils apparaissent obligatoirement sur les deux trames).
    Le traitement en horizontal par doublement des photosites provoque également une perte de résolution horizontale et de contraste de détail par rapport à un montage tri-CCD utilisant le même type de capteur.

    Voici une adresse intéressante :
    http://www710.univ-lyon1.fr/~fdenis/club_EEA/cours/couleur2.html
    et aussi :
    http://www710.univ-lyon1.fr/~fdenis/club_EEA/cours/sommaire_image.html
    :)
     
  10. guy-jacques

    So

    Points Repaire:
    9 200
    Recos reçues:
    156
    Messages:
    9 236
    Appréciations:
    +83 / 289 / -3
    à vsb : je te …suis, donc je pense ;) et les "Drive Timing Charts" confirment tes analyses…
    C'est vrai que ces infos techniques de Sony datent - du temps de l'analogique - mais, faute de mieux… on ne voit pas ce que le numérique peut changer…sinon le nombre de prélèvements par ligne :perplexe:
    En oute dans le catalogue des capteurs présentés, on peut lire que ceux destinés au marché "ntsc" sont différents des "pal" - et pour des capteurs destinés à des APN, il est question de "pixels carrés" : ceux des camescopes ne le seraient-ils pas ? Celà (carré) qualifie t'il l'ouverture "utile" de la photodiode (constituant "de base" du "pixel"), les images du "tapis" de micro-lentilles dirigeant la lumière sur ces entrées montrent des lentilles disposées sur une grille à carreaux…

    À video98 un des deux sites sur lesquels tu renvoies présente les filtrages RGGB… dont Bayer, voilà donc pour compléter ce TP assez ancien - où, figure une illustration que j'ai dans le CR que j'utilise pour ce qui suit - :

    Je ne connais sur ce filtrage qu'un mode d'interpolation.
    Il peut y en avoir d'autre(s).
    D'abord, le rappel de la disposition "Bayer":

    [​IMG]

    Cette interpolation fournit des pixelsRGB à partir des pixelsCCD.

    En 1, chaque pixelCCD fournit sa propre composante couleur dans "son" pixelRGB.

    Et, pour chaque pixelRGB, les deux composantes couleurs qui manquent vont provenir d' interpolations sur les composantes relevées sur les pixelsCCD voisins.

    2- Obtention du Gi = Vert manquant sur un pixel R ou B, sur le capteur un "pixel Rouge" ou un "pixel Bleu" est immédiatement entouré par 4 "pixels verts" G1 et G3 dans la même colonne, G2 et G4 dans la même ligne et "à distance" par 4 pixels "de Même couleur ( R ou bien B) : M1 et M3 de la même colonne, M2 et M4 de la même ligne.
    Selon ce "protocole" que je connais trois cas sont disjoints :

    Si ABS(M1 - M3) < ABS( M2 - M4 ) Alors Gi = (G1 + G3) / 2
    Si ABS(M1 - M3) = ABS( M2 - M4 ) Alors Gi = (G1 + G2 + G3 + G4) / 4
    Si ABS(M1 - M3) > ABS( M2 - M4 ) Alors Gi = (G2 + G4) / 2

    Explication : Si la "différence de luminosité" relevée est plus importante en ligne qu'en colonne on fait la moyenne sur la colonne … et "inversement"…

    3- Obtention du R ou B (ou des deux) "manquants" sur un pixel B ou R (ouG):
    Un pixel Vert G du capteur est encadré par deux R, la composante manquante R résulte alors de la moyenne des deux, une ligne sur deux c'est selon la colonne puis selon la ligne … il en est de même pour la composante B manquante.
    Un pixel Rouge R est "diagonalement" voisin de 4 B, cette composante sera évaluée selon la moyenne des 4 … Idem facit pour compléter un "pixel Bleu"…

    Cette procédure serait (ou aurait été) celle adoptée par Kodak qui s'occupe essentiellement d' APN.
    Dans ce cas, la correspondance arithmétique entre pixelRGB et pixelsCCD à raison de 1 pour 1 est … vraie… et, associative (quelque peu) "polygamique".

    J'ignore à quel stade est faite cette cuisine…_avant ou après le "raw" ???

    Je ne sais pas si elle est toujours d'actualité pour les APN et encore moins si elle concerne les (encore) rares camescopes monoCCD à filtrage RGB.
     
    #10 guy-jacques, 16 Mars 2004
    Dernière édition: 19 Juillet 2006
  11. Vidéo98

    Points Repaire:
    2 630
    Recos reçues:
    70
    Messages:
    8 161
    Appréciations:
    +1 / 2 / -0
    Re: De la théorie à la pratique ?


    Je n'ai jamais dit qu'un capteur version mono-CCD était utilisé en tri-CCD. Les documentations des fabricants sont fort claires à ce sujet, les matrices mono-CCD et les matrices pour tri-CCD, de même référence de base, ne diffèrent que par le dépôt ou non de filtres en surface. Chez Sony, les dernières lettres précisent les versions (st65 l'avait déjà expliqué).

    Dans un montage tri-CCD, il est possible d'attribuer les rangées paires aux trames paires et les rangées impaires aux trames impaires pour une analyse entrelacée. On peut toutefois combiner les contenus pour diminuer le scintillement des détails trop fins pour l'entrelacé.
    Les colonnes n'ont pas à être combinées non plus.

    Dans un montage mono-CCD il faut combiner les informations captées par quatre photosites pour calculer un pixel, la résolution optique sera limitée à la surface des quatre photosites. Le décalage d'une rangée à chaque trame permet d'améliorer les transitions en cas de fort contraste de transition et de créer un filtrage optique contre le scintillement et l'aliasing, mais il ne permet pas d'obtenir la même netteté qu'avec des tri-CCD.

    Bien sûr qu'on peut obtenir 576 lignes distinctes puisqu'à chaque trame deux rangées sont additionnées entre elles, mais les lignes paires et impaires porteront une information commune pour moitié. Le taux de contraste des détails fins sera de ce fait très abaissé et les détails de la taille d'un photosite pourront doubler de taille dans l'image. Le phénomène ne sera pas gênant pour Dr et Db en 4.2.0. L'utilisateur moyen s'en fichera éperdument car l'image obtenue sera quand même bien meilleure qu'avec les formats analogiques VHS ou HI8. Pour les professionnels, c'est pénalisant et les réactions actuelles le démontrent par le rejet quasi systématique des mono-CCD.

    Il y a quelque chose qui t'as échappé! Les tri-CCD sont encore actuellement bien meilleurs. ;)
     
Chargement...

Dernières occasions

 

Partager cette page