module inscription newsletter haut de page forum mobile

Ateliers et Formations

HD ready vs Full HD

Discussion dans 'Discussions générales sur la vidéo' créé par mgo, 8 Novembre 2007.

Tags:
  1. mgo

    mgo

    Points Repaire:
    1 200
    Recos reçues:
    2
    Messages:
    273
    Appréciations:
    +0 / 0 / -0
    Il semblerait d'après mes lectures que sur un téléviseur 'en dessous de 40 pouces, l'oeil ne fasset pas la différence entre le full Hd et le HD ready.

    alors ne vaut il pas mieux filmer en haute définition en 720p ou à sortir le montage en 720p, car dans ce cas la vitesse et la qualité de compression devraient être meilleures qu'en 1920i.
    Puisqu'il y a moins de pixel la compression devrait être plus rapide et prendre moins de place

    me trompes-je ?
     
  2. koala_b

    Points Repaire:
    1 200
    Recos reçues:
    1
    Messages:
    415
    Appréciations:
    +0 / 0 / -0
    Non, tu ne te trompes pas, mais seulement dans les grandes lignes...

    Il y a juste une erreur de raisonnement entre le 720p et le 1080i : il est en partie juste si on compare une diffusion de bout en bout en 720p ou en 1080i, et si on ne tient pas compte des nouvelles habitudes de visualisation de la TV.

    Les instances internationales de normalisation n'ont pu se mettre d'accord sur 1 seul format HD universel. Car il y a des arguments pour et des arguments contre.

    L'argument principal du 720p étant que 720 lignes sont suffisantes par rapport au pouvoir de discernement de l'oeil humain et que le mode progressif est plus confortable et apporte quasiment autant de 'résolution perçue' que du 1080 interlacé.

    Mais le calcul lié à la définition du pouvoir de discerment de l'oeil prend en compte 2 paramètres qui sont aujourd'hui, en partie, criticables:
    - la surface visualisée,
    - la distance de visualisation.
    On en déduit l'angle de visualisation, pour lequel le pouvoir de discernement maximal de l'oeil est connu, et est constant (si on ne tient pas compte de la densité de l'air --je dis ça pour les pinailleurs du Repaire ;) ...--).

    Avec une TV de taille usuelle --autours de 32"/80cm de diagonale-- (comme les grandes TV SD à tube cathodique), TV regardée à partir de son canapé (soit de 3 à 4 mètres), les 720 lignes en progressif sont suffisantes.
    Mais les habitudes de visualisation ont changées : les gens veulent des TV de plus en plus grandes dans leur salon sans pour autant repousser les murs... style écran de cinéma chez soi (mode du 'Home cinema'). La surface visualisées devient de plus en plus grande et le 1080 a sa raison d'être (par rapport au fameux pouvoir de discernement de l'oeil)... mais en progressif.

    Les constructeurs de matériel ont donc plutôt poussé pour du 1080 interlacé argumentant que cela est plus simple de passer de 1080i à 1080p quand cela est, ou sera, possible et que par ailleurs, entre du 720 et du 1080, le consommateur est naturellemnt porté à croire que 1080 est nécessairement 'mieux' (car 'progressif' ou 'interlacé' devient trop difficile à expliquer pour le consommateur de base...).
    Ce choix s'est aussi fait pour les émissions en HD hertziennes ou satellites : le 1080i est devenu largement majoritaire.

    Et c'est là où le raisonnement de départ --que le 720p est suffisant-- ne marche plus (ou moins bien) : le HD ready n'est pas du 720p mais du 1080i converti plus ou moins bien en 720i ou p. Même si techniquement ta TV est un afficheur nativement progressif (LCD, Plasma), la conversion de i vers p n'est pas sans effet négatif (outre une perte de conversion en lignage, il faut 'effacer' certains artefacts de mouvement).

    Donc, même si sur le papier un vrai signal 720p afficher en 720p serait suffisant sur une TV de taille normale (32"/80cm) à distance normale (3 à 4 mètre), ce n'est pas le cas sur une TV HD ready (même à supposer de grande marque avec une électronique de qualité).

    En fait, quelle que soit la taille de l'écran, il est à supposer que le spectateur sera à une distance proportionelle, voire même plus proche que l'habitude pour les très grands écrans : une Full HD aura alors toujours un petit avantage sur une HD ready.
    C'est aussi pourquoi les constructeurs commencent à descendre en taille les modèles 'Full HD' : des modèles en 22"/56cm et 26"/66cm viennent d'être présentés par Sharp (voir De nouveaux écrans LCD AQUOS chez Sharp ! : Akihabara News .com). Ce n'est pas qu'un effet de marketing ("Full HD c'est mieux que HD ready"), il y a une différence, certes légère, mais existante.


    Il faut rappeller par ailleurs que la notion de HD ready a surtout permis de vendre des TV HD alors que, d'un còté, la technologie des dalle LCD ou Plama ne permettait pas d'atteindre la résolution de 1080x1920 à un prix raisonnable, et que, d'un autre côté, les diffuseurs de contenu n'avaient pas fait de choix définitif entre des émissions en 720p ou en 1080i.

    Aujourd'hui, c'est clair, le 1080i s'est installé. Et le 1080p est déjà proposé sur le BluRay ou le HD-DVD (pas en 50p, mais seulement en 24p, mais cette cadence est suffisante car c'est celle d'origine du film).

    Dans 2 ou 3 ans, seuls les trés petits écrans (< à 10"/ 26cm) ne seront pas en Full HD pour des raison de coût (tout comme aujourd'hui les lecteurs de DVD SD portables sont en général seulement en 234x480, ce qui est loin du mode SD...) et le reste sera majoritairement en Full HD.

    Koala
     
  3. barraalice

    Points Repaire:
    4 830
    Recos reçues:
    71
    Messages:
    1 416
    Appréciations:
    +0 / 4 / -0
    Pas exactement, tout dépends de la distance à laquelle le spectateur se place du dispositif de restitution. En réalité il ne faudrait pas parler de dimensions d'écran mais plus justement d'angle de vision. La HD permets à distance égale d'augmenter l'angle de vision du spectateur (en agrandissant la surface de projection, évidement).

    Les assertions que tu as lues sur les téléviseur 40" sont à prendre pour une distance donnée, vraissemblablement 4 ou 5 m. Si tu te mets plus prêt, le signal 1080 lignes donnera une meilleure sensation de piqué que le 720.

    Penses au moniteurs 30" que l'on trouve maintenant : résolution de l'image 2560x1600, soit deux fois plus de pixels que le Full HD 1080. Cette résolution n'est pas inutile, loin de là, puisque le spectateur est cette fois-ci à une cinquantaine de centimètres de l'écran, s'il était d'une résolution vulgaire de 1280x720 ou moins, tu penses bien que le résultat affiché serait déplorable.

    edit: message croisé avec koala
     
  4. barraalice

    Points Repaire:
    4 830
    Recos reçues:
    71
    Messages:
    1 416
    Appréciations:
    +0 / 4 / -0
    Additionnellement, il n'est pas tout a fait juste de dire que le 720 représente moins de pixels.

    Le 1080i est composé de 1920x1080 pixels cadencé à 25 images par seconde (les 50 trames par seconde sont entrelacées en 25 images, principe de la "compression" par l'entrelacement), soit un total de 51&nbsp;840&nbsp;000 pixels / seconde. Le 720p est composé de 1280x720 pixels cadencés à 50 images par seconde, soit 46&nbsp;080&nbsp;000 pixels / seconde. pas vraiment beaucoup moins tu voies, seulement 10 % d'écart.
     
  5. mgo

    mgo

    Points Repaire:
    1 200
    Recos reçues:
    2
    Messages:
    273
    Appréciations:
    +0 / 0 / -0
    merci pour ces réponses très intéressantes,
    mais en ce qui concerne la compression mpeg2 ou AVCHD y a t-il une différence significative entre les 2 formats, je pense peut-être à tord que le p est plus facile à compresser que le i
    Et puis si de toutes façons on affiche sur des écrans LCD autant rester en p du début à la fin
     
  6. hola

    Points Repaire:
    4 180
    Recos reçues:
    23
    Messages:
    3 814
    Appréciations:
    +41 / 147 / -4
    [​IMG]
     
  7. Vidéo98

    Points Repaire:
    2 630
    Recos reçues:
    70
    Messages:
    8 161
    Appréciations:
    +1 / 2 / -0
    La comparaison en pixels par seconde est osée, je ne l'aurais pas faite !
    Les pixels se rapportent à une matrice image, que l'image soit produite en progressif ou en entrelacé. Prends une image, fixe pour simplifier les choses, et affiche la sur un écran d'ordinateur. Change ta cadence d'affichage entre 60 Hz et 120 Hz sans changer la matrice d'affichage et tu pourras constater que la qualité d'affichage ne change pas, pourtant le débit en pixels par seconde est très différent. Sur un CRT tu pourras peut-être distinguer un chouia de flicker, et encore. Sur un LCD tu ne verras aucune différence.

    Il y a d'autres facteurs beaucoup plus mercantiles qui font que la différence entre du 1920x1080 et du 1280x720 est parfois difficile à évaluer. Il y a également quelques facteurs techniques, en particulier entre l'entrelacé de prise de vue et le progressif qui amenuisent un peu l'écart en vertical.

    Comme tu l'as indiqué, l'angle de champ visuel du spectateur est capital et il est très facile en jouant sur ce facteur de démontrer à un spectateur qu'une image TV en SD peut parfois paraître plus nette qu'une bonne image HD (j'y ai joué à ce jeu à la grande surprise de certains interlocuteurs).
    Pour moi, le choix d'un afficheur HD Ready n'est qu'une décision budgétaire, pas un choix technique. ;)
     
  8. phasco

    Points Repaire:
    1 000
    Recos reçues:
    0
    Messages:
    133
    Appréciations:
    +0 / 0 / -0
    Au niveau de la diffusion, les instances de normalisation européenne ont-elles tranchées en faveur de tel ou tel format ?

    La prochaine relégation au musée du signal analogique et sa supplantation totale par une diffusion numérique TNT, a du faire émerger une norme européenne non ?
    :perplexe: Il me semble avoir lu il y a quelque temps que l'Europe avait opté pour le 720p :perplexe: Mais bon je suis pas sur.

    Je parle au niveau du signal de diffusion des chaines tf1, f2,3,4.., arte, itele...Et aussi des chaine etrangère européenne BBC, TVE, Rai.

    Et y a t-il une incidence sur le choix de l'écran ?

    :jap:
     
  9. baloub

    So

    Points Repaire:
    6 230
    Recos reçues:
    85
    Messages:
    1 611
    Appréciations:
    +0 / 20 / -1
    Très majoritairement, en TV par satellite, c'est le 1080i qui domine.
    Dans les essais de TNT HD qui viennent de cesser, c'était aussi du 1080i.
    Les tests ont aussi porté sur les def horizontales (1920,1440,1280 mais toujours en 1080i).

    Je ne suis pas très sûr qu'il faille imposer une norme aux diffuseurs. Les TV LCD (plasma, VP) actuelles acceptent très bien du 720p comme du 1080i.
    Les modèles les plus récents passent même le 1080p à 24i/s ce qui devrait permettre d'enterrer les 3:2 pulldown américains ou l'accélération 24 à 25i/s européen.
    Ce que je veux dire, c'est que le matériel actuel permet aussi bien le 720p que le 1080i et que le 1080p est dans les starting bloc.
    A quoi bon normer de façon rigide la diffusion ?
     
  10. hola

    Points Repaire:
    4 180
    Recos reçues:
    23
    Messages:
    3 814
    Appréciations:
    +41 / 147 / -4
    il y a aussi le fait pour un afficheur HD Ready la tâche de mise à l'échelle d'une image SD est bien plus simple que pour un Full HD:

    pour une source SD, type TV ou DVD (720 x 576 pixels = 415 kpixels) la dalle HD Ready qui comporte 1366 x 768 = 1 mégapixels, n'est "que" 2,5 fois plus grande que celle d'origine..

    Full HD---> comporte 1920 x 1080 points, soit 2 mégapixels ! Il y a très exactement 5 fois plus de points, que la TV doit donc inventer (interpoler )
     
  11. phasco

    Points Repaire:
    1 000
    Recos reçues:
    0
    Messages:
    133
    Appréciations:
    +0 / 0 / -0
    Je ne sais pas.
    Peut être pour éviter que chacun y aille selon sa convenance :o

    Ca m'étonnerai quand même beaucoup qu'il n'y ai pas de normes strictes pour la diffusion européenne qui ne soient déjà édictées.
    Harmonisation oblige....quoique :perplexe:

    Je roujoute juste que si les tests portent sur le 1080i, c'est peut être parce que c'est ce format qui a été choisi par Bruxelles.

    J'ai vu que la norme européenne pour la diffusion TNT est le DVB-T.
    A l'intérieur de ce cadre, il y a une assez grande lattitude de choix possible encodage en mpeg2 ou mpeg4-avc, en 1080i ou 720p ou 1080p.
    Mais il ne semble pas qu'il y ai de choix plus précis que ça qui ressorte. Un opérateur pourrait diffuser en mpeg2 1080i, un autre en mpeg4-avc 1080p, les allemands en 720p...pourvu que l'on reste dans le DVB-T ? Ou alors va t-on allé vers quelques chose de plus uniforme?
     
    #11 phasco, 8 Novembre 2007
    Dernière édition: 9 Novembre 2007
  12. Vidéo98

    Points Repaire:
    2 630
    Recos reçues:
    70
    Messages:
    8 161
    Appréciations:
    +1 / 2 / -0
    Absolument pas d'accord.

    Non hola, ce n'est pas comme ça qu'un scaler "raisonne". Il faut considérer les deux axes séparément et dans le cas du 720 on a un translignage de 576 vers 720 (coefficient 1,25) alors qu'en 1080 on a un translignage de 576 vers 1080 (coefficient 1,875). Le projet Eureka avait choisi le 1250 lignes car il permettait de passer très facilement de 625 lignes à 1250 lignes et vice versa (coefficients 2 et 0,5). Pour l'axe horizontal ça ne pose pas plus de problèmes.

    De toute façon ce problème est maîtrisé depuis longtemps car bien peu de capteurs de caméras captent dans la taille de matrice de diffusion. Le choix entre HD Ready et Full HD est d'abord une question de coût, au spectateur de choisir sa distance d'observation pour un maximum de confort.

    J'en fais tous les jours le constat en regardant des images de la TNT en SD sur mon écran d'ordinateur qui est en 1920x1200 et mes images HDV. Si je respecte les recommandations d'usage pour les distances d'observation entre SD et HD, j'obtiens facilement la même finesse d'image, mais le champ est différent.

    J'ai pratiqué la vidéoprojection à titre professionnel pendant plus de 30 ans et les règles n'ont jamais changé. :)
     
  13. baloub

    So

    Points Repaire:
    6 230
    Recos reçues:
    85
    Messages:
    1 611
    Appréciations:
    +0 / 20 / -1
    Attention, il s'agit là de la norme de diffusion (entre autre, le type de modulation). Pour la TNT HD le choix est fait : la même norme qu'en TNT SD.
    Le choix de la définition est surtout affaire de contenu.
    La suisse s'apprête à lancer une chaîne par sat et réseaux câblés en 720p50i/s. D'après ce que j'avais lu, elle sera surtout dédiée aux événements notamment sportifs.
     
  14. hola

    Points Repaire:
    4 180
    Recos reçues:
    23
    Messages:
    3 814
    Appréciations:
    +41 / 147 / -4
    ah ok :jap:


    c'était la seule réponse que j'avais trouvé pour expliquer le fait qu'un Sony Bravia KDL-40X3500 avait du mal a afficher une source SD aussi bien qu'un KDL-40D3000 (HD Ready)......voir (encadré jaune)---> la
     
  15. Vidéo98

    Points Repaire:
    2 630
    Recos reçues:
    70
    Messages:
    8 161
    Appréciations:
    +1 / 2 / -0
    http://www.ebu.ch/CMSimages/en/tec_text_d62-1998_tcm6-4581.pdf
    Il y a une seule recommandation stricte pour l'Europe, c'est d'utiliser le 50 Hz, i ou p selon le cas. En fait, seule la télédiffusion publique est encadrée. Le choix 1280x720 ou 1920x1080 est libre (le premier ayant quand-même été recommandé), si ce n'est que ce sont les deux seuls choix de diffusion possibles en HD. Se pose le problème du choix d'encodage en MPEG 2 ou en MPEG 4 et les avis sont encore partagés.
    La France a tranché, MPEG 2 pour la SD numérique gratuite, MPEG 4 pour la HD terrestre et la SD payante terrestre.
    La SD analogique est toujours d'actualité en Europe jusqu'en 2012.

    Pour la production, le 50p est recommandé en 1920x1080, mais pas obligatoire. Le 24 p et le 25p sont également possibles. :)
     
Chargement...

Partager cette page