module inscription newsletter haut de page forum mobile

Rejeter la notice

Nouvelle Formation Prise de son : les inscriptions sont ouvertes !
Maîtrisez la qualité de vos prises de son avec notre formation théorique et pratique de 3 jours ! Du 14 au 16 mai 2024 à Paris.

Flux de production 10 bits et carte graphique

Discussion dans 'Panasonic Lumix GH2, GH3, AF-101' créé par LiquidPro, 18 Août 2017.

  1. LiquidPro

    So

    Points Repaire:
    15 325
    Recos reçues:
    290
    Messages:
    2 697
    Appréciations:
    +277 / 849 / -3
    #1 LiquidPro, 18 Août 2017
    Dernière édition par un modérateur: 18 Août 2017
  2. AQW333

    So

    Points Repaire:
    15 800
    Recos reçues:
    224
    Messages:
    11 461
    Appréciations:
    +664 / 2 402 / -24
    Ok je ne savais pas mais je reste méfiant...ou au pire dubitatif :unsure: Ecoute ce que Nvidia qui te renvoie vers du Quadro, dit :

    Prise en charge de 10 bits par couleur sur les GPU NVIDIA Geforce
    Publié 30 septembre 2016 15:31
    De Mise à Jour 26 novembre 2016 17:45
    Prise en charge de 10 bits par couleur sur les GPU NVIDIA Geforce


    Les cartes graphiques NVIDIA GeForce ont offert 10 bits par couleur sur une surface Direct X plein écran, depuis les GPU GeForce série 200.

    En raison de la façon dont la plupart des applications utilisent les fonctions traditionnelles de l'API de Windows pour créer l'interface utilisateur et l'affichage viewport, cette méthode n'est pas utilisée pour les applications professionnelles telles qu'Adobe Premiere Pro et Adobe Photoshop. Ces programmes utilisent OpenGL 10 bits par tampons de couleur qui nécessitent un NVIDIA Quadro GPU avec connecteur DisplayPort.

    Un petit nombre de moniteurs prennent en charge 10 bits par couleur avec les cartes graphiques Quadro sur DVI. Pour plus d'informations sur la gamme professionnelle de GPU NVIDIA Quadro, veuillez consulter le site ci-dessous :


    Professional Workstation Solutions | NVIDIA
     
  3. LiquidPro

    So

    Points Repaire:
    15 325
    Recos reçues:
    290
    Messages:
    2 697
    Appréciations:
    +277 / 849 / -3
    NVidia veut vendre des Quadro, c'est bien naturel vu la marge qu'ils doivent se faire dessus (Pro = cher, forcément)... Il y a un long fil de discussion sur la question sur TomsHardware, d'utilisateurs utilisant des GTX avec des écrans 10 bits qui détectent bien du 10 bits en entrée (en Preview exclusif de Premiere par exemple, ça ne marche pas avec les applications fenêtrées).

    Ces options n'apparaissent que si l'écran les supporte, puisque mes 2 autres écrans (qui ne le supporte pas) n'ont pas ces options.
     
  4. AQW333

    So

    Points Repaire:
    15 800
    Recos reçues:
    224
    Messages:
    11 461
    Appréciations:
    +664 / 2 402 / -24
    Ok discussion qui vaut le coup...cela se limite qu'a la GTX970 ou cela s'applique aussi aux dernières séries 1050 1060.... ?
    Merci.
     
  5. ogt

    ogtx Regretté conseiller technique
    So

    Points Repaire:
    17 700
    Recos reçues:
    546
    Messages:
    23 512
    Appréciations:
    +712 / 1 396 / -41
    Nvidia doit revoir un peu ses préjugés : il y a longtemps que Premiere (et Photoshop) n'utilisent plus OpenGL, mais Cuda (depuis les versions CS5.5).
    Seul AfterEffects, dans certains cas, continue à utiliser OpenGL, et effectivement, là, les cartes Quadro sont plus adaptées que les cartes GTX.

    Olivier
     
  6. ogt

    ogtx Regretté conseiller technique
    So

    Points Repaire:
    17 700
    Recos reçues:
    546
    Messages:
    23 512
    Appréciations:
    +712 / 1 396 / -41
    Les cartes de la série GTX 10xx supportent bien les modes 10 et 12 bits, mais uniquement en plein écran, pas en mode fenêtré, et bien sûr si l'écran connecté le supporte aussi.

    Olivier
     
  7. Cadique

    Points Repaire:
    1 550
    Recos reçues:
    3
    Messages:
    336
    Appréciations:
    +18 / 66 / -0
    Visionner en 4k 10bit ou FHD 10bit ce n'est pas le principal avantage vu le peu d'équipement actuel? Arrêtez-moi si je dis des bêtises mais c'est surtout pour avoir des possibilités de postproduction meilleures. Si je compare avec le son, on travaille tout le temps en 24bits (et souvent suréchantillonné) alors que tout le monde écoute ses CD en 16 bits. Personne ne se pose de questions. Tout simplement parce que si on applique une réverbération par exemple, les calculs sur 24 bits seront plus "précis" que sur 16 et la réverbération sera plus "belle".
    Je vois les choses pareil en vidéo. J'ai fait des tests sur des nuages d'orage cette semaine. L'inferno et le GH5 à "fond" 422 10bits puis le même ciel enregistré en 420 8 bits uniquement avec le GH5, le tout en Vlog-L. J'ai eu bien plus de faciliter à rendre les nuages très méchants avec des reflets violets pour le 422 10 bits. Le 420 8 bits m'amenait des macro-block très moche dès que je poussais les réglages dans leur retranchements. Mon expérience est certes peu valable puisque l'on dit que les codec de l'inferno sont meilleurs que ceux du GH5. Mes gros blocs disgracieux peuvent venir aussi de là?! Mais il y a sûrement des 2.
     
    • J'aime J'aime x 1
  8. ogt

    ogtx Regretté conseiller technique
    So

    Points Repaire:
    17 700
    Recos reçues:
    546
    Messages:
    23 512
    Appréciations:
    +712 / 1 396 / -41
    C'est marrant, mais avec mon petit SD700 qui ne filme qu'en 4.2.0, je n'ai absolument jamais eu de problème de "banding", malgré des ciels fortement dégradés, ni de problème d'étalonnage (que je réalise entièrement dans Premiere avec Lumetri).
    Mais je ne travaille pas en 4K, bien sûr, avec ce camescope.

    Olivier
     
  9. AQW333

    So

    Points Repaire:
    15 800
    Recos reçues:
    224
    Messages:
    11 461
    Appréciations:
    +664 / 2 402 / -24
    Bin .c'est pour voir toutes les nuances du 10 bits !?!...A moins que tu ne le fasses à l'aveugle !?.
    .Donc tout ce que tu dis c'est exactement cela...mais si tu ne lis pas le 10 bits alors tu ne peux pas l’étalonner en conséquence ...où sont tes nuances du 10 bits ?!? Si tu as un mauvais casque, tu fais comment pour vérifier ton effet en 24 bits ?

    Oui je pense que tu parles plus du débit amélioré en externe plus que du 10 bits ...après le 10 bits non lisible amène peut être des fichiers plus stables "aux assauts de la post prod " ...ce qu'on dit classiquement ... et donc sur écran 8 bits cela aurai aussi son effet !?! ..Je ne sais pas ...
     
  10. Cadique

    Points Repaire:
    1 550
    Recos reçues:
    3
    Messages:
    336
    Appréciations:
    +18 / 66 / -0
    Je me place au niveau des algorithmes de traitement. Je sais de manière sûre que dans le son le traitement d'une réverbération par exemple sera plus réaliste en 24 qu'en 16 bits. L'algorithme aura plus de précision dans le calcul des réflexions sur les murs etc... Et cela s'entend, même avec un casque tout moisi. Le calcul est fait en amont à la postprod et le résultat est indépendant du système de lecture.
    Donc, à tort ou à raison j'extrapole ça à la vidéo. Ce qui n'est pas insensé vu qu'un algorithme de traitement que ce soit en vidéo ou en son, cela reste comparable. Mon raisonnement est qu'au lieu de fournir 256 niveaux par pixel on fournit 1024 niveaux par pixel à l'algorithme. Le résultat sera forcément plus précis et se verra, même sur un moniteur 8bits. Je ne parle que de postprod. Et pour répondre à OGT je ne parle que de traitements drastiques, remplacer des couleurs par d'autres, du chroma key etc... Si tu fais un chroma key plus précis, avec une meilleure découpe de ton sujet grâce à la profondeur de bit (mauvaise traduction de bit depth), tu le verras, même sur un écran 8 bit.
    Ce que je test en ce moment, c'est que je pense que l'on a aussi plus de facilité à corriger une image ultra limite en 10 bits qu'en 8 bits. Et que donc cela se verra aussi avec un écran 8 bits. Et pour un débutant comme moi c'est rassurant :-).
    J'ai eu beaucoup plus de facilités à bricoler mes nuages en 10 bits qu'en 8, mais cela ne veut rien dire puisque j'ai utilisé des codec différents, ceux de l'atomos et ceux du GH5.
    Sinon j'attend avec impatience que les écrans 4k 10 bits se démocratisent un peu pour en profiter. :-)
     
    • Merci Merci x 1
  11. nestaphe

    So

    Points Repaire:
    13 225
    Recos reçues:
    216
    Messages:
    1 764
    Appréciations:
    +169 / 1 207 / -2
    :hello:

    Puisque c'est maintenant ici que ça se passe pour poursuivre sur ma question posée dans l'autre sujet à propos d'un truc qui m'avait paru un petit peu bizarre... :rolleyes:

    Sur ton lien, je lis en début de page "Products Affected : ISIS, Media_Composer". Il n'y aurait pas de format 10 bits en DNxHR, ce serait soit 8 soit 12 ? :-) Mais l'Atomos Shogun connecté à un GH5 délivre bien du DNxHR HQX en 4:2:2 10bit (avec le dernier Firmware en date), et comme l'annonce le fabriquant qui vend son appareil pour l'enregistrement 8 bits et 10 bits.

    Voici les caractéristiques d'un fichier DNxHR HQX GH5-Shogun enregistré pour toi :

    [​IMG]

    (Durée, deux secondes, 170 Mo... :approb:)

    Quant au Ninja Inferno (que tu utilises), as-tu vérifié avec MediaInfo (ou autre) les caractéristiques d'un fichier que tu as enregistré du GH5 à l'Inferno en DNxHR HQX ? Les specs données par le fabriquant ne parlent que de 8 bits et de 10 bits et cela ne m'étonne pas vu le prix de cet appareil :

    Ninja Inferno - Atomos

    Aussi, je pense qu'il serait vain et contre-productif de la part d'un enregistreur de ne pas proposer d'enregistrer en 10 bits mais en 12 bits un signal arrivant en 10bits, qu'on fasse ses salades comme on veut en post-production c'est une chose, mais l'enregistreur se doit de travailler à l'optimisation (ou à l'économie, si tu préfères), d'autant plus pour le cas de ces deux modèles Atomos qui, comme tu l'as quelque part souligné dans l'autre sujet, sont principalement conçus pour répondre aux besoins d'appareils DSLR comme nos GH4-GH5.

    Donc, je demande à voir… :rolleyes:
     

    Fichiers attachés:

    #11 nestaphe, 18 Août 2017
    Dernière édition: 19 Août 2017
  12. LiquidPro

    So

    Points Repaire:
    15 325
    Recos reçues:
    290
    Messages:
    2 697
    Appréciations:
    +277 / 849 / -3
    Tu as tout à fait raison, les fichiers enregistrés par l'Atomos sont bien en 10 bits (d'après MediaInfo). Mais cela ne correspond pas aux normes AVID qui n'ont que du 8 et du 12 bits. Mais c'est comme les fichiers ProRes qui sont reconnus comme DNxHR sur Premiere sur PC, je l'ai découvert en testant hier. Comme ces deux formats sont des suites de JPEG (compression DCT), je pense qu'ils font un peu comme ils veulent quand ils les implémentent, du moment que la profondeur de bits est indiquée dans le header.

    Sinon pour revenir au sujet, toutes les GTX implémentent le 10 bits depuis la série 200 donc, mais uniquement en mode plein écran et à condition que le moniteur branché le supporte.
     
  13. nestaphe

    So

    Points Repaire:
    13 225
    Recos reçues:
    216
    Messages:
    1 764
    Appréciations:
    +169 / 1 207 / -2
    Fallait bien répondre à ça quelque part...
     
  14. AQW333

    So

    Points Repaire:
    15 800
    Recos reçues:
    224
    Messages:
    11 461
    Appréciations:
    +664 / 2 402 / -24
    Oui c'est ça la nouveauté ...comme "tous les sites" et des forums ne le pensent pas...et même sur TomsHardware il y a aussi des contradicteurs...:rolleyes:
    je ne suis pas certain que le fait de swicher 8/10/12 bits entraîne automatiquement son usage avec le logiciel de montage...l'informatique est tellement bourré de goulot d’étranglement, incompatibilité....

    Tu as fait des tests ..?:unsure:
     
  15. LiquidPro

    So

    Points Repaire:
    15 325
    Recos reçues:
    290
    Messages:
    2 697
    Appréciations:
    +277 / 849 / -3
    Mon écran ne m'affiche pas cette information malheureusement, juste la fréquence et la résolution, impossible donc de savoir si et quand elle est bien prise en compte. Ce que je sais, c'est que lorsque je change la profondeur de bits sur la carte, l'écran est déconnecté puis détecté comme un nouveau périphérique et l'étalonnage est en conséquence remis à zéro.

    Je vais voir si je trouve cette info quelque part. Mais avant tout j'ai un nouveau soucis de colour banding très pénible à résoudre, je ne sais pas encore à quoi c'est dû, peut-être au travail en mode proxy (DNxHR LB). Ou un dithering inopportun 10 bits -> 8 bits justement, filmant en Vlog-l 10 bits.
     
    • Merci Merci x 1
Chargement...

Partager cette page

Dernières Occasions

 
Vous souhaitez annoncer sur le Repaire ? Contactez-nous