Nous suivre

Rejeter la notice

Illustration Event Raw C200--- Conf/Atelier/Apéro gratuit ----
Tourner en Raw avec une C200
Le jeudi 12 Déc à 17h
>> Toutes les infos <<

[VotreAvis] Carte graphique pour gestion 10 bits

Discussion dans 'Informatique et vidéo' créé par Le Caiman, 9 Mars 2019.

  1. Le Caiman

    Points Repaire:
    1 000
    Recos reçues:
    0
    Messages:
    111
    Appréciations:
    +0 / 13 / -0
    Salut à tous !

    J'aimerais passer sur un moniteur 10 bits. Mes rushes sont en 4K, 400 Mbps, 10 bits.

    Mais on me dit que j'ai besoin d'une CG quadro minimun... d'autres que c'est faux et qu'une geforce 10XX suffit amplement....

    Bref j'aimerais avoir vos avis concernant la carte graphique pour gérer du 10 bits.

    J'ai une EVGA 1060 sc 6Gb. Si j'active dans le panneau nvidia le 10 bits, est ce bon ?

    Merci d'avance.
     
  2. Alcoriza

    So So

    Points Repaire:
    5 300
    Recos reçues:
    58
    Messages:
    2 507
    Appréciations:
    +100 / 166 / -0
    Avec ta GTX, ça sera en 10 bits pour DirectX, donc avec les jeux vidéos... mais pas avec des applis pros type Premiere Pro
     
  3. Le Caiman

    Points Repaire:
    1 000
    Recos reçues:
    0
    Messages:
    111
    Appréciations:
    +0 / 13 / -0
    Vous pouvez m'en dire plus ?
    Pourquoi ça ne marchera pas avec ces logiciels ?
     
    #3 Le Caiman, 9 Mars 2019
    Dernière édition par un modérateur: 9 Mars 2019
  4. Alcoriza

    So So

    Points Repaire:
    5 300
    Recos reçues:
    58
    Messages:
    2 507
    Appréciations:
    +100 / 166 / -0
    Parce qu'ils n'utilisent pas Direct X et d'autre part, ça permet à Nvidia de vendre des Quadro aux pros.
     
  5. MyPOV

    So

    Points Repaire:
    10 900
    Recos reçues:
    64
    Messages:
    5 145
    Appréciations:
    +316 / 743 / -4
    Alcoriza,

    Je ne sais pas ce qu'il en est mais du coup j'ai du mal à comprendre le tableau Nvidia qui indique qu'une GTX1060 décode en hard du H265 4:2:0 en 8 bit, 10 bit et 12 bit mais pas en 4:4:4 comme la Quadro de la série équivalente. La différence éventuelle semble être par rapport à VP9.
    Video Encode and Decode GPU Support Matrix | NVIDIA Developer
     
  6. Le Caiman

    Points Repaire:
    1 000
    Recos reçues:
    0
    Messages:
    111
    Appréciations:
    +0 / 13 / -0
    Ok, là je suis largué ! :sad:

    Que font de plus les Quadro ?

    J'ai lu ceci sur un autre forum de vidéaste :

    "le 10Bits ne nécessite pas de cartes Quadro. Une cartes de série 10xx minimum est obligatoire. Je veux pas m'avancer sur les anciennes cartes de série 9xx. Mais les GTX 10xx et RTX 20xx prennent le 10bits pleinement."
     
  7. Alcoriza

    So So

    Points Repaire:
    5 300
    Recos reçues:
    58
    Messages:
    2 507
    Appréciations:
    +100 / 166 / -0
    Le papier parle de Nvenc. De plus, ce n'est pas parce qu'il va décoder matériellement du 10 bits qu'il va l'afficher tel quel sans faire une conversion vers du 8 bits.

    @Le Caiman, si tu bosses sur Premiere Pro, tu n'auras pas de sortie 10 bits via ta GTX.
     
    • J'aime J'aime x 1
  8. MyPOV

    So

    Points Repaire:
    10 900
    Recos reçues:
    64
    Messages:
    5 145
    Appréciations:
    +316 / 743 / -4
    Le seconde tableau est NVDEC Support Matrix
     
  9. Alcoriza

    So So

    Points Repaire:
    5 300
    Recos reçues:
    58
    Messages:
    2 507
    Appréciations:
    +100 / 166 / -0
    Oui, donc décodage matériel avec une API qu'aucun soft n'utilise :D
     
    #9 Alcoriza, 9 Mars 2019
    Dernière édition par un modérateur: 9 Mars 2019
  10. Le Caiman

    Points Repaire:
    1 000
    Recos reçues:
    0
    Messages:
    111
    Appréciations:
    +0 / 13 / -0
    @Alcoriza , Davinci Resolve fonctionne de la même manière ?
     
  11. MyPOV

    So

    Points Repaire:
    10 900
    Recos reçues:
    64
    Messages:
    5 145
    Appréciations:
    +316 / 743 / -4
    Oui mais la Quadro a d'autres API exploitées par exemple par Premiere Pro ? Sinon, ça serait la même chose pour les Quadro que les GTX.
     
  12. Le Caiman

    Points Repaire:
    1 000
    Recos reçues:
    0
    Messages:
    111
    Appréciations:
    +0 / 13 / -0
    @MyPOV c'est ce qui me semble aussi ! Il y a bien CUDA ou Open CL/GL non ?
     
  13. Alcoriza

    So So

    Points Repaire:
    5 300
    Recos reçues:
    58
    Messages:
    2 507
    Appréciations:
    +100 / 166 / -0
    Les Quadro "autorisent" simplement le 10 bits via OpenGL...
     
  14. MyPOV

    So

    Points Repaire:
    10 900
    Recos reçues:
    64
    Messages:
    5 145
    Appréciations:
    +316 / 743 / -4
    ok Alcoriza ; Et, les logiciels de montage tirent partie de OpenGL ?

    Avant OpenGL était très utilisé dans les jeux en particulier par ID Software, mais j’imagine pas en 10 bits.
     
  15. LiquidPro

    So

    Points Repaire:
    8 750
    Recos reçues:
    67
    Messages:
    1 691
    Appréciations:
    +128 / 391 / -0
    La principale grande différence des quadro, c'est leurs pilotes spécifiques pour des logiciels, et la possibilité d'en développer un, associé au support réactif et personnalisé qui va avec. Il y a d'autres spécificités, comme la possibilité d'avoir beaucoup plus de RAM que sur les GTX. Les pilotes des GTX sont eux génériques et généralistes.

    DirectX est une API propriétaire Microsoft destinée avant tout aux jeux (rendu 3d temps réel, donc de qualité moyenne mais rapide). Les GTX sont conçues et optimisées pour cet usage (le jeu), là où les quadro sont destinées aux créateurs. Mais la différence abusive de tarif fait qu'en dehors d'usages bien spécifiques, même les créateurs utilisent beaucoup les GTX, trop chères mais nettement moins que les quadro ou FirePro (AMD).

    OpenGL est une API ouverte et implémentée sur tous les OS, par exemple tous les jeux et contenus Android utilisent OpenGL (dans une variante spécifique allégée). L'intérêt de développer pour OpenGL, c'est qu'au prix de modifications mineures, le même code fonctionnera partout, alors que DirectX nécessite un développement spécifique uniquement pour Windows.

    Adobe utilise aussi OpenGL. CUDA est une API à part, qui fonctionne autant avec OpenGL qu'avec DirectX. Lorsqu'on initialise CUDA, on peut le faire depuis différentes API selon la plateforme (par exemple DirectX n'existe pas sous MacOS, mais OpenGL oui, alors que sous Windows on peut utiliser les deux).

    Pour la sortie en 10 bit, il faut que le moniteur branché la supporte, dans ce cas, on peut passer en 10 bit même avec une gtx (cela fonctionne avec ma gtx 970). Cela se fait au niveau du pilote et affecte le moniteur indépendamment de l'API utilisée. Par contre, je ne sais pas si Premiere transmet bien un flux 10 bit sur l'écran de preview dans ce cas (via Mercury Transmit sur une GTX) ou s'il reste en 8 bit (donc 256 nuances au lieu de 1024, lorsqu'on utilise pas le color management, sinon on est restreint au Rec709).
     
    #15 LiquidPro, 9 Mars 2019
    Dernière édition: 9 Mars 2019
Chargement...

Partager cette page

Vous souhaitez annoncer sur le Repaire ? Contactez-nous