module inscription newsletter haut de page forum mobile

Rejeter la notice

ateliers live resolve avec forest

Ateliers Live Resolve - Formez-vous en ligne tous les mois avec Forest !
Faites rapidement évoluer la qualité de vos étalonnage avec nos ateliers mensuels de 3h.
Toutes les infos

Ateliers et Formations

RTX 4090 & Resolve

Discussion dans 'Blackmagic DaVinci Resolve' créé par repairenaute, 28 Juillet 2023.

  1. repairenaute

    Points Repaire:
    1 200
    Recos reçues:
    1
    Messages:
    385
    Appréciations:
    +0 / 6 / -1
    Bonjour à Tous !
    Quelqu'un aurait il des retours à nous faire sur les performances de ce duo qu'est la Carte Graphique 4090 et Resolve ? Les quasi 17000 coeurs cuda font ils la différence avec sa petite soeur qui en compte quasi la moitié moins ? Il y a beaucoup de test de cette carte avec des jeux vidéos mais peu de test approfondi (beaucoup ne mentionne que le calcul d'un rendu H264 dont on ne sait pas toujours les effets et la complexité du montage) des fonctionnalités de Resolve, notamment le speed warp qui est plutôt gourmand en ressource. Merci à vous !
     
  2. giroudf

    So

    Points Repaire:
    15 400
    Recos reçues:
    538
    Messages:
    19 850
    Appréciations:
    +855 / 3 807 / -37
    parce qu'au niveau video, il y pas tellement de difference entre une 3060 et une 4090. Tu utilises le NVENC qui depend de la fréquence de la carte et du port PCIe, pas tellement de la VRAM ou des CUDAs. La 4090 tourne quand meme a une fréquence plus de 2x plus rapide que la 3060, donc
    théoriquement on peut s'attendre a ce que NVENC tourne 2 a 3x plus rapidement, ce qui est deja pas mal.
    Il faut en effet faire la différence dans l'accélération GPU entre ce qui est calculé par le GPU et ce qui est rendu par NVENC.
    Il y a beaucoup de programmes qui se targuent d'utiliser le GPU, mais en fait ils ne font que refiler le bébé a NVENC. Ca marche vite et bien, l'inconvénient est que tu dépend de ce que fait Nvidia pour la qualité de l'encodage. en plus tout le reste (les effets) pourraient bien etre fait par le CPU.
    Il y a des puristes qui trouvent que la qualité d'encodage de NVENC laisse a désirer.

    d'autres programmes utilisent aussi le GPU, mais sans passer par le NVENC, ils utilisent leur propres algorithms (parfois basé sur FFmpeg) et utilisent la puissance des CUDAs (voir des RT ou des Tensors).
    L'avantage c'est d'avoir plus de control sur la qualité de l'encodage et de permettre des formats que NVENC ne supporte pas.

    C'est le cas pour Resolve, une exception si tu travailles dans un codec qui ne passe pas par NVENC et qui utilises le GPU. La le gain peut se montrer appréciable. Il me semble que c'est le cas de ProRes et DNxHD.
    Mais pour ca il faut la version récente et payante de resolve.

    Après , pour du traitements video qui utilise des calculs GPU , oui , la tu constateras probablement une différence, mais la encore, ce sont en general des calculs assez simples donc rien qui demande des ressources exceptionelle (meme une 3060 avec 12 go de Vram et 3500 CUDAs suffit largement)
    (étrangement mieux vaut une 3060ti n'a que 8Go de VRAM, mais 1000 CUDAs de plus et 10 RT cores de plus, un bus plus large et une fréquence plus haute, mais ca suffit largement pour monter du 4K )
    tu gagnes probablement plus en activant le resizeable BAR sur le port PCIe, et en ayant la bonne version de PCIe en utilisant une carte mère récente (la 4, la 4090 n'étant pas compatible avec la 5).

    Mais bon, si on a une 4090, je vois pas de raisons de vouloir chercher a comprendre, tu as ce qui se fait de mieux pour l'instant.
     
    #2 giroudf, 28 Juillet 2023
    Dernière édition: 28 Juillet 2023
  3. scalpascalpa

    Points Repaire:
    1 200
    Recos reçues:
    2
    Messages:
    107
    Appréciations:
    +6 / 13 / -1
    J'ai justement la 4090, ça marche et c'est tout ce que je demande. Gagner quelques secondes est un faux problème de mon point de vue. La seule chose qui m'importe est d'être tranquille pendant quelques années pour de la 4k et de la 8K, et de ne pas être bloqué par la technique d'ici là. Je n'ai pas envie de me prendre la tête sur les limitations matérielles car ce n'est pas l'objet en vidéo. Avant, j'avais un GTX980 à 3 ou 4Go, et ça ramait grave, ça plantait de temps en temps, ou alors Resolve me sortait des impossibilités GPU et des refus de travail (!). Maintenant, plus de problèmes, et j'ai 24 Go me permettant des tas d'essais sans soucis.

    J'ai aussi pris cette carte car le codage/décodage H265 est hardware sur cette génération. Sympa pour avoir des proxy de plus petites tailles et donc économie sur la taille du disque SSD temporaire (ça me ratrappe un bout du prix de la CG)

    Ca m'a couté un bras, oui, mais comme je garde mes cartes graphiques très longtemps, c'est pas le critère le plus significatif au final pour moi (j'ai sauté plusieurs générations de cartes, donc bon...).

    Mais il ne faut pas rêver non plus, les calculs ne sont pas instantanés pour autant. Avec beaucoup d'effets (pour des tests par exemple), ça dure un peu. Mais au moins, ce n'est plus la mort comme avec ma précédente carte.

    D'autres CG suivront, plus puissantes, et ma CG deviendra dépassée, mais c'est le jeu en informatique, hein, c'est vrai pour tous les composants.

    A noter, je me sers aussi de cette carte pour les jeux vidéos, et tout passe crème en 4K en full option sur tous les jeux.
    On peut aussi underclocker la carte (genre 20% de moins) en perdant seulement 6 ou 7% de perf, ce qui peut être un choix pas forcément idiot en cette période de prix de l'énergie élevée. La 4090 a le meilleur rapport performance/puissance-consommée du marché, tous modèles confondus, donc l'underclocking n'est pas débile vu la minime perte de perf.
     
    #3 scalpascalpa, 28 Juillet 2023
    Dernière édition: 28 Juillet 2023
    • J'aime J'aime x 1
  4. Lionel.75

    So

    Points Repaire:
    5 645
    Recos reçues:
    6
    Messages:
    130
    Appréciations:
    +8 / 5 / -1
    • Merci Merci x 1
  5. giroudf

    So

    Points Repaire:
    15 400
    Recos reçues:
    538
    Messages:
    19 850
    Appréciations:
    +855 / 3 807 / -37
    oui mais tu évoques une amélioration qui ne semblerait due qu'a la presence de plus de VRAM sur la carte graphique (la 3060ti n'a que 8 Go)
    Ce qui semble comfirmé par un autre utilisateur qui dit que tout tourne nickel sur une 3060 (probablement 12Go)

    Donc passer de la 3060ti a la 4090 (meme si c'est super cool d'avoir cette carte), me semble excessif vu le prix, puisque probablement tout autre carte avec plus de VRAM aurait aussi fait l'affaire.
    (par exemple une 3090 qu'on trouve pour pas cher d'occase et qui a 24 Go)

    Par exemple , j'ai envisagé l'achat d'une 4090 pour faire de l'IA, mais finalement j'ai pris 2 3090 (700 euros piece), ce qui me donne le meme genre de config (plein de CUDAs, PCIe 4, 24 Go) mais pour 2 PC au lieu d'un.
     
  6. repairenaute

    Points Repaire:
    1 200
    Recos reçues:
    1
    Messages:
    385
    Appréciations:
    +0 / 6 / -1
    Bonjour à Tous !
    Merci beaucoup pour toutes vos réponses qui sont très instructives. Pour info mon pc, qui commence à dater un peu, tourne sous ryzen 7 1800X avec une 1080 ti de 11Go et 32Go de Ram. Je peux monter des films assez long en HD (genre mariage d'une heure) mais dès que c'est en 4K ca reste possible mais avec un scrolling n'est plus du tout fluide (c'est super relou pour monter) et y a quelques plantages (erreurs GPU resolve). Je monte donc la 4k en proxy et ça le fait pas trop mal ... Cependant dès que j'applique du Denoise + colo + optical flow + speed warp ça devient chaud patate ! :) 10 sec de sequence = 27 minutes de rendus (j'exporte pour réimporter dans resolve afin de monter fluide) Et des séquences de 10 secondes comme ça j'en ai plein ... Voila pourquoi ça m'intéresse de savoir ce qu'elle donne cette carte 4090 avec un ralenti optical flow + speed warp
    Scalpascalpa : Aurais tu un moment (avec ta carte ça devrait être rapide :love:) pour exporter une séquence de 10 sec avec une petite colorimétrie + ralenti 65% avec optical flow et speedwarp ??? et pourquoi pas un ptit test denoise ... D'avance merci !
     
  7. giroudf

    So

    Points Repaire:
    15 400
    Recos reçues:
    538
    Messages:
    19 850
    Appréciations:
    +855 / 3 807 / -37
    il y a bien des chances que certains effets soient en CPU, et donc avec ton CPU un peu vieux, c'est normal. Parce qu'une 1080ti, ca devrait tenir le choc a l'aise.
    (après que le CPU soit vu comme un peu vieux par Resolve et que ca provoque des plantage, ca c'est leur problème)
    D'ailleurs tu peux verifier toi -meme dans le perfmon de windows ou en sont le CPU et le GPU.
    si ton CPU est a 100%, tu sais ou est le goulot d'etranglement.
     
  8. repairenaute

    Points Repaire:
    1 200
    Recos reçues:
    1
    Messages:
    385
    Appréciations:
    +0 / 6 / -1
    Giroudf : Sans certitude je pense que les effets optical flow et d'autres sont gpu. Merci pour le conseil, je vais monitorer pour voir d'ou ca chauffe :)
     
  9. repairenaute

    Points Repaire:
    1 200
    Recos reçues:
    1
    Messages:
    385
    Appréciations:
    +0 / 6 / -1
  10. giroudf

    So

    Points Repaire:
    15 400
    Recos reçues:
    538
    Messages:
    19 850
    Appréciations:
    +855 / 3 807 / -37
    oui c'est bien possible, puisque sur les RTX, il y a pas mal de CUDAs , mais aussi des TensorRTs.
    Les TensorRTs sont encore peu utilisés mais ca commence a venir.
    Mais bon, des tensorsRT, il y a en a sur toutes les RTX, inclu la 3060, donc on peut aussi en profiter sur une carte a 350 euros, pas forcement besoin d'en dépenser 1500.
    le rapport entre une 3060 et une 4090 est assez constant
    4.5x plus de cudas, 4.5x plus de Tensors.

    Mais bon de nouveau, quand tu achètes la meilleure carte du marché (et la plus chère), t'as pas besoin de te poser toutes ces questions.
    Les questions a poser sont plutot, est-ce que le reste de ma config me permet de bénéficier de cette puissance ?

    Par contre il faut bien noter que Nvidia parle des STUDIO drivers, pas les drivers standards.
    Il convient donc d'installer les bons.
     
  11. repairenaute

    Points Repaire:
    1 200
    Recos reçues:
    1
    Messages:
    385
    Appréciations:
    +0 / 6 / -1
    Grosso modo je dirais qu'une alim de 1000w mini et de la carte mère adapté AM5 (pour les derniers ryzen quoique en AM4 il y a le 5950x qui est raisonnable) avec plusieurs port nvM2 ainsi que 64Go Ram en ddr6 et roule carrosse ! :)
     
  12. giroudf

    So

    Points Repaire:
    15 400
    Recos reçues:
    538
    Messages:
    19 850
    Appréciations:
    +855 / 3 807 / -37
    oui mais aussi d'avoir planté la carte dans le port x16 gen4 (Gen 5 ca sert a rien) qui est directement sur le CPU (et pas celui qui est sur le chipset), d'avoir activé le resizeable BAR (ce qui l'est sur la 3060, mais pas forcement sur les cartes haut de gamme, va savoir pourquoi), ce qui demande parfois un flashage du firmware de la carte video (gloup!) et l'activation dans le bios de la carte mère (si elle suporte).
    d'avoir effectivement un SSD qui peut eventuellement tenir le debit (donc un M.2 Nvme en Gen 4 , voir Gen 5 si la carte mere le permet) correctement refroidi.
    D'utiliser un soft qui exploite correctement ces ressources et les drivers qui vont bien avec.
    Pour l'alim, effectivement il faut le wattage correct mais aussi que les voltages soient bons (on a vu des alim avec trop de ripple ou des voltages trop bas qui foutaient le bordel).

    Bref le matos haut de gamme , ca se respect et il te le rend bien si tout est nickel.
     
Chargement...
Discussions similaires - RTX 4090 Resolve
  1. jjk3
    Réponses:
    27
    Nb. vues:
    2 247
  2. bird
    Réponses:
    21
    Nb. vues:
    2 768
  3. babaorum
    Réponses:
    12
    Nb. vues:
    2 146

Dernières occasions

 

Partager cette page

Dernières Occasions

 
Vous souhaitez annoncer sur le Repaire ? Contactez-nous