module inscription newsletter haut de page forum mobile

Ateliers et Formations

Duo 3090 > Resolve

Discussion dans 'Choisir sa configuration PC' créé par repairenaute, 21 Mai 2025.

  1. repairenaute

    Points Repaire:
    1 200
    Recos reçues:
    1
    Messages:
    385
    Appréciations:
    +0 / 6 / -1
    Bonjour à Tous !
    Je suis en train de réflechir à une nouvelle configuration de pc car la 1080ti n'est vraiment plus adapté pour Resolve 20.
    Le prix des 5090/4090 ainsi que leur rareté m'ont fait pencher vers une 3090 que l'on peut facilement trouver à un prix plus abordable. Et je me suis dis qu'il pourrait être intéressant de coupler deux 3090 (avec NVlink) et ainsi obtenir 48Go de Ram pour pas cher :)
    Mais est ce vraiment opérationnel sur Resolve 20 et quels sont les véritables bénéfices ?
    Si quelqu'un possède ce genre de config double carte je suis preneur d'infos.
    Merci à vous !
     
  2. jakin1950

    So

    Points Repaire:
    5 800
    Recos reçues:
    58
    Messages:
    2 568
    Appréciations:
    +213 / 490 / -7
    j"ai lu sur le forum en anglais de Blackmagic qu'il était possible d'utiliser 2 cartes identiques avec Resolve 18

    à vérifier pour Resolve 20
     
  3. giroudf

    So

    Points Repaire:
    15 400
    Recos reçues:
    527
    Messages:
    19 616
    Appréciations:
    +836 / 3 724 / -37
    nvlink n'existe plus, pas sure qu'il soit supporté parles nouvelles applications.
    je crois que tu parles plutot de SLI (le petit connecteur qui branchait deux cartes ensembles)
    ca non plus ca n'existe plus.
    Par contre avec du PCIe 4 , on peut parfaitement lier deux GPU
    Encore faut'il que le soft le prenne en charge.
    en Ia par exemple c'est assez rare sous windows, mais sous linux c'est plus courant.
     
    #3 giroudf, 21 Mai 2025
    Dernière édition: 21 Mai 2025
  4. caraibe

    Points Repaire:
    16 200
    Recos reçues:
    246
    Messages:
    23 298
    Appréciations:
    +555 / 1 782 / -73
    C'est relatif car une seule 3090 c'est déjà plus de 2000 balles !
    Tu fais des effets spéciaux qui demandent énormément de puissance ?
    Je pense car si ta 1080TI avec 3584 cœurs CUDA et 11 Go de mémoire graphique est à la ramasse
    Mais 8 ans déjà cette 1080TI :sad:
     
  5. giroudf

    So

    Points Repaire:
    15 400
    Recos reçues:
    527
    Messages:
    19 616
    Appréciations:
    +836 / 3 724 / -37
    je sais pas ou tu vois de prix pareils pour une vieille carte.
    Par chez moi c'est plutot dans les 600 euros.
    Pour avoir un bon GPU et pas mal de VRAM, ca reste honnete.
     
  6. joet73

    Points Repaire:
    4 330
    Recos reçues:
    20
    Messages:
    509
    Appréciations:
    +42 / 65 / -3
    Bonjour,
    2 GPU dee 24GB ne feront pas 48GB de VRAM pour Resolve mais 24 seulement.
    Les fonctionnalités utilisant le GPU sera cependant plus rapide.
     
    • J'aime J'aime x 1
  7. caraibe

    Points Repaire:
    16 200
    Recos reçues:
    246
    Messages:
    23 298
    Appréciations:
    +555 / 1 782 / -73
    Vu ici:
    Amazon.fr
    ou ici à plus de 2000 balles je n'ai rien inventé giroudf ;)
    Amazon.fr
    Mais 380 chez AliExpress
    Avec les anciennes cartes les prix c'est n'importe quoi.
    Mis ma pendule à l'heure ils en sont aux séries 5000 maintenant.
    Pour les 3090 24Go c'est ou occasion autour de 600€ ou site que je ne saurai conseiller
     
    #7 caraibe, 22 Mai 2025
    Dernière édition: 22 Mai 2025
  8. giroudf

    So

    Points Repaire:
    15 400
    Recos reçues:
    527
    Messages:
    19 616
    Appréciations:
    +836 / 3 724 / -37
    bin evidemment qu'une 3090 c'est en occasion. Quelle drole d'idée d'aller acheter une carte video neuve qui depuis a eu deux generation la remplacant.
    moi je pensais plutot a ca
    « nvidia 3090 » Toute la France - leboncoin
    Mais bon, l'interet ici c'est d'avoir une nombre de cuda et de gigas en VRAM qui soit consequent pour un bon prix , et avec une 3090 c'est le cas.
    Le seul problème avec ces "vieilles" carte, c'est la compatibilité avec des softs récents.
    On a eu ca avec le DirectX, ou certaine bonnes cartes étaient disqualifées parce qu'elle ne tournaient pas le dernier DirectX. Il en va un peu de meme chez Nvidia avec le "compute level" du Toolkit.(actuellement en on est au 12.8 je crois)
    En IA , il y a deja des applications qui te disent que si tu as pas le dernier Toolkit, ca ne marchera pas.

    De toute facon , avec Nvidia , il y a un problème en train d'émerger. Nvidia se désinterese de fabriquer des carte pour le grand public, parce que ca leur rapporte 10x plus d'en faire pour les GAFAM. En ce moment , les H100, ils les vendent par paquet de 10.000 a Apple, Google, Facebook, Microsoft. Et une H100 ca vaut autrement plus cher qu'une 5090.
    Du coup , il y a deja des rumeurs pour dire que la 5060, c'est vraiment de la m... et du coup ceux qui veulent une bonne carte doivent se rabattre sur le haut de gamme qui est hyper cher (la 5090 est presque 3000 euros et la 4090 qui a été un gros flop reste chère). On peut s'attendre donc a ce que Nvidia perde du terrain sur le marché grand public, meme si AMD a un peu laissé tombé , ne voulant pas régater avec Nvidia sur le marché haut de gamme.

    Bon tout ca ca nous passe un peu au-dessus, pauvres pékins que nous sommes.
     
    #8 giroudf, 22 Mai 2025
    Dernière édition: 22 Mai 2025
  9. JLB21

    So

    Points Repaire:
    5 800
    Recos reçues:
    59
    Messages:
    2 956
    Appréciations:
    +151 / 323 / -11
    Tu es sûr que c'est encore le cas ?:D
     
  10. giroudf

    So

    Points Repaire:
    15 400
    Recos reçues:
    527
    Messages:
    19 616
    Appréciations:
    +836 / 3 724 / -37
    fin 2024, apple et google avaient des commandes de 60.000 et 90.000 cartes.
    Depuis ils les ont peut-etre recues.
    Google a ses propres TPU, mais malheureusement ils font comme d'habitude, ils volent les idées des autres et cette fois , ils ont un procès au cul (avec Singular).
    du coup avoir quelques Nvidia sous le coude, ca peut leur servir au cas ou ils perdraient leur procès et seraient obligé soit de stopper les TPU, soit de payer une amende pour chaque TPU (voir chaque heure de calcul) que font ces TPU.
     
  11. giroudf

    So

    Points Repaire:
    15 400
    Recos reçues:
    527
    Messages:
    19 616
    Appréciations:
    +836 / 3 724 / -37
  12. JLB21

    So

    Points Repaire:
    5 800
    Recos reçues:
    59
    Messages:
    2 956
    Appréciations:
    +151 / 323 / -11
    Ton information m'interpelle…
    Car sauf erreur de ma part, Apple n'installe plus de GPU externe dans ses machines.
    D'où ma question à propos de leurs achats de cartes Nvidia…
     
  13. giroudf

    So

    Points Repaire:
    15 400
    Recos reçues:
    527
    Messages:
    19 616
    Appréciations:
    +836 / 3 724 / -37
    je crois que ta pas suivi, on parle de carte H100 a 40.000$ piece qui sert a faire de l'IA dans les datacenter.
    alors c'est sure que quand Nvidia vends en janvier 2024 350.000 cartes H100 a Meta, ca représente un marché bien plus interessant que 3 gamers et 2 mineurs de bitcoins qui se paient une 4090 a 2000 balles.
     
  14. JLB21

    So

    Points Repaire:
    5 800
    Recos reçues:
    59
    Messages:
    2 956
    Appréciations:
    +151 / 323 / -11
    Si si, mais tu parles d'Apple comme acheteur de carte Nvidia, c'est ce que je ne comprends effectivement pas…
    Si tu pouvais éclairer ma lanterne, ce serait sympa…:)
     
  15. giroudf

    So

    Points Repaire:
    15 400
    Recos reçues:
    527
    Messages:
    19 616
    Appréciations:
    +836 / 3 724 / -37
    Apple fait de l'IA ? alors ils ont besoins de processeurs pour le faire. comme Meta, comme google, comme...tout le monde. Il y a guère que les chinois qui ne sont pas sur des H100 Nvidia parce qu'ils ne peuvent pas (embargo). du coup ils apprennent a s'en passer
    Perso je mettrais bien une H100 dans mon PC, mais c'est pas dans mes moyens.
     

Dernières occasions

 

Partager cette page

Vous souhaitez annoncer sur le Repaire ? Contactez-nous