Carte graphique pour Deep Learning - Carte graphique - Hardware
Marsh Posté le 13-01-2021 à 10:17:28
Bonjour
Bon je mets les pieds dans un monde que je ne connais pas, mais j'espère pouvoir aider malgré tout...
Si tu dis que la VRAM est importante, à moins que ça ait changé récemment, 2 ou 3 cartes en SLI (ou nvlink) de 10Go de vram par exemple, ne fera que 10Go de VRAM utilisables, et non 20 ou 30.
Après je ne sais pas si l'utilisation en deep learning nécessite de mettre en SLI ou pas je t'avoue... Et autre précision, il me semble que nVidia arrête le support du SLI cette année
Désolé si je suis à côté de la plaque
Marsh Posté le 13-01-2021 à 11:54:56
Y a des 3080 blower, du coup elles sont moins épaisses et permettent le multi gpu. (Ca sera peut etre au chausse-pied malgré tout)
Ms 10 go vs 24 sur les 3090.
Ou alors tu attends les possibles 3080 Ti, 20go si les rumeurs sont correctes, et en espérant que des versions blower sortent.
Marsh Posté le 13-01-2021 à 16:43:12
OK je vois, merci pour vos réponses. Je pense qu'un config avec une seule 3090 fera l'affaire pour l'instant, puis si c'est possible, on ajoutera une 3080 (Ti) par la suite si nécéssaire.
Marsh Posté le 13-01-2021 à 18:09:56
en effet , je pense que tu peux partir sur une 3090 , pour du deep learning ,une seule carte devrait déjà largement faire l'affaire
pour la 3080 Ti , rien de sûr au niveau de sa sortie , certains attendaient des annonces au CES mais il n'y a rien eu de nouveau à propos de cette éventuelle 3080 Ti (Nvidia ayant annoncé sa 3060 12 Go en fait)
uniquement des rumeurs et des "contre rumeurs" pour le moment (carte annulée...)
Marsh Posté le 14-01-2021 à 08:59:43
Très bien, dans ce cas ce sera une 3090. Par contre, il y a-t-il un avantage d'avoir 2 GPUs pour un système multi-users? Nous serions certainement 2 ou 3 à utiliser le même PC pour du deep learning, ce qui voudrait dire que le partage de la resource (computing, VRAM) devra certainement être bien définie. Même question pour la distribution du training (nous utuilisons Tensorflow).
Marsh Posté le 18-01-2021 à 17:58:45
Re-bonjour,
Je viens de recevoir une offre d'un vendeur avec la config suivante:
Sachant qu'il y aura deux RTX3090, et un i9, je me demande si le PSU est suffisant (1000 Watt)... Quel est votre avis?
Je pars du principe que: 1x RTX3090 -> 350W, i9 -> 100-160W si hyperthreading.
Marsh Posté le 18-01-2021 à 18:33:10
- 10980XE + x299 = mauvaise idée
c'est du niveau d'un AMD 3950x qui coutera presque 2x moins cher
10980xe (1100€)
x299 (600€)
vs
3950x (760€)
X570 (250/300€)
(prix compumsa.eu)
- tu n'as pas besoin de NV Link, tu ne dois pas faire de SLI
(d'ailleurs je me demande mm si y'a pas un pont inclus avec la carte graphique, j'en ai tjs eu un avec mes cartes)
- pr l'alim j'irais sur 1200W pr être sûr
https://www.compumsa.eu/item/CP-902 [...] m-ATX-9825
Marsh Posté le 18-01-2021 à 19:16:28
Normalement, les cartes avec un Nvlink actif et un Software qui le supporte peuvent faire du memory pooling et donc partager la memoire entre chaque GPU:
https://www.pugetsystems.com/labs/a [...] s-10-1253/
https://www.boxx.com/blog/boxxlabs/ [...] dia-nvlink
https://www.chaosgroup.com/blog/pro [...] -rtx-cards
A verifier si c'est toujours le cas sur une 3090 mais je pense que oui.
Sur le shop HW, les CM en x299 commencent à 317 euros.
Marsh Posté le 18-01-2021 à 21:54:33
kabyll a écrit : - 10980XE + x299 = mauvaise idée |
Attention cela dit, certains programmes "pro" ne supportent pas officiellement AMD, même si ça marche tout aussi bien on est d'accord.
Mais en cas de bug qui n'aurait rien à voir, ils vont te répondre "c'est de l'AMD ce n'est pas supporté prenez du Intel", une connaissance a eu le coup avec un logiciel de montage pour la télé...
Marsh Posté le 18-01-2021 à 22:16:31
Merci pour vos réponses. La x299 me revient à environ 400€, après nous utiliserons le système essentiellement pour du deep learning. J'ai pu voir que le gain en performance avec le NV Link est plutôt minime pour le learning.
Il y a apparemment un problème d'approvisionnement en alim chez le vendeur, d'où la CORSAIR 1000W. J'ai peur qu'en full run, avec les 2 cartes 3090 + le CPU, le système claque. Je pense que je vais patienter avant de passer commande et demander un minimum 1200-1300W.
Marsh Posté le 18-01-2021 à 22:41:20
Oui pour cette utilisation le Nvlink n'est nécessaire que si tu as besoin d'agréger les deux VRAM pour faire un pool commun de 48Go.
Sinon il ne vaut mieux pas activer le multiGPU car cela prend un peu de ressources.
Marsh Posté le 13-01-2021 à 10:10:57
Bonjour à toutes et à tous,
Je viens de passer un coup de fil à Dell pour me faire une offre pour un nouveau PC pour mon entreprise qui doit gérer nos projets deep learning. Budget ~7-9k€.
Nous avons demandé deux RTX 3090, mais leur dimension est apparemment trop imposante pour les modèles PC qu'ils proposent actuellement. J'ai donc le choix entre 1 seule 3090, ou bien un dual/triple d'autres modèles.
Devrais-je prendre la RTX 3090 (24GB) en question, ou bien faire un dual de RTX Titan (24GB) (par exemple)?
Le VRAM est importante dans notre cas car nous la partitionnons pour des apprentissages en parallèle.
Bien cordialement