Carte graphique pour Deep Learning

Carte graphique pour Deep Learning - Carte graphique - Hardware

Marsh Posté le 13-01-2021 à 10:10:57    

Bonjour à toutes et à tous,
 
Je viens de passer un coup de fil à Dell pour me faire une offre pour un nouveau PC pour mon entreprise qui doit gérer nos projets deep learning. Budget ~7-9k€.
 
Nous avons demandé deux RTX 3090, mais leur dimension est apparemment trop imposante pour les modèles PC qu'ils proposent actuellement. J'ai donc le choix entre 1 seule 3090, ou bien un dual/triple d'autres modèles.
 
Devrais-je prendre la RTX 3090 (24GB) en question, ou bien faire un dual de RTX Titan (24GB) (par exemple)?
 
Le VRAM est importante dans notre cas car nous la partitionnons pour des apprentissages en parallèle.
 
Bien cordialement

Reply

Marsh Posté le 13-01-2021 à 10:10:57   

Reply

Marsh Posté le 13-01-2021 à 10:17:28    

Bonjour :)
 
Bon je mets les pieds dans un monde que je ne connais pas, mais j'espère pouvoir aider malgré tout...
 
Si tu dis que la VRAM est importante, à moins que ça ait changé récemment, 2 ou 3 cartes en SLI (ou nvlink) de 10Go de vram par exemple, ne fera que 10Go de VRAM utilisables, et non 20 ou 30.
 
Après je ne sais pas si l'utilisation en deep learning nécessite de mettre en SLI ou pas je t'avoue... Et autre précision, il me semble que nVidia arrête le support du SLI cette année ;)
 
Désolé si je suis à côté de la plaque ;)

Reply

Marsh Posté le 13-01-2021 à 11:54:56    

Y a des 3080 blower, du coup elles sont moins épaisses et permettent le multi gpu. (Ca sera peut etre au chausse-pied malgré tout)
 
Ms 10 go vs 24 sur les 3090.
 
Ou alors tu attends les possibles 3080 Ti, 20go si les rumeurs sont correctes, et en espérant que des versions blower sortent.


---------------
Infographiste 3D & Post-Production - Freelance
Reply

Marsh Posté le 13-01-2021 à 16:43:12    

OK je vois, merci pour vos réponses. Je pense qu'un config avec une seule 3090 fera l'affaire pour l'instant, puis si c'est possible, on ajoutera une 3080 (Ti) par la suite si nécéssaire.

Reply

Marsh Posté le 13-01-2021 à 18:09:56    

en effet , je pense que tu peux partir sur une 3090  , pour du deep learning ,une seule carte devrait déjà largement faire l'affaire :jap:
pour la 3080 Ti , rien de sûr au niveau de sa sortie , certains attendaient des annonces au CES mais il n'y a rien eu de nouveau à propos de cette éventuelle 3080 Ti (Nvidia ayant annoncé sa 3060 12 Go en fait)
uniquement des rumeurs et des "contre rumeurs"  pour le moment (carte annulée...)


Message édité par cyberfred le 13-01-2021 à 18:10:52
Reply

Marsh Posté le 14-01-2021 à 08:59:43    

Très bien, dans ce cas ce sera une 3090. Par contre, il y a-t-il un avantage d'avoir 2 GPUs pour un système multi-users? Nous serions certainement 2 ou 3 à utiliser le même PC pour du deep learning, ce qui voudrait dire que le partage de la resource (computing, VRAM) devra certainement être bien définie. Même question pour la distribution du training (nous utuilisons Tensorflow).

Reply

Marsh Posté le 18-01-2021 à 17:58:45    

Re-bonjour,
 
Je viens de recevoir une offre d'un vendeur avec la config suivante:
https://i.ibb.co/wNgW66t/eweqwr.png
 
Sachant qu'il y aura deux RTX3090, et un i9, je me demande si le PSU est suffisant (1000 Watt)... Quel est votre avis?
 
Je pars du principe que: 1x RTX3090 -> 350W, i9 -> 100-160W si hyperthreading.


Message édité par bluewinny67 le 18-01-2021 à 18:01:16
Reply

Marsh Posté le 18-01-2021 à 18:33:10    

- 10980XE + x299 = mauvaise idée

 

c'est du niveau d'un AMD 3950x qui coutera presque 2x moins cher

 

10980xe (1100€)
x299 (600€)

 

vs

 

3950x (760€)
X570 (250/300€)

 

(prix compumsa.eu)

 


- tu n'as pas besoin de NV Link, tu ne dois pas faire de SLI
(d'ailleurs je me demande mm si y'a pas un pont inclus avec la carte graphique, j'en ai tjs eu un avec mes cartes)

 

- pr l'alim j'irais sur 1200W pr être sûr
https://www.compumsa.eu/item/CP-902 [...] m-ATX-9825

Message cité 1 fois
Message édité par kabyll le 18-01-2021 à 19:32:07

---------------
Infographiste 3D & Post-Production - Freelance
Reply

Marsh Posté le 18-01-2021 à 19:16:28    

Normalement, les cartes avec un Nvlink actif et un Software qui le supporte peuvent faire du memory pooling et donc partager la memoire entre chaque GPU:
https://www.pugetsystems.com/labs/a [...] s-10-1253/
https://www.boxx.com/blog/boxxlabs/ [...] dia-nvlink
https://www.chaosgroup.com/blog/pro [...] -rtx-cards

 

A verifier si c'est toujours le cas sur une 3090 mais je pense que oui.

 

Sur le shop HW, les CM en x299 commencent à 317 euros.


Message édité par Nono0000 le 18-01-2021 à 19:18:43

---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
Reply

Marsh Posté le 18-01-2021 à 21:54:33    

kabyll a écrit :

- 10980XE + x299 = mauvaise idée
 
c'est du niveau d'un AMD 3950x qui coutera presque 2x moins cher
 
10980xe (1100€)
x299 (600€)
 
vs
 
3950x (760€)
X570 (250/300€)
 
(prix compumsa.eu)
 
 
- tu n'as pas besoin de NV Link, tu ne dois pas faire de SLI
(d'ailleurs je me demande mm si y'a pas un pont inclus avec la carte graphique, j'en ai tjs eu un avec mes cartes)
 
- pr l'alim j'irais sur 1200W pr être sûr
https://www.compumsa.eu/item/CP-902 [...] m-ATX-9825


 
Attention cela dit, certains programmes "pro" ne supportent pas officiellement AMD, même si ça marche tout aussi bien on est d'accord.
Mais en cas de bug qui n'aurait rien à voir, ils vont te répondre "c'est de l'AMD ce n'est pas supporté prenez du Intel", une connaissance a eu le coup avec un logiciel de montage pour la télé...

Reply

Marsh Posté le 18-01-2021 à 21:54:33   

Reply

Marsh Posté le 18-01-2021 à 22:16:31    

Merci pour vos réponses. La x299 me revient à  environ 400€, après nous utiliserons le système essentiellement pour du deep learning. J'ai pu voir que le gain en performance avec le NV Link est plutôt minime pour le learning.
 
Il y a apparemment un problème d'approvisionnement en alim chez le vendeur, d'où la CORSAIR 1000W. J'ai peur qu'en full run, avec les 2 cartes 3090 + le CPU, le système claque. Je pense que je vais patienter avant de passer commande et demander un minimum 1200-1300W.

Reply

Marsh Posté le 18-01-2021 à 22:41:20    

Oui pour cette utilisation le Nvlink n'est nécessaire que si tu as besoin d'agréger les deux VRAM pour faire un pool commun de 48Go.
Sinon il ne vaut mieux pas activer le multiGPU car cela prend un peu de ressources.


Message édité par Nono0000 le 18-01-2021 à 22:41:57

---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed