Conseils pour nouvelle configuration - images artistiques avec IA

Conseils pour nouvelle configuration - images artistiques avec IA - Carte graphique - Hardware

Marsh Posté le 04-08-2022 à 14:20:47    

Hello,
 
Je souhaite me lancer dans la création d'art numérique utilisant l'intelligence artificielle.
Les outils que je souhaite utiliser sont codés en Python et ne fonctionne que sur Linux.
Ils utilisent également la puissance des GPU Nvidia via Cuda.
 
De ce fait, que me recommandez-vous en ce qui concerne la carte graphique et le processeur en ce moment ?


---------------
Passionné par l'univers de l'informatique mais aussi par la décoration et le mobilier
Reply

Marsh Posté le 04-08-2022 à 14:20:47   

Reply

Marsh Posté le 04-08-2022 à 14:26:47    

RTX 3090

Reply

Marsh Posté le 04-08-2022 à 20:04:24    

Merci :) Savez-vous si la série 4 sortira en 2023 ?


---------------
Passionné par l'univers de l'informatique mais aussi par la décoration et le mobilier
Reply

Marsh Posté le 04-08-2022 à 20:07:25    

dadou351 a écrit :

Merci :) Savez-vous si la série 4 sortira en 2023 ?


Oui mais dans ce cas il faut faire la conf en 2023.. mais je vois pas l intérêt de une série 4 pour cela..


---------------
Que la force soit avec Moi... (Attention avec votre sabre laser, vous pourriez vous blesser..)
Reply

Marsh Posté le 04-08-2022 à 20:47:25    

la série 4000 n'apportera pas grand chose pour l'AI art avec Python. Essentiellement ça se situe sur la Vram, donc j'ai essayé avec une RTX 3070 8 go, une RTX 3060 12 go et une RTX 3090 24 go. La 3060 permettait de générer de plus grandes images que la 3070.  
 
Donc le plan le moins cher est la RTX 3090 à 24go parce qu'on peut la trouver vers 1500 euros. Si tu as beaucoup d'argent tu peux acheter une carte pro nvidia avec 48 go de vram, et tu pourras faire certainement encore plus grand même si Cuda et Pytorch viennent quand même prendre en proportion plus de place. Disons que le double de Vram ne permet pas de générer une image deux fois plus grande.  
 
Si tu regardes sur google collab, tu peux choisir tes GPU et ce sont des GPU spécifiques, des tesla. si tu fais ça en local la meilleure solution est la RTX 3090 24 go de ram. La tesla K80 a aussi 24go de vram mais ne prendra pas les prochaines versions de Cuda.  
Il faut savoir aussi que plus tu utilises de model (visions transformers) et plus ça prend de Vram.


Message édité par mazinga le 04-08-2022 à 20:48:24
Reply

Marsh Posté le 05-08-2022 à 09:21:40    

même 1030€ ici
https://www.bpm-power.com/it/online [...] e-b1958729
 
(je connais pas la boutique, ca vient du topic bonnes affaires)
https://forum.hardware.fr/hfr/Hardw [...] #t11137042


---------------
Infographiste 3D & Post-Production - Freelance
Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed