Nvidia RTX 2080Ti: GPU idéal pour Deep Learning
- Pascal Bony
- 24 avr. 2019
- 1 min de lecture
Dernière mise à jour : 24 oct. 2023
Les offres de développement Deep Learning en environnement TensorFlow se multiplient et sont désormais accessible depuis différents clouds publiques.
Cependant, pour réaliser un test, un PoC dans vos locaux, s'équiper peut s'avérer nécessaire. La tentation est grande afin d'acquérir un système à base de carte Nvidia Tesla V100. Nous avons trouvé une alternative plus abordable qui permettra aux plus petites structures de concrétiser leur projet. La carte Nvidia RTX 2080Ti offre:
70% des performances d'une Tesla V100
Dans un environnement Ubuntu / TensorFlow / CUDA / CuDNN / FP32 avec 1GPU,
à 1/7ème de son prix! Oui vous avez bien lu: 1300€ au lieu de 9200€...
Une telle économie offrira à des structures au budget plus important, la possibilité de s’équiper avec plusieurs cartes graphiques RTX 2080Ti. Avec une telle architecture, un réseau neuronal apprendra: 1,8 fois plus vite avec 2 GPUs (2400€) 3,3 fois plus vite avec 4 GPUs (4800€) Rappel, cette recommandation n'est valable que si: -Vous n'avez PAS besoin d'une grande précision numérique FP64, -La capacité de votre modèle (ResNet, Inception, VGG...) est stockable dans les 11 Go de mémoire vive de la carte graphique. Résumé: Avec un budget d'environ 2500€, vous pouvez en Avril 2019, assembler une station de travail à base de processeur Intel i7, composée de 32Go de RAM, d'une alimentation d'au moins 750 Watts et d'un GPU RTX 2080Ti prête à entraîner vos réseaux neuronaux d'intelligence artificielle.
Correctement ventilée, cette station de travail deviendra un précieux partenaire pendant plusieurs années tout en autorisant une évolution vers un environnement multi GPUs.
