Les applications pilotées par GPU exigent un refroidissement hautement optimisé

Les applications pilotées par GPU exigent un refroidissement hautement optimisé

A propos de Rahi Systems

Rahi Systems est un fournisseur global de solutions de centre de données offrant une gamme complète de produits dans l'infrastructure physique, le stockage, le calcul et le réseautage. En outre, Rahi offre des services professionnels et gérés pour aider les clients dans la logistique, la livraison, la mise en place et le soutien continu de leurs solutions de centres de données.

Les avancées rapides de l'intelligence artificielle (IA) sont facilitées par les unités de traitement graphique (GPU) Nvidia conçues à l'origine pour le marché des jeux vidéo. Les organisations qui cherchent à capitaliser sur les capacités des GPU Nvidia doivent préparer leurs centres de données à une densité de puissance extrême et à la chaleur qui les accompagne.

Nvidia a révolutionné le jeu vidéo avec son GPU. Ces circuits spécialisés sont capables de produire un mouvement plus propre, plus rapide et plus lisse dans les jeux vidéo en effectuant plusieurs calculs mathématiques simultanément.

Puis, dans 2007, Nvidia a dépassé le marché du jeu vidéo lorsqu'il a lancé le concept de «calcul accéléré par GPU». Les GPU sont combinés avec des unités de traitement informatique (CPU) traditionnelles dans des environnements de traitement massivement parallèles qui accélèrent l'exécution de programmes intensifs en calcul. Ce développement a fourni le traitement "oomph" nécessaire pour permettre des fonctions AI essentielles telles que l'apprentissage en profondeur.

L'apprentissage en profondeur est un modèle informatique conçu pour imiter de façon approximative le fonctionnement du cerveau humain avec les neurones et les synapses. Les GPU de Nvidia sont utilisés pour créer ce que l'on appelle des «réseaux de neurones artificiels» qui utilisent un grand nombre de nœuds hautement interconnectés travaillant à l'unisson pour analyser de grands ensembles de données. Ceci donne à une machine la capacité de découvrir des modèles ou des tendances et d'apprendre de ces découvertes. C'est l'essence de l'intelligence artificielle.

Les différences architecturales clés entre un CPU et le GPU de Nvidia rendent cela possible. Un processeur a quelques noyaux avec beaucoup de mémoire cache qui peut gérer quelques threads logiciels à la fois. Les processeurs sont également optimisés pour le traitement séquentiel - l'exécution des processus dans l'ordre où ils sont reçus. Les GPU ont des centaines de cœurs capables de gérer des milliers de threads et d'exécuter plusieurs processus simultanément.

Le calcul accéléré par GPU peut faire tourner certains logiciels 100 plus rapidement qu'avec un processeur seul. Cela le rend parfait pour le type d'apprentissage en profondeur des algorithmes qui alimentent une gamme d'applications AI.

Les GPU apportent également des défis importants à l'environnement du centre de données. Alors que les processeurs sont de plus en plus économes en énergie, les GPU consomment beaucoup d'énergie. L'adoption du calcul accéléré par GPU conduit à une densité de puissance plus élevée dans le centre de données - de l'ordre de 30kW à 40kW par rack selon certaines estimations. De nombreux centres de données hyperscale ne consomment que 10kW par rack.

Des densités de puissance de cette ampleur signifient des charges thermiques significativement plus importantes, que peu d'environnements sont prêts à traiter. Le confinement des allées chaudes est essentiel, de même que systèmes de refroidissement en ligne qui concentrent leur capacité sur l'équipement à proximité. Refroidissement en ligne capture et neutralise l'air d'échappement chaud avant qu'il ne puisse s'échapper dans le centre de données.

Les systèmes de refroidissement à eau glacée sont souvent recommandés pour le calcul accéléré par GPU car l'eau a environ quatre fois la capacité thermique de l'air. cependant, refroidissement en ligne fournit une plus grande efficacité en raccourcissant le chemin d'écoulement de l'air et en réduisant le volume d'espace à refroidir.

Enconnex refroidissement en ligne les unités vous donnent la possibilité de choisir le liquide de refroidissement de votre choix. Disponible dans l'eau de condensation, l'eau glacée et les configurations refroidies à l'air et à l'eau DX, Enconnex refroidissement en ligne Les unités offrent plus de 100kW de capacité de refroidissement et s'adaptent parfaitement à tout environnement de centre de données.

Les GPU Nvidia sont utilisés pour accélérer des centaines d'applications pilotées par intelligence artificielle pour des applications telles que la chimie quantique, la dynamique des fluides, le montage vidéo et l'imagerie médicale. Les organisations qui cherchent à tirer parti de l'IA doivent s'assurer que leurs infrastructures de centre de données peuvent gérer la chaleur générée par ces puces puissantes.

Rahi Systems exposera au Nvidia Conférence sur la technologie GPU, Mars 26-29 à San Jose, Californie. Arrêtez-vous au kiosque #1225 pour en savoir plus sur notre solution de refroidissement dans les rangs et ramasser vos cadeaux gratuits!

 

Laisser un commentaire