Il n’y a pas si longtemps, le choix d’un ordinateur ne comportait que deux éléments essentiels : le processeur et la mémoire. Le paysage informatique a depuis changé et, parmi de nombreuses autres options de configuration, il y a des décisions importantes à prendre en plus de la puissance de traitement du CPU : Les GPU, les ASIC et les FPGA. Tout a commencé avec le CPU. Are GPUs Really Taking Over CPUs?

Les premiers ordinateurs étaient massifs, occupant près de 2 000 pieds carrés, et étaient conçus pour des tâches de calcul très spécifiques. Outre leur taille massive, ils présentaient l’inconvénient qu’un programme destiné à un ordinateur ne pouvait fonctionner sur aucun autre.

Unité centrale de traitement ou processeur (CPU)

En 1971, tout a changé lorsque l’Intel® 4004 est devenu le premier processeur universel programmable sur le marché : un « composant » que les ingénieurs pouvaient acheter et ensuite personnaliser avec des logiciels pour exécuter différentes fonctions sur une grande variété d’appareils électroniques”. Les codes programmés pour un ordinateur pouvaient fonctionner sur un autre !

Aujourd’hui, Intel reste un chef de file dans le domaine des microprocesseurs – que nous appelons simplement “processeurs”. Sa plate-forme Xeon Scalable a parcouru un long chemin en moins de 50 ans.

Processeur graphique (GPU)

En 1999, les applications d’affichage graphique ont vu le jour et principalement pour l’industrie du jeu vidéo. Le cas d’utilisation du GPU s’est élargi et c’est pourquoi aujourd’hui, nous voyons des développeurs utiliser les GPU pour des applications autres que le graphisme, mais le nom reste inchangé. Une carte GPU n’est plus seulement une “carte de jeu vidéo”. Les GPU sont actuellement utilisés dans tous les secteurs d’activité avec des applications telles que le calcul haute performance, le rendu et l’animation, la cartographie et les voitures autonomes. Le CIARA TITAN 2208-G4 peut être équipé de jusqu’à 8 cartes GPU dans un format 2U pour les applications de conception et de simulation, ou pour les charges de travail des centres de données de type hyperscale. L’architecture spécifique des GPU permet de décharger le CPU de certains calculs. Ces types de calculs sont appelés “single instruction multiple data” (SIMD) ou « instruction unique données multiples ». Les GPU sont, donc, parfaits pour les opérations simples sur des données volumineuses, alors que les CPU excellent dans les opérations complexes sur de flux de données plus limités.

Si l’on considère les deux architectures, un CPU possède plusieurs cœurs et un GPU en possède des centaines. L’utilisation des GPU s’est tellement répandue que l’offre ne parvient plus à suivre la demande. Selon une étude de Jon Peddie Research, les mineurs de crypto-monnaies, par exemple, ont dépensé 776 millions de dollars en cartes graphiques l’année dernière, Les calculs nécessaires au minage de cryptomonnaies étant parfaitement adaptés à la technologie GPU, les “rigs” de minage de cryptomonnaies peuvent comporter plus de 10 cartes GPU installées ; toutefois, on peut noter que les ASIC peuvent remplacer les GPU.

Circuit intégré à application spécifique (ASIC)

Un ASIC est une puce conçue et fabriquée pour une application personnalisée et rien d’autre et il peut s’agir de n’importe quelle application. Les deux principaux avantages des ASIC sont 1) une taille réduite (seuls les composants électroniques nécessaires à l’exécution des fonctions spécifiques sont inclus), et 2) une consommation d’énergie réduite (moins de composants signifie moins d’énergie consommée). De ce fait, l’utilisation d’ASIC dans presque tous nos appareils électroniques modernes est l’une des principales raisons de leur miniaturisation. La réduction de la consommation d’énergie (et du coût de l’énergie) est importante pour le cryptomining, c’est pourquoi certaines plates-formes utilisent des ASIC spécialement conçus à cet effet au lieu de GPU afin d’exécuter les algorithmes de la manière la plus économique et la plus efficace possible. Cependant, il existe un inconvénient majeur : les ASIC destinés au minage de cryptomonnaie sont spécialement conçus pour les algorithmes de “hachage unique”, c’est-à-dire pour le minage d’une seule cryptomonnaie. Changer de monnaie nécessite l’achat d’un nouvel ASIC et, avec plus de 1500 crypto-monnaies actuellement échangées, choisir un équipement doté d’un ASIC dédié peut s’avérer peu judicieux.

Circuit prédiffusé programmable (FPGA)

Il y a environ 5 ans, avant la disponibilité des ASIC, les cryptomonnaies ont commencé à remplacer les GPU par des FPGA afin d’augmenter les performances. Un FPGA est un dispositif réutilisable qui vous permet de construire presque n’importe quel type de circuit numérique en utilisant ses blocs logiques configurables. Utilisés à l’origine pour le prototypage – les ASIC sont prototypés sur un FPGA avant la fabrication finale – les FPGA ont trouvé leur place sur différents marchés car ils peuvent être reprogrammés après la fabrication lorsque les exigences de fonctionnalité changent. De la même manière que le GPU décharge certaines tâches du CPU, un FPGA peut permettre le même type d’accélération matérielle.

Où tout cela va-t-il aller ?

Chacune de ces différentes puces a sa propre fonction. Les ASIC continueront d’être fabriqués pour les applications personnalisées et les appareils mobiles, et l’utilisation des FPGA s’étendra à d’autres secteurs.

Mais qu’en est-il des CPU et des GPU ?

En mars, Victor Peng, PDG de Xilink, nous a prévenus que l’architecture GPU n’était pas adaptée aux applications d’intelligence artificielle dans le secteur automobile, car “les GPU ne sont pas performants en matière de latence”. Et la latence est une “exigence critique dans la plupart des applications en temps réel liées à la sécurité, telles que […] la conduite automatisée ou la robotique“. Afin de répondre aux ” exigences de faible latence des charges de travail telles que l’inférence dans l’intelligence artificielle en temps réel et l’entraînement continu des modèles “, Intel recommande ses ” processeurs Intel® Xeon® Scalable en conjonction avec les FPGA d’Intel ” pour obtenir les meilleurs résultats. En outre, Intel nous rappelle que “L’IA couvre un large éventail de cas d’utilisation, de modèles de déploiement, de besoins de performance, d’exigences en matière de puissance et de types de dispositifs. Par exemple, la solution pour l’IA à grande échelle dans un centre de données basé sur le Cloud est très différente de la conduite autonome ou des inspections de qualité en temps réel sur une chaîne de montage.” Certaines charges de travail peuvent passer d’une plateforme basée sur le GPU à une plateforme CPU & FPGA afin de répondre aux problèmes de latence, mais étant donné la spécialisation informatique des CPU et des GPU, et le fait que différentes charges de travail exigent soit une plus grande performance du GPU, soit une plus grande performance du CPU, il est peu probable que nous voyions une architecture convergente CPU+GPU dans un avenir proche.

Conclusion

Pour déterminer le matériel approprié pour une performance optimale, vous devez d’abord comprendre vos cas d’utilisation. Parlez à un spécialiste Hypertec pour obtenir de l’aide dans la sélection de la plateforme informatique la mieux adaptée à vos besoins.

This post is also available in: EN