Comment les cartes graphiques sont passées du simple affichage à l’intelligence artificielle

D’un simple composant chargé d’afficher des pixels à l’écran et d’augmenter le nombre d’images par seconde… à un processeur capable d’entraîner des modèles d’intelligence artificielle, de miner du Bitcoin, de simuler des explosions stellaires ou d’aider les chercheurs à analyser l’ADN.

Une telle évolution n’était prévue par personne — ni NVIDIA, ni AMD, ni ATI Radeon, ni même 3dfx à ses débuts.

Une carte graphique n’a jamais été conçue pour piloter la révolution de l’IA, ni pour devenir un outil scientifique ou un moteur économique mondial. Son objectif initial était beaucoup plus modeste : accélérer l’affichage à l’écran. Pourtant, ce qui s’est produit ensuite révèle quelque chose de plus profond.

L’évolution du GPU n’a pas été une simple amélioration de performances, mais le résultat d’une pression technologique et d’une course à l’innovation qui l’ont forcé à se transformer, passant d’un « dessinateur de pixels » à l’un des accélérateurs de calcul les plus puissants du monde numérique.

Pour comprendre ce basculement, il faut revenir à une époque où le terme GPU n’existait même pas.

Dans les années 60 et 70, les ordinateurs ne disposaient pas d’interface graphique. Pas de fenêtres, pas d’images pas d’icônes. Des écrans comme l’IBM 3270 affichaient simplement du texte vert sur fond noir.

Le processeur central se contentait d’envoyer des caractères, que l’écran affichait directement. Pas de pixels à calculer, pas d’images à traiter, donc pas de calcul graphique complexe.
Mais à la fin des années 70, les écrans adoptent progressivement le mode raster : une grille de minuscules points — les pixels — dont chacun doit être coloré et stocké en mémoire, dans ce qu’on appelle un frame buffer. C’est là que les difficultés commencent. Le processeur doit désormais calculer et mettre à jour des milliers de pixels à chaque image.

Il ralentit. Sur l’Apple II en 1977, le mode graphique pouvait consommer près de 20 % de la mémoire totale Un chiffre énorme à une époque où chaque octet comptait. La question devient évidente : comment soulager le processeur ?

Dans les années 80, avec l’arrivée des interfaces graphiques comme Apple System 6 ou Windows 2, les ordinateurs doivent dessiner en permanence des fenêtres, des menus, des boutons et des curseurs. Chaque mouvement de souris implique une mise à jour de l’écran. Les CPU ne sont pas conçus pour ce type de charge répétitive.

Les constructeurs comprennent que l’avenir est graphique, mais aussi que le processeur ne pourra pas tout assumer seul. C’est ainsi qu’apparaissent les accélérateurs 2D, capables de gérer les copies de blocs, les remplissages ou les déplacements d’éléments bien plus rapidement que le CPU.

Mais ces accélérateurs restent limités. Ils gèrent la 2D, pas la profondeur, ni l’éclairage, ni la rotation dans l’espace. Au début des années 90, les jeux évoluent plus vite que le matériel. Doom, Wolfenstein 3D ou Quake esquissent un monde en trois dimensions, mais reposent encore largement sur le processeur. La saturation revient.

Puis arrive 3dfx.

Fondée en 1994, l’entreprise lance en 1996 la Voodoo Graphics. Pour la première fois, une carte offre une véritable accélération 3D matérielle, avec gestion du texture mapping et du Z-buffer. Les jeux changent radicalement d’apparence.

Les joueurs ne demandent plus si un titre est performant, mais s’il est compatible 3DFX. Le nom devient synonyme de technologie.

Mais c’est aussi le début des erreurs stratégiques. 3dfx mise fortement sur son API propriétaire Glide au lieu d’embrasser pleinement DirectX et OpenGL. Elle rachète STB Systems pour fabriquer ses propres cartes, rompant avec ses partenaires historiques. Pendant ce temps, NVIDIA enchaîne les générations RIVA puis GeForce à un rythme soutenu, avec un support solide de DirectX.

À la fin des années 90, 3dfx prend du retard. La Voodoo 5 ne peut rivaliser avec la
GeForce 2. L’entreprise accumule les pertes et dépose le bilan en 2000. Ses actifs et sa propriété intellectuelle sont rachetés par NVIDIA. Ce n’est pas seulement la chute d’une marque, mais la fin d’une ère.

1999, la GeForce 256 introduit officiellement le terme GPU Graphics Processing Unit. Ce n’est pas qu’un slogan marketing. La carte intègre un moteur matériel de transformation et d’éclairage (T&L), transférant des calculs autrefois réalisés par le CPU directement vers la carte.

Puis DirectX et OpenGL transforment la carte graphique en plateforme programmable. Les shaders apparaissent. L’architecture devient unifiée :

plus de séparation rigide entre unités d’éclairage ou de texture. Tout repose désormais sur des unités de calcul générales.

Chez NVIDIA, ces unités prennent le nom de CUDA Cores, organisées au sein de blocs appelés Streaming Multiprocessors (SM). Chaque SM regroupe des cœurs CUDA, des planificateurs, de la mémoire partagée. Le traitement s’effectue par groupes de 32 threads appelés warps, exécutés simultanément. Le principe est simple : exécuter la même instruction sur des milliers de données en parallèle.

Contrairement au CPU, optimisé pour la polyvalence et la prise de décision, le GPU excelle dans le calcul massif et répétitif. C’est cette architecture parallèle qui ouvre la voie au GPGPU — l’utilisation du GPU pour le calcul général.

En 2006, CUDA officialise cette transition. Les cartes graphiques ne sont plus réservées aux jeux. Elles deviennent des accélérateurs scientifiques.
Puis l’IA explose.

Les Tensor Cores apparaissent pour accélérer les opérations matricielles, cœur des réseaux neuronaux. Conçus pour exécuter des multiplications-accumulations massives en un minimum de cycles, ils décuplent les performances en deep learning.

En parallèle, les RT Cores permettent le ray tracing en temps réel. Ces unités spécialisées accélèrent les calculs d’intersection géométrique nécessaires au traçage des rayons lumineux, rendant possible une simulation physique réaliste de la lumière.

Aujourd’hui, des cartes comme les NVIDIA A100 ou H100 sont pensées pour les centres de données, avec mémoire HBM ultra-rapide et interconnexions NVLink. L’enjeu n’est plus le nombre de FPS, mais les téraflops et la capacité à entraîner des modèles gigantesques en un temps record.

Les GPU sont désormais utilisés pour :

  • entraîner des modèles d’IA massifs
  • analyser des images médicales
  • simuler le climat
  • décrypter l’ADN
  • alimenter la conduite autonome
  • traiter des volumes de données colossaux

Même le boom du minage de cryptomonnaies découle directement de cette capacité à exécuter des calculs répétitifs à grande échelle
Au final, cette transformation n’a rien d’accidentel.

L’architecture massivement parallèle du GPU le destinait à bien plus que le rendu graphique. Les jeux ont été le premier terrain d’expérimentation. L’intelligence artificielle en a été l’aboutissement logique.

De l’écran monochrome des années 70 aux supercalculateurs dédiés à l’IA en 2024, l’histoire des cartes graphiques dépasse largement la simple quête de performance. Le pixel était le point de départ. Les mathématiques, elles ont toujours été au cœur du système
Et c’est précisément pour cela que l’évolution des GPU peut sembler étrange… alors qu’elle était, en réalité, parfaitement logique d’un point de vue technologique.

FAQ

Quelle est la différence entre un CPU et un GPU ?

Le CPU est conçu pour exécuter des tâches variées et complexes avec une grande flexibilité. Le GPU lui est optimisé pour exécuter simultanément des milliers d’opérations identiques en parallèle, ce qui le rend idéal pour le rendu graphique et les calculs massifs.

Pourquoi les GPU sont-ils essentiels à l’intelligence artificielle ?

Les modèles d’IA reposent sur d’immenses opérations matricielles répétitives. L’architecture parallèle des GPU permet d’exécuter ces calculs beaucoup plus rapidement qu’un processeur classique.

Qu’est-ce que le GPGPU ?

Le GPGPU (General-Purpose computing on GPU) désigne l’utilisation de la carte graphique pour des calculs généraux autres que le rendu d’images, notamment en recherche scientifique, simulation ou intelligence artificielle.

Qu’est-ce qu’un Tensor Core ?

Les Tensor Cores sont des unités spécialisées intégrées dans certaines cartes NVIDIA. Elles sont conçues pour accélérer les multiplications matricielles massives utilisées dans le deep learning, ce qui réduit considérablement le temps d’entraînement des modèles d’IA.

Les cartes graphiques sont-elles uniquement utilisées pour le jeu ?

Non Elles sont aujourd’hui employées dans les centres de données, la recherche médicale, la simulation climatique, l’analyse génomique et l’entraînement de modèles d’IA à grande échelle.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *