Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Au fait, pourquoi GeForce s'appelle GeForce ?

On vous parle d'une époque où l'on comparait les polygones entre les jeux vidéo, où les ordinateurs s'appelaient Pentium II et Pentium III et où l'on se montrait très fier de sa carte son Sound Blaster.

C'était en 1999. L'entreprise américaine Nvidia lançait une toute nouvelle gamme de cartes graphiques, qui perdure encore aujourd'hui. Son nom ? GeForce. Elle est apparue pour la première fois avec la carte graphique GeForce 256 qui, tenez-vous bien, bénéficiait d'une finesse de gravure de 220 nanomètres et une fréquence d'horloge (c'est-à-dire la vitesse à laquelle les calculs sont effectués) de 120 MHz.

Ces caractéristiques prêtent évidemment à sourire en comparaison des modèles les plus récents de la marque, à l'image de la carte graphique GeForce RTX 3080 Ti, lancée cet été 2021. Sa finesse de gravure descend à 8 nanomètres, tandis que sa fréquence d'horloge grimpe à 1 665 MHz. La GeForce 256 comptait 17 millions de transistors. La GeForce RTX 3080 Ti, outre toutes ses fonctions supplémentaires, en a 28,3... milliards.

Prise en charge des calculs géométriques en 3D

Tout cela est certainement déjà connu des nerds de l'informatique. Ce qu'ils et elles ne savent peut-être pas, ou moins, c'est l'origine du nom de GeForce. Il existe une petite histoire et une explication derrière cette identité. Celle-ci a été racontée dès 2002 dans le magazine Maximum PC, lorsque la rédaction s'est entretenue avec un responsable de la communication de Nvidia.

GeForce est en fait un mot-valise résultant de la contraction entre « Geometry » et « Force ». « À l'origine, GeForce signifiait Geometry Force, car il s'agissait de la toute première carte graphique pour PC à calculer la géométrie de la transformation et de l'éclairage, en déchargeant le processeur de cette fonction », expliquait alors Brian Burke, qui officie toujours chez Nvidia, mais a été appelé à d'autres fonctions.

Il faut en effet se rappeler que les cartes graphiques ont été inventées pour soulager les processeurs, en confiant aux premières toute la gestion de l'affichage vidéo, qui requiert beaucoup de puissance de calcul. Avec le temps, les cartes graphiques ont fortement évolué et sont aussi capables d'assurer le rendu d'images en 3D, ce qui est indispensable pour les jeux vidéo, les effets spéciaux ou en infographie.

Lorsque la GeForce 256 est sortie, celle-ci était la première du marché à être un véritable « processeur graphique » (d'où le nom de GPU, graphic processing unit, en anglais) doté de « moteurs intégrés de transformation, d'éclairage, de configuration/détourage des triangles et de rendu », pointe NvidiaC'est ce qu'on appelle le TCL (Transform, clipping, and lighting) dans le rendu des scènes en 3D.

Toujours selon Nvidia, sa GeForce 256 était capable alors de traiter au moins 10 millions de polygones par seconde. Aujourd'hui, les cartes graphiques contemporaines ont totalement changé d'échelle, car elles sont capables d'en traiter 7 milliards par seconde. C'est un écart d'un facteur 700. Tout ceci parait évidemment dérisoire en 2021, mais il faut se souvenir de l'impact de la carte graphique en 1999.

Dans un Pentium III (hé oui !), la carte et ses quatre moteurs TCL permettaient alors de calculer deux à quatre fois plus de triangles (à l'époque, les fameux polygones étaient une manière de comparer la qualité des jeux en fonction du nombre apparaissant à l'écran), permettant de détailler encore plus finalement les scènes 3D qui étaient de plus en plus courantes dans le jeu vidéo.