[DOSSIER] ATI/NVIDIA (Historique)

starjojotrek

Administrateur principal
Membre du Staff
attachment.php




Bonjour,

Nous connaissons tous l'importance du choix de la carte graphique dans nos configurations.
Le changement de la carte graphique peut, dans certains cas, être le seul facteur à modifier pour effectuer l'upgrade d'un matériel vieillissant.
Celle-ci dépend surtout de l'utilisation qui sera faite au niveau du rendu graphique.
En effet, un joueur sera attiré par une carte dit haut de gamme qui excelle dans le rendu vidéo avec des vitesses de calcul impressionnantes.
Une personne ne pratiquant que du travail de bureau n'aura besoin que d'une carte dit bas de gamme. Le rendu visuel n'étant pas la priorité majeure. Sachant que les cartes actuelles offrent des possibilités de travail de longue durée devant un écran sans trop fatiguer les yeux de l'utilisateur.
La marque de la carte en elle même importe que très peu. La grosse différence se situe surtout au niveau de la puce graphique. Deux possibilités s'offre à vous avec ATI et NVIDIA. Certains préfèrent l'une par rapport à l'autre surtout au niveau de l'interface utilisateur (les habitudes y sont pour beaucoup).


attachment.php




Voici un petit historique relatant les sorties des cartes qui ont révolutionné le monde informatique par la montée en puissance de celles-ci ainsi que l'évolution des technologies. Il ne s'agit pas de faire un comparatif entre les deux marques qui ont connu à tour de rôle des avancés les rendant meilleures l'une par rapport à l'autre avant que cet état ne soit inversé par la découverte et l'utilisation d'une nouvelle technologie.
L'historique commence à partir de l'utilisation de la 3D. Le topic va se présenter de la manière suivante :

Sommaire :

attachment.php
Présentation
attachment.php

attachment.php
Introduction
attachment.php

I. Les cartes graphiques 2D-3D
II. Les usages d'une carte graphique
III. Le processeur graphique
IV. La mémoire vidéo
V. Le RAMDAC
VI. Le BIOS vidéo
VII. La connectique
attachment.php
Historique des sociétés
attachment.php

ATI
NVIDIA
attachment.php
Au fil du temps
attachment.php

De 1987 à 2010
Les solutions bi GPU
attachment.php
Conclusion
attachment.php


Tuto réalisé par Seigneur Humungus
 

attachment.php



Depuis quelques années, deux géants, ATI et NVIDIA qui se livrent une guerre sans merci et qui nous plongent dans le cruel dilemme d'un choix, se partagent le marché des puces de cartes graphiques. Les cartes actuelles sont des monstres de technologie et de puissance et les deux concurrents ont chacun rencontré plus ou moins de succès au fil du temps.

attachment.php



Ces deux monstres commerciaux se lancent une guerre sans merci pour devenir le meilleur dans leur domaine.
Nous n'allons pas nous étendre sur le sujet, car dans la réalité, ni l'un ni l'autre n'est meilleur. ils le deviennent à tour de rôle grâce aux divers trouvailles qu'ils apportent à leurs systèmes. Ils se complêtent pour assurer les avancés que nous avons connu et que nous continuerons de connaître tant que ces deux géants de la technologie vivront.

Overclocking-PC vous propose ici de regarder par dessus notre épaule pour se remémorer le chemin parcouru et faire un petit voyage dans le temps...

Tuto réalisé par Seigneur Humungus
 

attachment.php



Une chose est certaine..., les cartes graphiques ont connu une évolution extraordinaire depuis ces quinze dernières années.
La configuration générale d'une carte graphique n'a pas vraiment changée depuis toutes ces années. Par contre, des éléments nouveaux se sont ajoutés afin de parfaire les rendus attendus dans les calculs ainsi que dans les restitutions visuelles.


I. Les cartes graphiques 2D-3D :

Les premières cartes graphiques ne pouvaient effectuer des calculs qu'en 2D et se connectaient sur un port ISA. Par la suite, le port PCI fût préféré pour augmenter la vitesse de transfert entre le CPU et la carte graphique.

Puis les cartes graphiques 2D-3D apparurent. L'avantage étant de n'occuper qu'un seul connecteur AGP ou PCI au lieu de deux (pour les configurations courantes de l'époque, c'est-à-dire avant 1998). En effet, jusqu'alors, les cartes 2D étaient proposées séparément des cartes dites accélératrice 3D (comme les premières 3dfx), chacune ayant un processeur graphique spécifique.

Aujourd'hui, toutes les cartes graphiques sont 2D-3D.

II. Les usages d'une carte graphique :

Ces 15 dernières années, les cartes graphiques ont fortement évolué. Autrefois, la fonction essentielle d'une carte graphique était de transmettre les images produites par l'ordinateur à l'écran. C'est encore sa fonction principale sur beaucoup de machines à vocation bureautique où l'affichage d'images en 3D n'offre que peu d'intérêt. Toutefois aujourd'hui même les cartes graphiques les plus simples gèrent aussi le rendu d'images en 3D. C'est une activité très coûteuse en termes de calculs et en termes de bande passante mémoire. Le GPU est donc devenu un composant très complexe, très spécialisé et presque imbattable dans sa catégorie (rendu d'images en 3 dimensions). Hormis pour les jeux vidéo ou quelques usages en infographie, les possibilités des cartes graphiques ne sont que très peu exploitées en pratique. Ainsi ce sont essentiellement les joueurs qui achètent et utilisent des GPU de plus en plus puissants.

Depuis quelques années, la puissance de calcul des cartes graphiques est devenue tellement importante pour un coût finalement très réduit (100 à 700€ pour les modèles grand public) que les scientifiques sont de plus en plus nombreux à vouloir en exploiter le potentiel dans d'autres domaines. Il peut s'agir de faire tourner des simulations de modèles météo, financiers ou toute opération parallélisable et nécessitant une très grande quantité de calcul. NVIDIA et ATI/AMD, les 2 principaux fabricants de cartes graphiques haute performance grand public proposent chacun des solutions propriétaires afin de pouvoir utiliser leur produit pour du calcul scientifique; pour NVIDIA, on pourra se référer au projet CUDA et pour AMD au projet ATI Stream. On parle à ce titre de General-purpose computing on graphics processing units (ou GPGPU)

III. Le processeur graphique :

Le processeur graphique (GPU pour Graphical Processing Unit, ou encore VPU pour Visual Processing Unit en anglais) sert à libérer le micro-processeur de la carte mère en prenant en charge les calculs spécifiques à l’affichage et la coordination de graphismes 3D ou la conversion YCbCr vers RGB.
Cette division des tâches entre les deux processeurs libère le processeur central de l’ordinateur et en augmente d’autant la puissance.
Le processeur graphique est très souvent muni de son propre radiateur ou ventilateur pour évacuer la chaleur qu’il produit.

IV. La mémoire vidéo :

La mémoire vidéo conserve les données numériques qui doivent être converties en images par le processeur graphique et les images traitées par le processeur graphique avant leur affichage.
Toutes les cartes graphiques supportent deux méthodes d'accès à leur mémoire. L'une est utilisée pour recevoir des informations en provenance du reste du système, l'autre est sollicitée pour l'affichage à l'écran. La première méthode est un accès direct conventionnel (RAM) comme pour les mémoires centrales, la deuxième méthode est généralement un accès séquentiel à la zone de mémoire contenant l’information à afficher à l'écran.

V. Le RAMDAC :

Le RAMDAC (Random Access Memory Digital-to-Analog Converter) convertit les images stockées dans la mémoire vidéo en signaux analogiques à envoyer à l’écran de l’ordinateur. Il est devenu inutile avec les sorties DVI (numériques).

VI. Le BIOS vidéo :

Le BIOS vidéo est à la carte graphique ce que le BIOS est à la carte mère. C’est un petit programme enregistré dans une mémoire morte (ROM) qui contient certaines informations sur la carte graphique (par exemple, les modes graphiques supportés par la carte) et qui sert au démarrage de la carte graphique.


attachment.php


VII. La connectique :

On peut retrouver les connexions suivantes selon les cartes graphiques :

Les interfaces analogiques :

  • L'interface VGA standard : les cartes graphiques sont la plupart du temps équipées d'un connecteur VGA 15 broches (Mini Sub-D, composé de 3 séries de 5 broches), généralement de couleur bleue, permettant notamment la connexion d'un écran CRT. Ce type d'interface permet d'envoyer à l'écran 3 signaux analogiques correspondant aux composantes rouges, bleues et vertes de l'image.
    L'interface Vidéo composite : Pour la sortie sur un simple téléviseur ou un magnétoscope.

  • L'interface S-Vidéo : De plus en plus de cartes sont équipée d'une prise S-Video permettant d'afficher ce signal sur une télévision ou un vidéo projecteur qui le permet.
    Cette sortie analogique est souvent livrée avec un adaptateur S-Video ⇒ Vidéo composite; c'est la raison pour laquelle elle est souvent appelée prise télé.

  • L'interface TV-Out sous la forme d'un connecteur mini DIN 6 broches (comme le port PS/2). Elle transmet les inforamtions vidéo et audio et est (était ?) utilisé par Nvidia et Winfast (par exemple la Winfast Geforce 2 TI)
Les interfaces numériques :

  • L'interface DVI (Digital Video Interface), présente sur certaines cartes graphiques, permet d'envoyer, aux écrans le supportant, des données numériques. Ceci permet d'éviter des conversions numérique-analogique, puis analogique numériques, inutiles.

  • Une interface HDMI permettant de relier la carte à un écran haute définition en transmettant également la partie audio (polyvalent, ce format est le remplaçant de la péritel). Le signal est un signal purement numérique.

  • Une interface DisplayPort, une interconnexion digitale audio/vidéo de nouvelle génération, sans droit et licence.
    Note : le DVI et le HDMI peuvent supporter les DRM.
Les modèles actuels associent généralement deux types d'interface: une interface pour la télévision (S-Vidéo ou HDMI) avec une interface pour écran d'ordinateur (VGA ou DVI).
Les évolutions de chacun des éléments de cette liste ont participé à ce que nous connaissons aujourd'hui.

Tuto réalisé par Seigneur Humungus
 
attachment.php




attachment.php



Array Technologies Incorporated est une grande compagnie spécialisée dans la production de microprocesseur pour carte graphique mais aussi de chipsets pour PC, de téléphones portables et de consoles de jeux vidéo.
Elle a été fondée en janvier 1985 à Markham au Canada par trois immigrants Chinois. Elle démarre comme société OEM, en concevant des circuits intégrés graphiques pour PC. Kwok Yuen Ho et ses compères, issus du milieu informatique, imaginent un logo blanc sur fond rouge.


attachment.php



NVIDIA est l'un des plus grands fournisseurs de processeurs graphiques, de cartes graphiques et de chipsets pour PC et consoles de jeux (Saturn, Xbox, PlayStation 3). Il s'agit d'une société dite fabless (qui conçoit, mais ne fabrique pas). La société a été fondée en janvier 1993 à Santa Clara, USA par Jen-Hsun Huang (ex LSI Logic et AMD), Chris Malachowsky (ex Hewlett-Packard et Sun Microsystems) et Curtis Priem (ex Sun Microsystems), le logo vert et blanc censé représenter un caméléon voit le jour.

Tuto réalisé par Seigneur Humungus
 
attachment.php


1987

Le manque de renommée de ATI rend ses débuts difficile mais l'EGA Wonder et la VGA Wonder voient le jour et la société commence à se faire une petite place dans le domaines des cartes d'extension.

attachment.php
EGA Wonder
attachment.php
VGA Wonder




1991

ATI sort la Mach 8 dotée de performance capable d'afficher 256 couleurs en 1024x768 et de travailler indépendamment du CPU.

attachment.php
Mach 8





1992

La grande sœur de la Mach 32, voit le jour, se montre capable d'afficher 65536 couleurs en 800x600 et propose une optimisation de la lecture MPEG (rend la lecture des films plus fluide), ATI ouvre cette même année une succursale à Munich et débute sa mondialisation.

attachment.php
Mach 32




1993

La société Canadienne se cote en bourse à Toronto et s'impose dans le domaine graphique.



1994

Arrivée de NVIDIA sur le marché.
Chez ATI la Mach 64 une carte capable d'afficher 65536 couleurs en 1024x768 ou 16 millions de couleurs en 800x600 un exploit pour l'époque!

attachment.php
Mach 64




1995

La première puce NVIDIA: la NV1 conçue pour la console Saturn de Sega reçoit un succès très mitigé car la technologie de la puce pose problème (bus PCI bridant la carte, et technologie d'optimisation 3D, le Quadratic Texture demandant une programmation spécifique). Face à ce manque de succès NVIDIA abandonnent le développement du NV2 et décide de se consacrer à la future génération.



1996

Apparition de la première carte 3D ATI : la 3D Rage (qui n'était cependant pas accélératrice 3D).

attachment.php
3D Rage





1997

NVIDIA sort la Riva 128 (nom de code NV3), mais reste en retrait sur le marché par rapport à 3DFX et ATI.
La 3D Rage Pro de ATI est doté d'un Setup Engine efficace et gére un nombre plus important de fonctions 3D que la Riva 128 de NVIDIA sa concurrente, c'est une carte abordable et connait un fort succès commercial. Cette même année ATI achète Tseg Labs et consolide sa place dans le domaine 2D/3D.

attachment.php
Riva 128
attachment.php
3D Rage Pro




1998

La Riva 128 ZX de NVIDIA propose le double de mémoire que sa petite sœur et un AGP 2x, un peu plus tard la Riva TNT ne parvient pas à détrôner 3DFX et sa Voodoo 2 qui est une véritable révolution dans le monde du jeu en 3D et la réelle première carte à gérer l'accélération 3D.
ATi se concentre sur le développement de sa prochaine carte basée sur un tout autre chipset.

attachment.php
Riva 128 ZX
attachment.php
Riva TNT




1999

ATI présente sa Rage 128 basée sur un bus AGP 2× (et plus tard 4×), la première carte à gérer le Z-buffer sur une profondeur de 32 bits proposant également une accélération matérielle totale pour la lecture de flux MPEG. Mais la carte rencontrent des problèmes de drivers car bugées et difficiles d'utilisation, elle fonctionne mal avec certains jeux, et le succès et finalement mitigé.
Six mois plus tard, la Rage Mobility et la Rage 128 Pro (qui est en fait une Rage overclockée) sortent mais ne rencontrent pas plus de succès.

attachment.php
Rage 128 Pro
attachment.php
Rage Mobility



La TNT 2 de NVIDIA arrive au printemps suivie à l'automne de la GeForce 256, qui est la première carte vidéo grand public à pouvoir prendre en charge l'intégralité des calculs graphiques.



2000

Au mois de janvier ATi propose la Rage Fury MaXX dotée de128 Mo de mémoire contre 64 Mo (la limite de l'époque) et de deux processeurs graphiques (pour un seul sur les autres cartes), munie d'une nouvelle technologie mise en avant par ATI: l'AFR (Alternate Frame Rendering) qui consiste à faire calculer alternativement une image sur deux a chaque processeur. Ces deux technologies s'avèrent décevantes car les jeux du moment n'en tire pas parti. Seuls quelques professionnels achetèrent cette carte pour les performances pures qu'elle offre dans ce domaine.
A l'été la Radeon 256 voit le jour et ATI se réaligne sur son concurrent NVIDIA et sa Geforce 2 GTS, bénéficiant du rachat de ArtX et de ses ingénieurs à l'origine des puces graphiques des Nintendo 64 puis de la Game Cube. Cette Radeon ne parvient pas à égaler sa concurrente dans tous les jeux, mais elle constitue un alternative intéressante car ATI est devant NVIDIA en termes de lecture vidéo

attachment.php
Rage Fury Maxx
attachment.php
Radeon 256




Le caméléon commercialise au printemps sa Geforce 2 GTS, et de ses déclinaisons: les Geforce 2 MX en entrée de gamme et les GeForce 2 Ultra pour le trés haut de gamme. Grâce à ces cartes NVIDIA frappe suffisamment fort pour écraser tous ses concurrents et rachète 3DFX le 16 décembre 2000.

attachment.php
Geforce 2 GTS
attachment.php
Geforce 2 Ultra




2001

Au mois de mars ATI rachète FireGL et entre dans le domaine professionnel. En juillet, elle s'approprie Hydravision, ces rachats successifs permettent au Canadien d'avoir plus de personnel compétent, et ainsi de se rattraper face à NVIDIA. A la rentrée la Radeon 8500 est lancée, elle rivalise sans peine avec la Geforce 3 mais connait des problèmes de drivers et laisse la part belle à NVIDIA

attachment.php
Radeon 8500




NVIDIA conserve son leadership grâce aux Geforce 3 (N20) et à quelques améliorations apportées à son N20 et sa Geforce 4, de meilleurs drivers et une meilleure renommée y contribuent.

attachment.php
Geforce 3




2002

C'est le début de l'année, ATI laisse le champ libre aux Geforce 3 et 4 et développe, avec la collaboration de Microsoft, un tout nouveau processeur graphique: le R300, basé sur une nouvelle architecture tirant partie du tout nouveau directX 9 pour donner naissance à la rentrée à la 9700 Pro. Les Geforce sont alors écrasées tant en termes de performances que de fonctionnalités.

attachment.php
Radeon 9700 Pro



NVIDIA se voit ravir sa place de leader de la 3D et réplique en sortant à la hate la Geforce FX, on parle de version bâclée, d'autant plus que cette carte offre des performances moindres que la 9700 Pro trés en avance sur son temps. Le NV30 est en retard alors NVIDIA sort des évolutions avec le NV28 et NV18 pour les "Ti" et "MX" consistant en un support DX9 et un AGP 8x.

attachment.php
Geforce FX




2003

ATI frappe de nouveau très fort avec la Radeon 9800 Pro, évolution de la 9700 et redoutable d'éfficacité sous DirectX 9. Son prix de 400 € baisse très vite pour un prix avoisinant les 200 € et elle devient un succès commercial sans précédent la classant au rang du mythe.

attachment.php
Radeon 9800 Pro



Le NV30 de NVIDIA est finalement sorti mais ne répond pas aux attentes des consommateurs et l'impasse est faite sur les FX 5800, arrivent donc les Geforce FX 5900, Geforce 5700 et le NV35, mais cette génération NV3x s'avère être un échec commercial pour NVIDIA.

attachment.php
Geforce 5700 Ultra





2004

Au début du second trimestre les deux concurrents abattent leurs cartes quasiment en même temps. ATI avec ses Radeon "X" (dérivées des 9800 Pro), X 800, X 800XT,PE, Pro, XL, GT, X850XT PE, X700XT et Pro, X600XT et Pro, X300, SE etc..

attachment.php
Radeon X850XT



NVIDIA lance sur le marché ses Geforce 6 basées sur une nouvelle architecture avec les 6800 Ultra (la plus puissante d'entre elles), 6800 GT, LE, 6600 GT, 6600, 6200, 6200 TC etc..
Les scores de ventes sont à peu prés comparables pour des rapports prix/performances égaux chez l'un comme chez l'autre.

attachment.php
Geforce 6800GT




2005

Le nouveau processeur graphique ultra haut de gamme du caméléon annoncé en avril, la Geforce 7800 GTX qui reprend l'architecture de la 6800, ne sort finalement qu'à l'automne, NVIDIA annonce au cours de l'E3 qu'il va équiper les Playstation 3 de Sony avec le RSX (Reality Synthetizer) annoncé aussi performant que deux GeForce 6800 en SLI.

attachment.php
Geforce 7800GTX




La X 1800 de ATI quand à elle est reportée pour le mois d'octobre, et cette fois ci c'est ATI qui change complètement d'architecture pour cette carte.

attachment.php
Radeon X1800XL




2006

La Radeon X1900 GT est basé sur l'architecture X 850. C'est le même chipset que sur les cartes X1900XT et XTX, situées plus haut dans la gamme. Ce chipset concurrence parfaitement les GeForce.
En juillet AMD rachète ATi pour 5,4 milliards de dollars.

attachment.php
Radeon X1900 GT



La 7900 GT que NVIDIA vient de sortir et les performances vis a vis des cartes ATI sont similaires.

attachment.php
Geforce 7900 GT




2007

La génération des cartes Radeon HD 2000 (R600) est lancée par ATI en mai avec une version haut de gamme nommée HD 2900 XT. Fin juin, des versions HD 2600 et HD 2400 sont introduites, en modèles milieu et entrée de gamme. Par rapport à la génération précédente, ces nouvelles séries apportent principalement le support de DirectX 10.

attachment.php
Radeon HD2000



Les GeForce 8600GTS, 8600GT et 8500GT de Nvidia sont basées sur le G84 et visent le milieu de gamme. Le GeForce 8500GT, basé quant à lui sur le G86, couvre à la fois le bas de gamme et le milieu de gamme.

attachment.php
Geforce 8600 GT




2008

Chez NVIDIA les puces graphiques GeForce 9 (G90, G92) prennent en charge la norme PCI-Express 2.0, les DirectX 10.1 et les Shader Model 4.1. C'est un modèle haut de gamme répondant au nom de code D9E, E pour Enthusiast, gravé en 65 nanomètres qui ouvre le bal au mois de février 2008. Un milieu de gamme porte le nom de code D9P, P pour Performance, et bénéficiant d'une finesse de gravure à 55 nanomètres sort au mois de juin 2008. Notons que certaines Geforce 8 comme la 8800 GT (GTS, GTX..) reçoivent une puce G92 gravée en 55 nm et que les Geforce 9 en sont une évolution.

attachment.php
Geforce 9800 GTX



ATI lance son nouveau GPU RV635, successeur du RV630 qui équipait les Radeon HD 2600 Pro et XT, ce sont les Radeon HD 3670 et Radeon HD 3650. Le RV635 est gravé en 55 nm contre 65 pour le RV630 ce qui permet d'abaisser les couts de production (moins de matière pour produire une puce). Ces cartes sont disponibles en janvier pour la Radeon HD 3670 et en février pour la Radeon HD 3650.

attachment.php
Radeon HD 3650



2009


Nous y étions il y à encore quelques mois, nous connaissons tous les dernières séries de cartes graphiques proposées par ces deux géants du marché de la 3D.

ATI avec ses Radeon HD4XXX mono et bi GPU à bases de puces RV700 (RV770, RV790 en 55 nm) et de l'autre coté NVIDIA avec les GTX 260, 275, 280, 285 et 295 pour le bi GPU, dans un premier temps à base de puces GT200 à 55 nm.



2010!


L'histoire continue de s'écrire, NVIDIA cette année à pris du retard avec son Fermi (Tesla) et ses solutions graphiques pour super calculateurs, mais devrait revenir dans la course face à son principal concurrent avec ses futures GTX 4XX.
ATI frappe très fort avec ses Radeon HD5XXX compatibles DX11, permettant de brancher 6 écrans (displayport) avec l'Eyefinity, la finesse de ravure à 40 nano métres du GPU apportant un gain d'énérgie et de température, gagnant en silence, et a un très bon rapport qualité prix.




Les solutions Bi GPU:


Nous ne pouvions pas conclure ce voyage dans le temps sans parler des solutions graphiques employant deux GPU.
Revenons à l'année 2006 ou ATI commence à proposé des cartes munies de deux processeurs graphiques à base de X1650XTet ensuite de HD2600.

attachment.php
Radeon
HD2600 Dual



C'est au mois de janvier 2008 que ATI lance officiellement sa HD3870X2 une carte joignant deux puces sur le même PCB accompagnée chacune de 512 Mo de GDDR3. ATI compte ainsi rattraper le retard accumulé face au solution milieu et haut de gamme de NVIDIA avec ses GeForce 8800, le R600 des Canadiens ne parvenant pas à rivaliser avec les puces G90 et G92 du caméléon.

attachment.php
Radeon HD3870X2





Ce n'est que lors du CES 2009 à Las Vegas que NVIDIA à présenté sa première solution graphique bi GPU avec sa Geforce 295 GTX, une carte qui pour les premières séries se compose de deux PCB placés face à face animés par deux puces GT200 gravées en 55 nm.
Il faudra attendre quelques mois pour voir arriver les premières 295 GTX single PCB prendre la place des premières séries.​




attachment.php
Geforce 295 GTX bi PCB
attachment.php
Geforce 295 GTX single PCB




ATI quand à eux n'en sont plus à leur coup d'essai et annonçait déjà en 2008 l'arrivée de sa HD4870X2 une carte basée sur deux puces RV770 cadencées chacune à 750MHz, le tout embarquant 2Go de RAM de mémoire vidéo en DDR5.​

attachment.php
Radeon HD4870X2


Tuto réalisé par Seigneur Humungus
 
attachment.php



Comme nous avons pu le constater, le marché du traitement graphique est en perpétuelle évolution, les technologies employées permettent d'obtenir les images 3D d'un jeu vidéo d'un réalisme extraordinaire, de regarder des vidéos en qualité haute définition, ou encore d'employer maintenant jusqu'à six écrans simultanément, tout cela pour notre plus grand plaisir!
Les plus vieux d'entre nous se souviendrons peut être de Pong, de Pac-Man ou autre Space Invaders j'en passe et des meilleurs! quel chemin parcouru à la vue des derniers Jeux vidéo actuels, tout ça en à peine plus de 20 ans.

attachment.php
Pong.
attachment.php
Pac-Man.
attachment.php
Space Invaders.

Le combat que se mène NVIDIA et ATI pour être le meilleur dans le domaine 3D est loin d'être fini. Avec l'avenement du GPGPU le processeur graphique s'impose comme un acteur important du calcul parallèle, preuve que nous n'avons pas nous même fini d'être en tant que concommateurs utilisateurs, les spéctacteurs bénéficiaires du combat que se méne ces deux géants.

attachment.php
Half-Life.
attachment.php
Age of Mythologie.

Donnons nous rendez vous dans 20 ans pour jeter à nouveau un regard en arrière, et apréhender la technologie d'aujourd'hui comme un Pong de l'époque.

-------------------------------------------------------------------------


Merci à thorgal pour son aimable collaboration à l'élaboration de ce dossier.


-------------------------------------------------------------------------

Tuto réalisé par Seigneur Humungus
 
:pouce1-1a0b::pouce1-1a0b::pouce1-1a0b:Super Seigneur, tu t'es déchirré sur ce coup:icon_clap1-1a1655::icon_clap1-1a1655:

On s'occupe bien quand on a plus de tunes:mdr3::mdr-21487:
 
Merci à tous, bravo et merci aussi à Thorgal qui m'a filé un bon coup de main et sans qui ce dossier ne serait pas aussi joli, l'introduction n'est pas de moi non plus, c'est un travail collaboratif :icon_wink-221e:
 
Très bon dossier , bravo cher SH :icon_clap1-1a1655: , avec tes photos modifiées et tout ca le fait grave !!! , ce n'est pas un simple copier/collé ^^ , enfin ... je parle pour certaines photos ! :023:
 
Pour les photos je n'ai fait que les recherches , le détourage, les modifications et la mise en page sont de Thorgal, c'est lui qu'il faut féliciter :sourire-4e62:
 
-Pour moi dans GPU, le G signifie plutôt Graphics.
-Tu devrais préciser que ROM signifie "Read Only Memory".
-Les Tesla pour les pros sont finis (apparemment ils ont de gros soucis pour les particuliers).
-Petites fautes d'orthographe.
-Très bon topic.
-Pas fait à la va-vite (faut voir la différence de date entre les premiers posts).
-Bien structuré.

Tu nous en ponds un deuxième?
 
Très bon dossier :pouce1-1a0b: Dommage cependant qu'il n'y ai pas la 8800 qui a été vraiment une carte surprenante et performante
 
Les 8800 ont marqué un tournant en effet. On pouvait enfin jouer à LII sur un serveur privé full en raid sans laguer.
 
Retour
Haut