Aller au contenu

« Nvidia » : différence entre les versions

Un article de Wikipédia, l'encyclopédie libre.
Contenu supprimé Contenu ajouté
informations supplementaires
m ponctu, ortho (diffedit)
 
(195 versions intermédiaires par 89 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
{{Coord|37|22|14.62|N|121|57|49.46|W|type:landmark_source:enwiki|display=title}}
{{Coord|37|22|14.62|N|121|57|49.46|W|type:landmark_source:enwiki|display=title}}
{{à sourcer|date=mai 2016}}
{{Infobox Société
{{Infobox Société
| couleur boîte = 74B71B
| couleur boîte = 74B71B
Ligne 6 : Ligne 5 :
| logo = Nvidia (logo).svg
| logo = Nvidia (logo).svg
| légende =
| légende =
| slogan = The way it's meant to be played
| slogan =
| forme juridique = SA
| forme juridique = SA
| action = {{nasdaq|NVDA}}
| action = {{nasdaq|NVDA}}
| date de création = [[1993]]
| date de création = 5 avril 1993
| date de disparition =
| date de disparition =
| dates-clés =
| dates-clés =
Ligne 17 : Ligne 16 :
| siège (pays) = États-Unis
| siège (pays) = États-Unis
| direction actuelle =
| direction actuelle =
| secteurs d'activités = [[Microprocesseurs]]<br/>[[Électronique]]
| secteurs d'activités = [[Microprocesseurs]]<br/>[[Électronique numérique]]
| produits = [[Carte graphique|Cartes graphiques]]<br/>[[Carte mère|Cartes mères]]<br/>[[Chipset]]<br/>[[Processeur]]
| produits = [[Carte graphique|Cartes graphiques]]<br/>[[Carte mère|Cartes mères]]<br/>[[Chipset]]<br/>[[Processeur]]
| société mère =
| société mère =
Ligne 23 : Ligne 22 :
| filiales =
| filiales =
| actionnaires =
| actionnaires =
| effectif = 11 528 (janvier 2018)
| effectif = 26 196 (2023)
| chiffre d'affaires = {{augmentation}} {{nombre|10.46|milliards}} [[United States dollar|US$]] (2019)<ref name="boursorama_nvidia">[https://www.boursorama.com/cours/societe/chiffres-cles/NVDA/ NVIDIA sur boursorama.fr]</ref>
| chiffre d'affaires = {{augmentation}} {{nombre|60,9|milliards [[United States dollar|US$]]}} <small>(2023)</small><ref name="resultats_2023">{{Lien web |langue=fr |titre=Nvidia sur le podium des plus grandes capitalisations mondiales, bientôt n°1 ? |url=https://investir.lesechos.fr/actu-des-valeurs/la-vie-des-actions/nvidia-sur-le-podium-des-plus-grandes-capitalisations-mondiales-bientot-n1-2080258 |site=Investir |date=2024-03-04 |consulté le=2024-03-07}}</ref>
| évolution du CA =
| évolution du CA = {{Variationsimple|26974|60922|0}}
| somme du bilan (banques) =
| somme du bilan (banques) =
| primes brut (assurances) =
| primes brut (assurances) =
| résultat net = {{augmentation}} {{nombre|3.49|milliards}} [[United States dollar|US$]] (2019) <ref name="boursorama_nvidia" />
| résultat net = {{augmentation}} {{nombre|29,8|milliards [[United States dollar|US$]]}} <small>(2023)</small><ref name="resultats_2023" />
| évolution du résultat net =
| évolution du résultat net = {{Variationsimple|4368|29760|0}}
| fonds propres =
| fonds propres =
| dette =
| dette =
| capitalisation boursière = {{nombre|153465|millions}} [[United States dollar|US$]] (2019) <ref name="boursorama_nvidia" />
| capitalisation boursière = {{nombre|3179|milliards [[United States dollar|US$]]}} (14 juillet 2024)<ref>{{lien web |titre=Cours action Nvidia NVDA |url=https://companiesmarketcap.com/nvidia/marketcap/ |site=companiesmarketcap.com |consulté le=14-07-2024}}.</ref>
| site web = [http://www.nvidia.fr nvidia.fr]
| site web = [https://www.nvidia.com nvidia.com]
| nom et logo =
| nom et logo =
| date de mise à jour =
| date de mise à jour = 07/03/2024
}}
}}
'''Nvidia Corporation''' est une entreprise spécialisée dans la conception de [[Processeur graphique|processeurs graphiques]], de [[Carte graphique|cartes graphiques]] et de puces graphiques pour [[Compatible PC|PC]] et [[Console de jeux vidéo|consoles de jeux]] ([[Xbox]], [[PlayStation 3]], [[Nintendo Switch]]). Son siège est à [[Santa Clara (Californie)|Santa Clara]] en [[Californie]] aux [[États-Unis]].


Nvidia est une société ''de type « {{lang|en|[[fabless]]}} »'', c'est-à-dire qu'elle conçoit ses [[Circuit intégré|puces]] dans ses centres de recherches, mais qu'elle sous-traite leur production à d'autres sociétés de [[semi-conducteur]]s<ref group="Note">Par exemple, dans le passé, Nvidia a utilisé les capacités de production de sociétés comme [[International Business Machines Corporation|IBM]], Microelectronics ou l'européen [[STMicroelectronics]]. Actuellement, Nvidia sous-traite sa production aux grands [[Fonderie (électronique)|fondeurs]] actuels comme les [[taïwan]]ais [[Taiwan Semiconductor Manufacturing Company|TSMC]] (Taiwan Semiconductor Manufacturing Company, Limited) ou [[United Microelectronics Corporation|UMC]] (United Microelectronics Corporation).</ref>.
'''Nvidia Corporation''' est une société multinationale [[États-Unis|américaine]] de technologie basée à [[Santa Clara (Californie)|Santa Clara]] et immatriculée dans l'État du [[Delaware]]. Il s'agit d'un [[éditeur de logiciel|éditeur de logiciels]] et d'une [[Fabless|entreprise sans usine]] qui conçoit des [[Processeur graphique|processeurs graphiques]], des [[interface de programmation|interfaces de programmation d'applications]] (API) pour la [[science des données]] et le [[calcul intensif]], ainsi que des [[système sur une puce|systèmes sur une puce]] (SoC) pour les marchés de l'[[informatique mobile]] et de l'[[automobile]]. Elle conçoit ses [[Circuit intégré|puces]] dans ses centres de recherches, mais sous-traite leur production à d'autres sociétés de [[semi-conducteur]]s<ref group="Note">Par exemple, dans le passé, Nvidia a utilisé les capacités de production de sociétés comme [[IBM]], Microelectronics ou l'européen [[STMicroelectronics]]. Actuellement, Nvidia sous-traite sa production aux grands [[Fonderie (électronique)|fondeurs]] comme les [[Taïwan|taïwanais]] [[Taiwan Semiconductor Manufacturing Company|TSMC]] (Taiwan Semiconductor Manufacturing Company, Limited) ou [[United Microelectronics Corporation|UMC]] (United Microelectronics Corporation).</ref>.


Sa gamme professionnelle de processeurs graphiques est utilisée dans les [[stations de travail]] pour des applications dans des domaines tels que l'[[architecture]], l'[[ingénierie]] et la construction, les médias et le divertissement, l'automobile, la recherche scientifique et la conception manufacturière<ref>{{lien web |auteur1=Ryan Smith |titre=Quadro no more? nvidia announces ampere-based rtx a6000 & a40 video cards for pro visualization |url=https://www.anandtech.com/show/16137/nvidia-announces-ampere-rtx-a6000-a40-cards-for-pro-viz |site=anandtech.com |date=05-10-2020 |consulté le=07-10-2023}}.</ref>.
Nvidia conçoit principalement des circuits graphiques allant du modèle pour ''[[netbook]]'' ([[Nvidia Ion|Ion]]) aux puissants modèles destinés aux [[gamer|joueur]]s ([[GeForce]]), et même au monde professionnel ([[Nvidia Quadro|Quadro]] et autres).


Ses principaux concurrents sont [[Advanced Micro Devices|AMD]] (anciennement [[ATI Technologies|ATI]])<ref>{{Lien web |titre=Les cartes graphiques ATI vont disparaître |url=http://www.01net.com/editorial/520342/les-cartes-graphiques-ati-vont-disparaitre/ |site=[[01net (site web)|01net]].com |brisé le=2023-11-27}}.</ref>{{,}}<ref name="bourse2019">{{Lien web |auteur=Clémence Tanguy |titre=Nvidia en Bourse : analyse du leader de cartes et processeurs graphiques |url=https://www.cafedelabourse.com/actualites/nvidia-bourse-analyse-leader-cartes-processeurs-graphiques |site=cafedelabourse.com |date=12 Juin 2019 |consulté le=21 Juin 2023}}.</ref>, [[Intel Corporation|Intel]] et [[Qualcomm]]<ref>{{Lien web |titre=Quels sont les principaux concurrents d’AMD ? |url=https://news.chastin.com/quels-sont-les-principaux-concurrents-damd/ |site=news.chastin.com |date=2023 |consulté le=21 Juin 2023}}.</ref>{{,}}<ref>{{Lien web |auteur=Andy Patrizio |titre=Attaqué, Intel se défend sur plusieurs fronts |url=https://www.lemondeinformatique.fr/actualites/lire-attaque-intel-se-defend-sur-plusieurs-fronts%C2%A0%C2%A0-84302.html |site=lemondeinformatique.fr |date=29 septembre 2021 |consulté le=21 Juin 2023}}.</ref>. Nvidia est un acteur [[Domination|dominant]] dans le matériel utilisé pour des projets d'[[intelligence artificielle]]<ref>{{lien web |langue=en |auteur1=Sharon Goldman |titre=How Nvidia dominated AI — and plans to keep it that way as generative AI explodes |url=https://venturebeat.com/ai/how-nvidia-dominated-ai-and-plans-to-keep-it-that-way-as-generative-ai-explodes/ |site=venturebeat.com |date=23-02-2023 |consulté le=07-10-2023}}.</ref>{{,}}<ref>{{lien web |langue=en |titre=Why NVIDIA Has Become a Leader in the AI Market |url=https://www.datamation.com/artificial-intelligence/why-nvidia-leader-ai-market/ |site=Datamation |date=18-01-2022 |consulté le=07-10-2023}}.</ref>.
Ses principaux concurrents sont [[Advanced Micro Devices|AMD]] (anciennement ''[[ATI Technologies|ATI]]'')<ref>{{Lien web|url=http://www.01net.com/editorial/520342/les-cartes-graphiques-ati-vont-disparaitre/|titre=Les cartes graphiques ATI vont disparaître|site=01net.com}}</ref>, [[Intel Corporation]] et [[Qualcomm]].


L'entreprise est constituée en avril 1993 dans l'État de [[Californie]], avant de rejoindre le Delaware en 1998<ref>{{lien web |langue=en |titre=FAQs |url=https://investor.nvidia.com/investor-resources/faqs/default.aspx |site=nvidia.com |consulté le=07-10-2023}}.</ref>.
== Histoire ==
[[Fichier:Nvidia gf4mx440 se.jpg|thumb|Le processeur d'une Nvidia GeForce 4 (2005)]]
[[Image:RIVA 128ZX GPU.jpg|thumb|Image du processeur de la RIVA 128ZX]]
[[Image:RIVA TNT2 VANTA GPU.jpg|thumb|Processeur de la RIVA TNT2]]
[[Fichier:Gtx260.jpg|thumb|La GeForce GTX 260.]]
[[Image:Quadro SGI VPro VR3.jpg|thumb|Exemple d'une carte Quadro (SGI VPro VR3)]]
[[File:3-way-SLI.jpg|thumb|Exemple de SLI avec trois cartes (''3-way SLI'')]]


== Historique de la société ==
Nvidia a été fondée à [[Santa Clara (Californie)|Santa Clara]] en {{date||avril|1993}} par<ref>{{Lien web|langue=|titre=This Man Is Leading an AI Revolution in Silicon Valley—And He’s Just Getting Started|url=http://fortune.com/2017/11/16/nvidia-ceo-jensen-huang/|site=fortune.com|date=16 novembre 2017|consulté le=}}</ref> :
=== Création ===
* {{lien|Jensen Huang}}, ancien employé de [[LSI Logic]] et [[Advanced Micro Devices|d'AMD]] (en tant que [[Conception de circuits intégrés|designer]] de microprocesseurs), actuellement PDG, américain d'origine taïwanaise, né à Tainan (sud de Taiwan);
Nvidia est fondé le {{date|5 avril 1993}}<ref>{{Lien web |langue=en-us |titre=NVIDIA Corporation: History |url=https://www.nvidia.com/en-us/about-nvidia/corporate-timeline/ |site=Nvidia |consulté le=2024-09-17}}.</ref> à [[Santa Clara (Californie)|Santa Clara]] par<ref>{{Lien web|titre=This Man Is Leading an AI Revolution in Silicon Valley—And He’s Just Getting Started|url=http://fortune.com/2017/11/16/nvidia-ceo-jensen-huang/|site=fortune.com|date=16 novembre 2017}}.</ref> :
* {{lien|Chris Malachowsky}}, ancien employé de [[Hewlett-Packard]] et de [[Sun Microsystems]], actuellement Vice-Président ;
* [[Jensen Huang]], ancien employé de [[LSI Logic]] et [[Advanced Micro Devices|AMD]] (en tant que [[Conception de circuits intégrés|designer]] de microprocesseurs), actuellement PDG, américain d'origine taïwanaise, né à Tainan (sud de Taiwan) ;
* {{lien|Chris Malachowsky}}, ancien employé de [[Hewlett-Packard]] et [[Sun Microsystems]], actuellement vice-président ;
* {{lien|Curtis Priem}}, ancien employé de Sun Microsystems, actuellement directeur technique.
* {{lien|Curtis Priem}}, ancien employé de Sun Microsystems, actuellement directeur technique.


Ils baptisent la société Nvidia, et la dotent d'un logo vert et blanc représentant un œil stylisé. Nvidia conserve son statut de ''[[startup]]'' jusque vers les années 1997-1998, lorsqu'elle prend de l'importance pour devenir peu à peu un acteur majeur sur le marché des processeurs graphiques, notamment avec le lancement des puces graphiques ''Riva'' pour PC.
La société est baptisée Nvidia, avec un [[Logotype|logo]] vert et blanc représentant un œil stylisé. L'entreprise conserve son statut de ''[[startup]]'' jusque vers les années 1997-1998, lorsqu'elle prend de l'importance pour devenir peu à peu un acteur majeur sur le marché des processeurs graphiques, notamment avec le lancement des puces graphiques [[Riva TNT|Riva]] pour PC.


La société est aussi surnommée, du fait de son logo, la « marque au caméléon »<ref>[https://www.sudouest.fr/2019/04/25/nvidia-muscle-son-entree-de-gamme-avec-la-geforce-gtx-1650-6017291-4725.php Nvidia muscle son entrée de gamme avec la GeForce GTX 1650], ''[[Sud Ouest]]'', {{date|25 4 2019}} (consulté le 24 septembre 2020).</ref>{{,}}<ref>[https://www.clubic.com/article-249016-1-nvidia-geforce-gtx-295.html NVIDIA GeForce GTX 295 : le retour du caméléon], [[Clubic]], 9 janvier 2009 (consulté le 24 septembre 2020).</ref>{{,}}<ref>[https://www.lesmobiles.com/actualite/9156-nvidia-des-resultats-financiers-en-hausse-le-cameleon-a-pris-la-couleur-d-android.html Nvidia : des résultats financiers en hausse, le caméléon a pris la couleur d'Android], lesmobiles.com, {{date|9 11 2012}} (consulté le 24 septembre 2020).</ref>.
En 1994, premier partenariat stratégique conclu avec [[SGS Thomson|SGS-THOMSON]].


=== Années 1990 ===
En [[1995]], Nvidia lance sa première puce la ''NV1'', qui connaîtra un succès très mitigé. À cause de son côté « tout en un », d'abord (puce 2D/3D « potable », avec émulation sonore et contrôleur de pad Sega) et ensuite parce qu'elle est dédiée à [[Microsoft Windows 95|Windows 95]]. De plus, la technologie même de la puce posait problème. Par exemple, le bus PCI bridait la carte et la technologie spécifique utilisée, le Quadratic Texture Map (QTM), un genre de technologie d'optimisation pour la 3D, nécessitait une programmation spécifique, qui ne sera jamais véritablement adoptée du fait du manque de notoriété de Nvidia à l'époque<ref name="NV1" />. La ''NV2'' n'aura jamais vu le jour car elle était également basée sur le QTM, et Nvidia préférera l'abandonner pour se consacrer à la génération suivante de puces.


En 1994, Nvidia conclut son premier partenariat stratégique avec [[STMicroelectronics|SGS-Thomson Microelectronics]] pour la fabrication d'une puce d'accélération pour interface graphique. Le groupe Diamond Multimedia Systems installe les puces sur les cartes<ref name="ref_auto_1">https://www.nvidia.com/fr-fr/about-nvidia/corporate-timeline/</ref>{{refnc|date=août 2024}}.
À l'automne 1997, Nvidia lance la ''RIVA 128'', une puce graphique (nom de code : ''NV3)''. De nombreux [[Original Equipment Manufacturer|OEM]], attirés par l'esprit tout en un qui avait rebuté avec la ''NV1'', décident alors d'utiliser cette carte. Malgré tout, Nvidia reste derrière [[3dfx]] et [[ATI Technologies|ATi]].


En 1995, l'entreprise lance sa première puce graphique, la [[NV1]]<ref name="15ans">{{Lien web |titre=15 ans de cartes graphiques NVIDIA en images |url=https://www.tomshardware.fr/15-ans-de-cartes-graphiques-nvidia-en-images/ |site=[[Tom's Hardware]] |date=21/04/2010 |consulté le=21 Juin 2023}}.</ref> à gravure en {{unité|500 nm}}, qui connaîtra un succès très mitigé. À cause de son côté « tout en un », d'abord (puce 2D/3D « potable », avec émulation sonore et contrôleur de pad Sega) et ensuite parce qu'elle est dédiée à [[Microsoft Windows 95|Windows 95]]. De plus, la technologie même de la puce posait problème. Par exemple, le [[bus PCI]] bridait la carte et la technologie spécifique utilisée, le Quadratic Texture Map (QTM), un genre de technologie d'optimisation pour la 3D, nécessitait une programmation spécifique, qui ne sera jamais véritablement adoptée du fait du manque de notoriété de Nvidia à l'époque<ref name="NV1" />. La NV2 n'aura jamais vu le jour, car elle était également basée sur le QTM, et Nvidia préférera l'abandonner pour se consacrer à la génération suivante de puces.
En {{date||avril|1998}}, la sortie de la ''RIVA 128 ZX'', qui dispose du double de la mémoire de la ''RIVA 128'' et d'un port [[Accelerated Graphics Port|AGP]] 2×<ref name="RIVA 128ZX">{{lien web|url=http://www.tomshardware.com/reviews/nvidia-announces-riva-128zx,58.html|titre= Nvidia Announces RIVA 128ZX|date=24 février 1998|éditeur=}}</ref> propulse Nvidia sur le devant de la scène. De plus, Nvidia signe un partenariat avec l'entreprise Taïwanaise [[Taiwan Semiconductor Manufacturing Company|TSMC]]. En {{date-|septembre 1998}}, Nvidia sort la ''Riva TNT'' qui, malgré les promesses, reste moins puissante que la ''Voodoo 2''<ref group="Note">Il s'agit d'une période confuse dans le domaine de la 3D, avec des problèmes aussi chez ATI Technologies|ATi, qui ne parvient pas à sortir ses cartes dans les délais et aux performances annoncées.</ref> de 3dfx.


À l'automne 1997, l'entreprise lance la {{lien|RIVA 128}}<ref name="histoire2023">{{Lien web |auteur=Nil Sanyas |titre=L'histoire de NVIDIA |url=https://www.nextinpact.com/archive/l-histoire-de-nvidia |site=[[NextInpact]] |date=1 décembre 2003 |consulté le=21 juin 2023|brisé le = 2023-11-27}}.</ref>, une puce graphique gravée à {{unité|350 nm}} (nom de code : NV3). De nombreux [[Original Equipment Manufacturer|OEM]], attirés par l'esprit tout en un qui avait rebuté avec la NV1, décident alors d'utiliser cette carte qui est vendue à un million d'unités en quatre mois<ref name="ref_auto_1" />{{refnc|date=août 2024}}. Malgré tout, Nvidia reste derrière [[3dfx]] et [[ATI Technologies|ATi]].
En {{date||janvier|1999}}, Nvidia fait son entrée sur le [[NASDAQ|Nasdaq]]. Au printemps 1999 arrive la puce ''TNT 2'', suivie à l'automne par la ''GeForce 256'', la première carte vidéo grand public à pouvoir prendre en charge l'intégralité des calculs graphiques. En mai, elle atteint les {{nombre|10|millions}} de puces vendues.


En {{date|avril 1998}}, la sortie de la RIVA 128 ZX, qui dispose du double de la mémoire de la RIVA 128 et d'un port {{nobr|[[Accelerated Graphics Port|AGP]] 2×}}<ref name="RIVA 128ZX">{{lien web|url=http://www.tomshardware.com/reviews/nvidia-announces-riva-128zx,58.html|titre= Nvidia Announces RIVA 128ZX|date=24 février 1998}}.</ref> propulse la société sur le devant de la scène. De plus, elle signe un partenariat avec l'entreprise de fonderie taïwanaise [[Taiwan Semiconductor Manufacturing Company|TSMC]]. En {{date|septembre 1998}}, Nvidia sort la Riva TNT qui, malgré les promesses, reste moins puissante que la Voodoo 2<ref group="Note">Il s'agit d'une période confuse dans le domaine de la 3D. Des problèmes apparaissent aussi chez [[ATI Technologies|ATi]], qui ne parvient pas à sortir ses cartes dans les délais et aux performances annoncées.</ref> de 3dfx.
En 2000, Nvidia achète son concurrent, [[3dfx]], alors chef de file de l'industrie. Au printemps 2000, c'est au tour de la ''GeForce 2 GTS'' d'apparaître. À l'automne 2000, une déclinaison d'entrée de gamme et une très haut de gamme de la ''GeForce 2'' sortent, les ''GeForce 2 MX'' et les ''GeForce 2 Ultra''. À partir de cette date, tous les processeurs graphiques seront commercialisés sous la marque [[GeForce]].


En {{date|janvier 1999}}, la société fait son entrée sur le [[NASDAQ]]. Au printemps 1999, arrive la puce {{lien|RIVA TNT2}}<ref name="histoire2023"/> à gravure {{unité|250 nm}}, suivie à l'automne par la [[GeForce 256]], dotée de la puce NV10 gravée à {{unité|220 nm}}, la première carte vidéo GPU grand public à pouvoir prendre en charge l'intégralité des [[Carte graphique|calculs graphiques]]. En mai, elle atteint les dix millions de puces vendues.
En 2001, ATi sort sa ''Radeon 8500''. Nvidia réplique faiblement, en apportant quelques optimisations à sa ''N20'' (''GeForce 4''), une maigre évolution. Néanmoins, Nvidia parvient à conserver sa domination grâce aux problèmes d'ATi avec les pilotes et une renommée bien plus forte à l'époque.
<gallery>
Fichier:RIVA 128ZX GPU.jpg|Processeur RIVA 128ZX (1998).
Fichier:RIVA TNT2 VANTA GPU.jpg|Processeur RIVA TNT2 (1999).
File:VisionTek GeForce 256.jpg|GeForce 256 (1999).
</gallery>


=== Années 2000 ===
En {{date||février|2002}}, Nvidia a vendu {{nombre|100|millions}} de processeurs graphiques. Nvidia vend aussi directement des cartes graphiques équipées de ses processeurs.
{{Section à sourcer|date=août 2023}}
En 2000, Nvidia achète son concurrent [[3dfx]], alors chef de file de l'industrie de ce secteur mais en faillite<ref name="histoire2023"/>. Début 2000, l’utilisation sur certaines cartes de mémoire [[DDR SDRAM]] ({{anglais|Double Data Rate}} SDRAM) à la place de mémoire SDRAM classique permet aux {{nobr|GeForce 256}} de largement surclasser la concurrence du moment. Au printemps 2000, la {{lnobr|GeForce 2|GeForce 2 GTS}} apparaît, dotée de la puce NV15. À l'automne 2000, une déclinaison d'entrée de gamme et une autre de très haut de gamme de la {{nobr|GeForce 2}} sortent, les {{nobr|GeForce 2 MX}} (puce NV11), une version allégée de la {{nobr|GeForce 2 GTS}}, et les {{nobr|GeForce 2}} Ultra, cadencées à {{unité|250 MHz}} au lieu de {{unité|200 MHz}}. Nvidia sort aussi la {{nobr|GeForce 2 Pro}}, constituée d’une {{nobr|GeForce 2 GTS}} normale équipée de meilleure mémoire.


En 2001, [[ATI Technologies|ATI]] sort sa carte graphique [[Radeon#Les premières Radeon : 7000 et 8000 (2000-2002)|Radeon 8500]]. Nvidia commercialise en ce temps les {{nobr|GeForce 3}} (puces NV20 à microachitecture {{Lien|Kelvin (microarchitecture)|texte=Kelvin}} à gravure de {{unité|150 nm}}), qui sont les premières cartes à comprendre des unités programmables ({{anglais|shaders}}). Le processeur graphique de la console [[Xbox (console)|Xbox]] de [[Microsoft]] (première du nom) est un {{nobr|Nvidia NV2A}}, variante du NV20 adaptée aux consoles par des fonctions et des performances améliorées<ref>https://www.gamespot.com/articles/inside-the-xbox-gpu/1100-2764159/</ref>{{refnc|date=août 2024}}. Nvidia réplique faiblement à ATI, en apportant quelques optimisations sur ses puces NV25 ([[GeForce 4]]). Néanmoins, l'entreprise parvient à conserver sa domination grâce aux problèmes d'ATI concernant les [[Pilote informatique|pilotes graphiques]] et une renommée bien plus forte à l'époque.
La fin de 2002 et 2003 sera une période difficile pour le constructeur. Son ''NV30'' n'arrive qu'en retard de plusieurs mois tandis qu'ATI inonde le marché avec ses cartes ''Radeon 9500'' et ''9700''. Pour tenter de combler son retard, Nvidia sort des évolutions annoncées comme les puces ''NV28'', destinés aux ''Ti'' et des ''NV18'', destinés aux ''Mx''. Ces évolutions consistent simplement en un AGP 8×. Le ''NV30'', qui sortit avec énormément de retard, au début de 2003, ne répondit absolument pas aux attentes des consommateurs. Nvidia tente de corriger le tir en oubliant rapidement les GeForce FX 5800 pour se concentrer sur le ''NV35'', une évolution plus en phase avec les tendances de l'époque. Cela donnera les GeForce FX 5900 et 5700. On peut affirmer que la génération NV3x aura été un échec technique et, dans une moindre mesure, commercial pour la firme au caméléon.


En {{date|février 2002}}, Nvidia a vendu un total de {{nobr|100 millions}} de processeurs graphiques. Elle vend aussi directement des cartes graphiques équipées de ses processeurs.
Dans les années qui suivent, Nvidia élargit son offre en proposant également des ''[[chipset]]s'' pour les cartes-mères PC à base de microprocesseurs AMD.


La fin de 2002 et 2003 est une période difficile pour le constructeur. Son NV30 ([[GeForce FX]]) n'arrive qu'en retard de plusieurs mois tandis qu'ATI inonde le marché avec ses cartes [[Radeon R300|Radeon 9500]] et 9700. Pour tenter de combler son retard, Nvidia sort des évolutions annoncées comme les puces NV28, destinés aux « Ti », et des NV18, destinés aux « Mx ». Ces évolutions consistent simplement en un [[port AGP]] 8×. Le NV30 (microachitecture {{Lien|Rankine (microarchitecture)|texte=Rankine}} à gravure de {{unité|150 nm}}, {{unité|140 nm}} puis {{unité|130 nm}}), qui sort avec énormément de retard, au début de 2003, ne répond absolument pas aux attentes des consommateurs. Nvidia tente de corriger le tir en oubliant rapidement les GeForce {{nobr|FX 5800}} pour se concentrer sur le NV35, une évolution plus en phase avec les tendances de l'époque. Sortent ainsi les {{nobr|GeForce FX 5900}} et 5700. La génération NV3x aura été un échec technique et, dans une moindre mesure, commercial pour la firme{{Référence nécessaire|date=août 2024}}.
En 2004, le SLI est lancé. Il consiste à faire travailler en parallèle deux cartes graphiques pour doubler le débit d'affichage.


Dans les années qui suivent, l'entreprise élargit son offre en proposant également des ''[[chipset]]s'' pour les [[Carte mère|cartes mères]] pour [[Ordinateur personnel|PC]] à base de microprocesseurs [[Advanced Micro Devices|AMD]].
En 2005, Nvidia a réalisé un [[chiffre d'affaires]] de {{nombre|2.079|milliards}} de dollars et se classe parmi les cinq premiers fabricants de puces dites ''fabless'', devant son concurrent ATi. Au cours de l'E3 en {{date||mai|2005}}, Nvidia annonce qu'il équiperait les [[PlayStation 3]] de Sony en processeurs graphiques. Nommé RSX (Reality Synthetizer) et annoncé aussi performant que deux {{nobr|GeForce 6800}} en SLI, ce qui correspond à peu près à la {{nobr|GeForce 7800 GTX}}. Les caractéristiques techniques et les performances sont étonnamment proches de ce qui fut annoncé à l'époque pour le GPU de la PS3, ce qui laisse fortement penser que tout était prêt du côté du GPU de cette console nouvelle génération (contrairement à d'autres composants comme le "[[Cell (processeur)|Cell]]", le Processeur conçu conjointement par IBM, Sony et Toshiba). En {{date-|décembre 2005}}, Nvidia annonce le rachat et la fusion de [[ULi Electronics]] pour environ {{unité|52|millions de dollars}}, afin de renforcer sa division chipsets.


En 2004, le [[Scalable Link Interface]] (SLI) est lancé. Il consiste à faire travailler en parallèle deux cartes graphiques pour doubler le débit d'affichage. La microarchitecture {{Lien|Curie (microarchitecture)|texte=Curie}} est lancée, nommé d’après la physicienne [[Marie Curie]]. Elle est utilisée dans les GPU [[GeForce 6]] et [[GeForce 7]], fabriqués en [[130 nm]], 110 nm, [[90 nm]] et 80 nm.
En 2007, Nvidia introduit l'environnement de développement [[CUDA]].


En 2005, l’entreprise réalise un [[chiffre d'affaires]] de {{nobr|2,079 milliards}} de dollars et se classe parmi les cinq premiers fabricants de puces dites « ''[[Entreprise sans usine|fabless]]'' », devant son concurrent ATI. Au cours de l'{{lang|en|[[Electronic Entertainment Expo]]}} (E3) en {{date|mai 2005}}, Nvidia annonce qu'il équipera les [[PlayStation 3]] de [[Sony]] en processeurs graphiques. Ils sont nommés [[RSX (processeur)|RSX]] ({{Citation étrangère|langue=en|Reality Synthetizer}}) et annoncés comme aussi performants que deux {{nobr|GeForce 6800}} en SLI, ce qui correspond à peu près à la {{nobr|GeForce 7800 GTX}}. Les caractéristiques techniques et les performances sont étonnamment proches de ce qui était annoncé à l'époque pour le [[processeur graphique]] (GPU) de la PS3, ce qui laisse fortement penser que tout était prêt du côté du GPU de cette console nouvelle génération (contrairement à d'autres composants comme le [[Cell (processeur)|Cell]], le processeur conçu conjointement par [[IBM]], Sony et [[Toshiba]]). En {{date|décembre 2005}}, Nvidia annonce le rachat et la fusion de [[ULi Electronics]] pour environ {{nobr|52 millions}} de dollars, afin de renforcer sa division chipsets.
En {{date-|février 2008}}, Nvidia acquiert Ageia, connue pour le développement de la carte et du logiciel [[PhysX]]. {{pas clair|Le {{date|7|novembre|2008}}, l'entreprise voit son chiffre d'affaires diminuer de presque 20 % lors de la publication des résultats financiers pour le troisième trimestre de l'année fiscale 2009|comment annoncer en 2008 des résultat de 2009|date=août 2016}}. En 2008, la société a réalisé un chiffre d'affaires de {{unité|3.4|milliards de $US}} et se classe parmi les cinq premiers fabricants de puces dits ''fabless''. En 2008, Nvidia présente au Mobile World Congress à Barcelone un processeur à destination des terminaux mobiles « multimédia ». Baptisée {{nobr|APX 2500}}, cette puce, cadencée à {{Nombre|750|MHz}} et gravée en {{Nombre|65|nm}} est composée d'un cœur ARM11 ({{Nombre|256|Kio}} de cache de second niveau) ainsi que d'une partie graphique de génération {{nobr|GeForce 6}}. Elle est capable de décoder des flux HD (720p) qu'elle peut transférer à un téléviseur via [[High-Definition Multimedia Interface|HDMI]], alors qu'elle est capable de traiter des images de {{unité|12|mégapixels}}.


En 2006, [[Tesla (microarchitecture)|Tesla]] est le nom de code d’une [[microarchitecture]] de [[Processeur graphique|GPU]] développée par Nvidia en tant que successeur de la microarchitecture {{Lien|Curie (microarchitecture)|texte=Curie}}. Il a été nommé d’après l’ingénieur électricien pionnier [[Nikola Tesla]]. En tant que première microarchitecture de Nvidia à implémenter des [[Modèle de shader unifié|shaders unifiés]], elle a été utilisée dans les GPU [[GeForce 8]], [[GeForce 9]], [[GeForce 100]], [[GeForce 200]] et [[GeForce 300]], fabriqués en [[90 nm]], 80 nm, [[65 nm]], 55 nm et [[45 nm|40 nm]]. Il était également présent dans la GeForce 405 et dans les modules de calcul [[Nvidia Quadro|Quadro]] FX, Quadro x000, Quadro NVS et [[Tesla (NVIDIA)|Tesla]].
En {{date-|juin 2011}}, Nvidia acquiert Icera pour {{unité|367|million de dollars US}}<ref>{{Lien web|url=http://www.nvidia.fr/object/nvidia-icera-acquisition-press-20110613-fr.html|titre= Nvidia finalise l'acquisition d’Icera, un leader dans les modems sans fil et la technologie RF|site=nvidia.fr/}}</ref>.


En 2007, l'entreprise introduit l'environnement de développement [[CUDA]].
Depuis {{date-|mars 2012}}, Nvidia commercialise sa nouvelle [[Kepler (architecture de carte graphique)|architecture Kepler]], dont l'objectif est de diviser par deux la consommation tout en conservant les mêmes performances par rapport à l'[[Fermi (architecture de carte graphique)|architecture Fermi]], avec la {{nobr|GTX 660ti}}, 670, 680 (carte mono-GPU) et la {{nobr|GTX 690}}(carte bi-GPU).


En {{date|février 2008}}, Nvidia acquiert [[AGEIA]], connue pour le développement de la carte et du logiciel [[PhysX]]. Le {{date|7|novembre|2008}}, elle voit son chiffre d'affaires diminuer de presque 20 % lors de la publication des résultats financiers anticipés pour le troisième trimestre de l'année fiscale 2009. L'entreprise réalise un chiffre d'affaires de {{nobr|3,4 milliards}} de dollars et se classe parmi les cinq premiers fabricants de puces dits ''fabless''.
Le {{date-|6 janvier 2013}}, à l'occasion du {{lang|en|[[Consumer Electronics Show]]}} annuel, la firme dévoile la première [[console de jeux vidéo]] de son histoire : {{lang|en|[[Project Shield]]}}, une [[console portable]] embarquant le processeur [[Tegra|Tegra 4]], et une sortie TV HDMI<ref name="Project Shield">[http://www.gamekult.com/actu/nvidia-devoile-project-shield-une-console-portable-android-A106756.html Nvidia dévoile {{lang|en|Project Shield}}, une console portable Android], sur gamekult.com</ref>. Près d'un mois après Nvidia sort la série des Titan avec la GeForce GTX Titan. Elle est basée sur l’architecture Kepler.


La même année, elle présente au {{lang|en|[[Mobile World Congress]]}} de [[Barcelone]] un processeur à destination des terminaux mobiles « multimédia ». Baptisée {{nobr|[[Tegra|APX 2500]]}}, cette puce, cadencée à {{Nombre|750|MHz}} et gravée en {{unité|65|nm}} est composée d'un cœur {{lien|ARM11}} ({{Nombre|256|Ko}} de [[Mémoire cache|cache]] de second niveau) ainsi que d'une partie graphique de génération {{nobr|[[GeForce 6]]}}. Elle est capable de décoder des flux HD ([[720p]]) qu'elle peut transférer à un téléviseur via le port [[High-Definition Multimedia Interface|HDMI]], alors qu'elle est capable de traiter des images de {{nobr|12 [[mégapixel]]s}}.
En 2014, Nvidia commercialise une nouvelle architecture [[Maxwell (architecture de carte graphique)|Maxwell]], utilisée dans les cartes {{nobr|GTX 750}} et {{nobr|750 Ti}} puis en 2015 Nvidia lance la série {{nobr|GTX 900}}. La même année ce sont deux Titan qui sortent, la {{nobr|GeForce GTX Titan Black}} et Z. Basées sur la même architecture que la précédente, la seule différence notable est la fréquence légèrement plus élevée.


<gallery>
Le {{date-|17 mars 2015}}, Nvidia sort la GeForce GTX Titan X Basée sur l’{{nobr|architecture Maxwell 2.0}}. En 2015, Nvidia possédera 82 % des parts du marché des cartes graphiques pour ordinateur de bureau, ce qui place AMD en dessous de la barre des 20 % pour la première fois<ref>{{Article|langue=français|auteur1=|prénom1=Anton|nom1=Shilov|titre=Discrete Desktop GPU Market Trends Q2 2016: AMD Grabs Market Share, But Nvidia Remains on Top|périodique=anandtech|date=16 septembre 2016|issn=|lire en ligne=https://www.anandtech.com/show/10613/discrete-desktop-gpu-market-trends-q2-2016-amd-grabs-market-share-but-nvidia-remains-on-top|consulté le=2018-08-08|pages=}}</ref>.
File:GeForce3 Ti 500.jpg|Carte graphique GeForce3 Ti 500 (2001).
Fichier:Nvidia gf4mx440 se.jpg|GPU GeForce 4 (2002).
File:GeForce FX5200.jpg|Carte graphique GeForce FX5200 (2003).
File:2010-01-26-technikkrempel-by-RalfR-13.jpg|Carte graphique GeForce 6610XL (2004).
File:Asus EN7900GS TOP.jpg|Carte graphique Asus EN7900GS (GeForce 7, 2005).
File:Evgageforce8800gtxtopleft.jpg|Geforce 8800gtx (2006).
File:Geforce 9600 GT GE.JPG|Geforce 9600 GT GE (2008).
Fichier:Gtx260.jpg|Carte graphique GeForce GTX 260 (2009).
Fichier:3-way-SLI.jpg|Exemple de [[Scalable Link Interface]] (SLI) avec trois cartes (« ''3-way SLI'' »).
</gallery>


=== Années 2010 ===
En 2016, Nvidia lance sa nouvelle architecture nommée [[Pascal (architecture de carte graphique)|Pascal]], qui est d'abord présentée en marge du {{nobr|Computex 2016}}, puis commercialisée dans la GTX 1080, Elle est aussi déclinée en plusieurs versions dont les {{nobr|GTX 1060 et 1070}}, et quelques mois plus tard les {{nobr|1050 et 1050TI}} (TI signifiant une carte graphique plus performante que la version de base). La même année, Nvidia décide de supprimer la mention GTX de ces Titan jugeant qu'elles ne sont pas destinées aux jeux vidéo. C'est alors une GeForce Titan X qui sortira, basée sur la même architecture que les GTX sorties la même année (Pascale).
[[Fichier:Quadro SGI VPro VR3.jpg|vignette|Carte Quadro (SGI VPro VR3) (2010).]]


En {{date|juin 2011}}, Nvidia acquiert Icera, un leader dans les [[modem]]s sans fil et la technologie [[Radio-fréquence|RF]], pour {{nobr|367 millions}} de dollars<ref>{{Lien web | titre=Nvidia finalise l'acquisition d’Icera, un leader dans les modems sans fil et la technologie RF | url=http://www.nvidia.fr/object/nvidia-icera-acquisition-press-20110613-fr.html | site=nvidia.fr}}.</ref>.
En 2017, Nvidia commercialise des versions TI des GTX 1080 et 1070 et une Titan XP. En décembre de la même année c'est aux tours de la GeForce Titan V de faire son apparition sur le marché. C'est la première carte graphique à sortir avec la nouvelle architecture [[Volta (architecture)|Volta]] destinée aux [[Intelligence artificielle|Intelligences Artificielles]]. La GeForce GT 1030 sort la même année. Cette carte graphique est surtout destinée aux configurations PC à petit budget. En 2017, Nvidia signe un partenariat avec l'équipementier [[Robert Bosch (entreprise)|Bosch]] pour travailler ensemble sur l'[[deep learning|intelligence artificielle]] et la voiture autonome<ref>{{Article|langue=fr|titre=Voiture autonome : Bosch et Nvidia s'allient sur l'Intelligence Artificielle|périodique=ZDNet France | date=20 Mars 2017 |lire en ligne=http://www.zdnet.fr/actualites/voiture-autonome-bosch-et-nvidia-s-allient-sur-l-intelligence-artificielle-39850046.htm|consulté le=2017-03-20}}</ref>.


À partir de {{date|mars 2012}}, elle commercialise sa nouvelle [[Kepler (microarchitecture)|architecture Kepler]], dont l'objectif est de diviser par deux la consommation tout en conservant les mêmes performances par rapport à l'[[Fermi (microarchitecture)|architecture Fermi]], avec la {{nobr|GTX 660 Ti}}, 670, 680 (carte mono-GPU) et la {{nobr|GTX 690}} (carte bi-GPU).
En 2018 , Nvidia sort officiellement une nouvelle architecture de processeurs graphiques , l'architecture Turing. L'architecture Turing apporte un nouvelle élément dans les cartes graphiques , le Ray-Tracing . Nvidia commercialise donc une nouvelle gamme de cartes graphiques , les RTX . Il sort la RTX 2080 , 2080 ti , 2070 et 2060 . Nvidia fait aussi une Titan RTX .


Le {{date|6 janvier 2013}}, à l'occasion du {{lang|en|[[Consumer Electronics Show]]}} annuel, la firme dévoile la première [[console de jeux vidéo]] de son histoire : {{lang|en|[[Project Shield]]}}, une [[console portable]] embarquant le processeur [[Tegra|Tegra 4]], et une sortie TV HDMI<ref name="Project Shield">[http://www.gamekult.com/actu/nvidia-devoile-project-shield-une-console-portable-android-A106756.html « Nvidia dévoile {{lang|en|Project Shield}}, une console portable Android »], sur gamekult.com</ref>. Près d'un mois après Nvidia sort la série des {{lien|trad=Nvidia Titan|texte=Titan}} avec la GeForce GTX Titan. Elle est basée sur l’architecture [[Kepler (microarchitecture)|Kepler]].
En {{date-|janvier 2019}}, Nvidia annonce des résultats trimestriels bien en deçà des objectifs formulés au préalable par la marque qui comptait sur un chiffre d'affaires de {{unité|2.7|milliards de dollars}} au dernier trimestre de 2018<ref>Régis Jehl, [https://www.lesnumeriques.com/carte-graphique/nvidia-revoit-resultats-a-baisse-decroche-en-bourse-n83335.html Nvidia revoit ses résultats à la baisse et décroche en Bourse], sur ''Les Numériques''. Consulté le 29 janvier 2019.</ref>. En {{date-|mars 2019}}, Nvidia annonce l'acquisition de l'entreprise israélienne Mellanox pour {{unité|6.8|milliards de dollars}}, supplantant une offre d'[[Intel]]<ref>{{Lien web|lang=en|auteur1=Sayanti Chakraborty|auteur2=Tova Cohen|titre=Nvidia outbids Intel to buy Israel's Mellanox in data centre push|url=https://www.reuters.com/article/us-mellanox-m-a-nvidia/nvidia-outbids-intel-to-buy-israels-mellanox-in-data-center-push-idUSKBN1QS197|site=Reuters|date=11 mars 2019}}</ref>. Il sorte en début d'année les GTX 1650 , 1660 et 1660 ti . Plus tard Nvidia sort des cartes RTX amélioré avec les RTX 2080 Super , 2070 Super et la 2060 Super .

En 2014, l'entreprise commercialise une nouvelle architecture [[Maxwell (microarchitecture)|Maxwell]], utilisée dans les cartes {{nobr|GTX 750}} et {{nobr|750 Ti}} puis en 2015 Nvidia lance la série {{nobr|GTX 900}}. La même année ce sont deux Titan qui sortent, la {{nobr|GeForce GTX Titan Black}} et Z. Basées sur la même architecture que la précédente, la seule différence notable est la fréquence légèrement plus élevée. Les GPU Maxwell de Nvidia imposent la présence d'un microcode signé cryptographiquement pour déverrouiller l'ensemble des fonctions des cartes graphiques, rendant plus difficile l'écriture de pilotes libres<ref>[https://hardware.slashdot.org/story/14/09/27/1254219/nvidia-begins-requiring-signed-gpu-firmware-images NVIDIA Begins Requiring Signed GPU Firmware Images], slashdot, 2014-09-27.</ref>{{,}}<ref>[https://www.phoronix.com/scan.php?page=news_item&px=Linux-Firmware-Turing-C-Firm Linux-Firmware Adds Signed NVIDIA Firmware Binaries For Turing's Type-C Controller], phoronix, {{date|2019-02-13}}.</ref>.

Le {{date|17 mars 2015}}, elle sort la GeForce GTX Titan X Basée sur l’{{nobr|architecture Maxwell 2.0}}. En 2015, l'entreprise possède 82 % des parts du marché du secteur des cartes graphiques pour ordinateurs de bureau, ce qui place AMD en dessous de la barre des 20 % pour la première fois<ref>{{lien web | langue=en | auteur1=Anton Shilov | titre=''Discrete Desktop GPU Market Trends Q2 2016: AMD Grabs Market Share, But Nvidia Remains on Top'' | url=https://www.anandtech.com/show/10613/discrete-desktop-gpu-market-trends-q2-2016-amd-grabs-market-share-but-nvidia-remains-on-top | site=anandtech.com | date=16 septembre 2016}}.</ref>.

En 2016, elle lance sa nouvelle architecture [[Pascal (microarchitecture)|Pascal]], qui est d'abord présentée en marge du {{nobr|Computex 2016}}, puis commercialisée dans la GTX 1080, Elle est aussi déclinée en plusieurs versions dont les {{nobr|GTX 1060 et 1070}}, et quelques mois plus tard les {{nobr|1050 et 1050TI}} (TI signifiant une carte graphique plus performante que la version de base). La même année, Nvidia décide de supprimer la mention GTX de ces Titan jugeant qu'elles ne sont pas destinées aux jeux vidéo. C'est alors une GeForce Titan X qui sortira, basée sur la même architecture que les GTX sorties la même année (Pascal).

En 2017, elle commercialise des versions TI des GTX 1080 et 1070 et une Titan XP. En décembre de la même année, c'est au tour de la GeForce Titan V de faire son apparition sur le marché. C'est la première carte graphique à sortir avec la nouvelle architecture [[Volta (microarchitecture)|Volta]] destinée à l'[[Intelligence artificielle]]. La GeForce GT 1030 sort la même année. Cette carte graphique est surtout destinée aux configurations PC à petit budget. En 2017, Nvidia signe un partenariat avec l'équipementier [[Robert Bosch (entreprise)|Bosch]] pour travailler ensemble sur le [[deep learning]] et la [[voiture autonome]]<ref>{{lien web | titre=Voiture autonome : Bosch et Nvidia s'allient sur l'Intelligence Artificielle | url=http://www.zdnet.fr/actualites/voiture-autonome-bosch-et-nvidia-s-allient-sur-l-intelligence-artificielle-39850046.htm | site=[[ZDNet]] France | date=20 mars 2017}}.</ref>.

En 2018, l'entreprise sort une nouvelle architecture de processeurs graphiques, l'architecture [[Turing (microarchitecture)|Turing]], qui apporte un nouvel élément dans les cartes graphiques, le ''[[ray tracing]]''. Elle commercialise donc une nouvelle gamme de cartes graphiques, la [[Nvidia RTX|gamme RTX]]. Sortent la RTX 2080, 2080 Ti, 2070 et 2060. Elle conçoit aussi une Titan RTX.

En {{date|janvier 2019}}, la société annonce des résultats trimestriels bien en deçà des objectifs formulés préalablement, qui comptaient sur un chiffre d'affaires de {{unité|2.7 milliards de dollars}} au dernier trimestre de 2018<ref>{{Lien web|auteur=Régis Jehl|url=https://www.lesnumeriques.com/carte-graphique/nvidia-revoit-resultats-a-baisse-decroche-en-bourse-n83335.html|titre=« Nvidia revoit ses résultats à la baisse et décroche en Bourse »|site=''Les Numériques''|date=29 janvier 2019}}.</ref>. En {{date|mars 2019}}, elle annonce l'acquisition de l'entreprise israélienne Mellanox pour {{unité|6,8 milliards de dollars}}, supplantant une offre d'[[Intel]]<ref>{{Lien web | langue=en | auteur1=Sayanti Chakraborty | auteur2=Tova Cohen | titre=''Nvidia outbids Intel to buy Israel's Mellanox in data centre push'' | url=https://www.reuters.com/article/us-mellanox-m-a-nvidia/nvidia-outbids-intel-to-buy-israels-mellanox-in-data-center-push-idUSKBN1QS197 | site=[[Reuters]] | date=11 mars 2019}}.</ref>. En début d'année 2019 sortent les GTX 1650, 1660 et 1660 Ti<ref>{{Lien web |langue=fr-FR |titre=Nvidia GeForce GTX 1660 et 1650 : des dates de lancement pour les GPU |url=https://www.generation-nt.com/nvidia-geforce-gtx-1660-1650-lancement-actualite-1962685.html |site=Génération-NT |consulté le=2021-01-26}}.</ref>{{,}}<ref>{{Lien web |langue=fr-FR |prénom=Julien |nom=Cadot |titre=Nvidia annonce sa GTX 1660 Ti à 299 € : une carte de référence pour le 1080p à 120 fps ? |url=https://www.numerama.com/tech/466347-nvidia-annonce-sa-gtx-1660-a-299-e-une-carte-de-reference-pour-le-1080p-a-120-fps.html |site=Numerama |date=2019-02-22 |consulté le=2021-01-26}}.</ref>. Plus tard, sortent des cartes [[Nvidia RTX|RTX]] améliorées, avec les RTX 2080 Super, 2070 Super et la 2060 Super.

<gallery>
file:ASUS GTX-650 Ti TOP Cu-II PCI Express 3.0 x16 graphics card.jpg|ASUS GTX-650 Ti (2012).
File:Nvidia GeForce GTX Titan - Wakueumbau DSCF4717 (16612515132).jpg|Nvidia GeForce GTX Titan (2013).
File:EVGA 02G-P4-2966-KR face 20150129.jpg|EVGA GeForce GTX 960 SuperSC ACX 2.0+ (2015).
File:GeForce GTX 1080ti Front.jpg|GeForce GTX 1080ti Founders Edition (2017).
File:2023 MSI GeForce RTX 2080 Gaming X Trio (5).jpg|MSI GeForce RTX 2080 Gaming X Trio (2018).
File:ASUS TUF Gaming X3 Geforce GTX 1660 (cropped, edited).jpg|ASUS TUF Gaming X3 Geforce GTX 1660 (2019).
File:GeForce RTX 2080 Super Gigabyte Variant Front.jpg|Gigabyte GeForce RTX 2080 Super (2019).
</gallery>

=== Années 2020 ===

La série GeForce 30 est annoncée le {{date|1 septembre 2020}} sur le site web de Nvidia. Les trois cartes graphiques dévoilées (GeForce RTX 3070, GeForce RTX 3080 et GeForce RTX 3090) exploitent un GPU adoptant la nouvelle architecture [[Ampere (microarchitecture)|Ampere]]. Il s'agit d'une évolution de l'architecture Turing des GeForce RTX 20 plutôt que d'une réelle révolution. La GeForce RTX 3070 est annoncée comme bien plus rapide que l'ancien fer de lance de la marque, la {{nobr|GeForce RTX 2080 Ti}}.


[[File:Tests und Benchmarks der GALAX RTX 3090 Gamer OC (极客湾Geekerwan) 43.png|vignette|GALAX RTX 3090 Gamer OC.]]
En {{date|septembre 2020}}, Nvidia annonce vouloir racheter le britannique [[ARM (entreprise)|ARM]], leader des puces pour [[smartphones]], au groupe japonais [[SoftBank]] pour un montant de {{unité|40 milliards de dollars}} . Cette acquisition devait permettre à Nvidia de monter en puissance dans l’[[intelligence artificielle]], les [[objets connectés]] et la [[5G]], les autres points forts de la société ARM avec les puces pour smartphones<ref>{{lien web | titre=Nvidia veut racheter le géant des puces mobiles ARM pour 40 milliards de dollars | url=https://www.20minutes.fr/high-tech/2861635-20200915-nvidia-veut-racheter-geant-puces-mobiles-arm-40-milliards-dollars | site=[[20 minutes]].fr | date=15/09/2020}}.</ref>{{,}}<ref>{{Lien web |auteur=Sam Nussey |auteur2=Stephen Nellis |titre=Nvidia to buy chip designer Arm for $40 billion as SoftBank exits |url=https://www.reuters.com/article/innovationNews/idUSKBN264110?il=0 |site=Reuters |date=14 septembre 2020}}.</ref>. Mais en décembre 2021, les [[Securities and Exchange Commission|autorités de la concurrence américaines]] s'opposent à cette acquisition<ref>{{Lien web |langue=en |auteur=Stephen Nellis |auteur2=David Shepardson |titre=U.S. FTC sues to block Nvidia deal to buy Arm |url=https://www.reuters.com/technology/us-ftc-sues-block-40-billion-nvidia-deal-buy-arm-2021-12-02/ |site=Reuters |date=3 décembre 2021}}.</ref>, et le 8 février 2022, Nvidia annonce l'abandon du rachat à la suite du refus du régulateur<ref>{{Lien web |langue=fr |auteur=Eric Albert |titre=Puces électroniques : l’acquisition du britannique ARM par l’américain Nvidia bloquée par les régulateurs |url=https://www.lemonde.fr/economie/article/2022/02/09/puces-electroniques-l-acquisition-du-britannique-arm-par-l-americain-nvidia-bloquee-par-les-regulateurs_6112938_3234.html |périodique=[[Le Monde]] |date=9 février 2022}}.</ref>.

[[File:NVIDIA RTX 4090 Founders Edition - Verpackung (ZMASLO).png|vignette|NVIDIA RTX 4090 ''{{lang|en|Founders Edition}}''.]]
La série GeForce 40 succède à la série GeForce 30. Elle est annoncée le 20 septembre 2022 lors de la conférence GPU Technology Conference (GTC) 2022. Son fer de lance, la RTX 4090, embarque {{unité|24 Go}} de mémoire GDDR6X à {{unité|2625 MHz}}, étrenne l’architecture [[Ada Lovelace (microarchitecture)|Ada Lovelace]] et pèse {{unité|2,2 kg}}. Il comprend quelques nouveautés logicielles telles le {{nobr|DLSS 3}}, qui permet d'exploiter des affichages en {{unité|3840 x 2160 pixels}} ([[4K]]) à {{nobr|120 [[Images par seconde|fps]]}}<ref>https://www.frandroid.com/marques/nvidia/1492856_test-nvidia-geforce-rtx-4090</ref>{{refnc|date=août 2024}}.

Portée par l'accélération du secteur de l'[[intelligence artificielle]], Nvidia devient en juin 2024 la première capitalisation boursière au monde, atteignant {{unité|3335 milliards}} de dollars à la [[New York Stock Exchange|bourse de New York]]<ref>{{Lien web |langue=fr |titre=Nvidia devient la première capitalisation boursière au monde, devant Apple et Microsoft |url=https://www.usine-digitale.fr/article/nvidia-devient-la-premiere-capitalisation-boursiere-au-monde-devant-apple-et-microsoft.N2214788 |périodique=[[L'Usine digitale]] |date=2024-06-19 |consulté le=2024-07-08}}.</ref>.

En mars 2024, NVIDIA arrête la production des séries GeForce GTX<ref>{{Lien web |langue=fr |titre=NVIDIA stoppe la production des GeForce GTX. La fin d'une époque |url=https://www.clubic.com/actualite-520696-nvidia-stoppe-la-production-des-geforce-gtx-la-fin-d-une-epoque.html |site=clubic.com |date=2024-03-05 |consulté le=2024-09-17}}.</ref>.


== Produits ==
== Produits ==
Nvidia produit principalement des puces graphiques, utilisées majoritairement dans les PC, mais de plus en plus, ses processeurs supercalculateurs sont utilisés dans des machines de calcul professionnelles :
Nvidia produit principalement des [[Processeur graphique|processeurs graphiques]], utilisées majoritairement dans les [[PC compatibles|PC]], mais de plus en plus, ses processeurs haute performance sont utilisés dans des machines de calcul professionnelles :
* NV1 - le premier produit de Nvidia<ref name="NV1">{{lien web|url=http://www.presence-pc.com/actualite/photoreportages/10-nvidia-carte-graphique.html|titre=Diapo : l'histoire des cartes graphiques Nvidia en images|date=14 septembre 2018|éditeur=}}</ref>
* [[NV1]] - le premier produit de Nvidia<ref name="NV1">{{lien web|url=http://www.presence-pc.com/actualite/photoreportages/10-nvidia-carte-graphique.html|titre=Diapo : l'histoire des cartes graphiques Nvidia en images|date=14 septembre 2018}}.</ref> ;
* NV2 - Annulée - Utilise les mêmes technologies que la NV1
* NV2 - Annulée - Utilise les mêmes technologies que la NV1 ;
* RIVA 128, RIVA 128ZX<ref name="RIVA 128ZX"/> - support de [[DirectX]] 5
* {{lien|RIVA 128}}, RIVA 128ZX<ref name="RIVA 128ZX"/> - support de [[DirectX]] 5 ;
* RIVA TNT, RIVA TNT 2 - support de DirectX 6 - succès qui propulse Nvidia en tête de marché
* {{lien|RIVA TNT}}, RIVA TNT 2 - support de DirectX 6 - succès qui propulse Nvidia en tête de marché ;
* Les [[GeForce]], depuis 1999 ce sont les cartes graphiques pour joueurs de Nvidia, représentées en 2016 par les GeForce 1000 Séries
* les [[GeForce]], depuis 1999 ce sont les cartes graphiques pour joueurs de Nvidia, représentées en 2016 par les GeForce 1000 Séries ;
* [[Nvidia Quadro|Quadro]], des cartes pour professionnels
* [[Nvidia Quadro|Quadro]], des cartes pour professionnels ;
* [[Crownir]], des cartes pour serveurs
* Crownir, des cartes pour serveurs ;
* [[Tesla (NVIDIA)|Tesla]], des cartes sans sortie vidéo, uniquement dédiées au calcul, qui utilisent [[Compute Unified Device Architecture|CUDA]]
* [[Tesla (NVIDIA)|Tesla]], des cartes sans sortie vidéo, uniquement dédiées au calcul, qui utilisent [[Compute Unified Device Architecture|CUDA]] ;
* Les Titan sont des cartes graphiques dont les performances sont proches des [[GeForce|GeForce GTX]] mais qui sont destinées au montage vidéo et aux taches qui demandent de grosses ressources vidéo.
* les {{lien|trad=Nvidia Titan|texte=Titan}}, des cartes graphiques dont les performances sont proches des [[GeForce|GeForce GTX]], mais qui sont destinées au montage vidéo et aux tâches qui demandent de grosses ressources vidéo ;
* Les [[Tegra]] sont des puces graphiques destinées aux appareils portables comme les smartphones, tablettes et consoles portables. Le dernier produit commercialisé avec cette puce était la [[Nintendo Switch]]
* les puces graphiques [[Tegra]], destinées aux appareils portables comme les [[smartphone]]s, [[Tablette informatique|tablettes]] et [[Console portable|consoles portables]].


Nvidia a également conçu des processeurs graphiques pour consoles de jeux comme la [[Xbox]] (Processeur graphique de type [[GeForce#GeForce 3|GeForce 3]]) ou la [[PlayStation 3]] (RSX « {{lang|en|''Reality Synthesiser''}} » basé sur l'architecture des GeForce 7).
Nvidia a également conçu des processeurs graphiques pour consoles de jeux comme la [[Xbox (console)|Xbox]] (processeur graphique de type [[GeForce#GeForce 3|GeForce 3]]) ou la [[PlayStation 3]] ([[RSX (processeur)|RSX]], « {{anglais|Reality Synthesiser}} » fondée sur l'architecture des {{nobr|GeForce 7}}).


Bien que spécialisé dans les puces graphiques, Nvidia a produit une seule et unique puce de type [[x86]], son nom le M6117C<ref>{{Lien web|url=http://www.nvidia.com/page/uli_m6117c.html|titre=M6117C - 386SX Embedded Microcontroller|site= nvidia.com}}</ref>.
Bien que spécialisé dans les puces graphiques, Nvidia a produit une seule et unique puce de type [[x86]], son nom le M6117C<ref>{{Lien web|url=http://www.nvidia.com/page/uli_m6117c.html|titre=M6117C - 386SX Embedded Microcontroller|site= nvidia.com}}.</ref>.


Dans le domaine de la mobilité, NVIDIA offre des processeurs [[ARM Architecture|ARM]] ; le dernier-né de cette famille est le {{nobr|Tegra K1}}. Elle a également produit les chipsets [[nForce]], mais à la suite d'un procès avec [[Intel]], NVIDIA ne développe plus et ne commercialise plus de [[chipset]] pour PC<ref >{{lien web|url=http://www.presence-pc.com/actualite/NVIDIA-chipset-36694/|titre=NVIDIA suspend le développement de chipsets|date=8 octobre 2009|éditeur=}}</ref>{{,}}<ref>[http://www.pcinpact.com/actu/news/61293-intel-nvidia-accord-licences-dollars.htm NVIDIA et Intel : fin des conflits pour 1.5 milliard de dollars], sur pcinpact.com/, consulté le 20 août 2016.</ref>.
Dans le domaine de la mobilité, NVIDIA développe des processeurs [[Architecture ARM|ARM]]. Elle a également produit les chipsets [[nForce]], mais à la suite d'un procès avec [[Intel]], NVIDIA ne développe plus et ne commercialise plus de [[chipset]] pour PC<ref >{{lien web|url=http://www.presence-pc.com/actualite/NVIDIA-chipset-36694/|titre=NVIDIA suspend le développement de chipsets|date=8 octobre 2009}}.</ref>{{,}}<ref>[http://www.pcinpact.com/actu/news/61293-intel-nvidia-accord-licences-dollars.htm NVIDIA et Intel : fin des conflits pour 1.5 milliard de dollars], sur [[Next (site web)|PC INpact]] (consulté le 20 août 2016).</ref>.


En 2016, la société annonce un supercalculateur maison (SaturnV) qui s'impose d'emblée dans le Top 500 et s'arroge également la première position en matière d'efficacité énergétique<ref>{{lien web|url=https://futurism.com/nvidia-just-made-the-most-energy-efficient-supercomputer-of-all-time/|titre=Nvidia Just Made the Most Energy-Efficient Supercomputer of All-Time|date=20 novembre 2016|éditeur=}}</ref>. Il est propulsé par {{formatnum:60512}} processeurs [[Xeon]] ''E5-2698v4'' pilotant des Nvidia 125 DGX-1s, surnommées ''AI supercomputer in a box'' et destinées à l'[[apprentissage profond]] (''deep learning).'' Il utilise aussi des processeurs graphiques Tesla P100.
En 2016, la société annonce un [[supercalculateur]] maison, Saturn V<ref>{{en}} [https://www.nextplatform.com/2017/11/30/inside-nvidias-next-gen-saturn-v-ai-cluster/ « ''Inside Nvidia’s Next-Gen Saturn V AI Cluster'' »], Timothy Prickett Morgan, ''nextplatform.com'', 30 novembre 2017.</ref>, qui s'impose d'emblée dans le [[TOP500]] et s'arroge également la première position en matière d'[[Efficacité énergétique (économie)|efficacité énergétique]]<ref>{{lien web | langue=en | titre=''Nvidia Just Made the Most Energy-Efficient Supercomputer of All-Time'' | url=https://futurism.com/nvidia-just-made-the-most-energy-efficient-supercomputer-of-all-time/ | site=futurism.com | date=20 novembre 2016}}.</ref>. Le supercalculateur est propulsé par {{unité|60512|processeurs}} [[Xeon]] E5-2698v4 pilotant des cartes graphiques {{nobr|Nvidia 125 DGX-1s}} (gamme {{lien|Nvidia DGX}}). Surnommé {{Citation étrangère|langue=en|AI supercomputer in a box}}, il est destiné à l'[[apprentissage profond]] ({{anglais|deep learning}}). Il utilise aussi des processeurs graphiques {{nobr|Tesla P100}}<ref>[https://www.nvidia.com/fr-fr/data-center/tesla-p100/ « NVIDIA Tesla P100 - Le Tout Premier Supercalculateur IA Pour Data Center »], nvidia.com (consulté le 15 septembre 2020).</ref>.

En septembre 2023, [[Getty Images]] lance avec Nvidia {{lang|en|Generative AI by Getty Images}}, une intelligence artificielle créant des images à l'aide de la bibliothèque de photos sous licence de Getty, à partir du modèle {{lang|en|Edify}} de Nvidia (disponible sur la bibliothèque de modèles d'intelligence artificielle générative de Nvidia, Picasso)<ref>{{Lien web |langue=en |auteur=Emilia David |titre=Getty made an AI generator that only trained on its licensed images |url=https://www.theverge.com/2023/9/25/23884679/getty-ai-generative-image-platform-launch |date=25 septembre 2023 |site=[[The Verge]] |consulté le=10 juin 2024}}.</ref>.


== Technologies ==
== Technologies ==
{{Section à sourcer|date=août 2023}}
Nvidia a développé ou a fait l'acquisition de plusieurs technologies pour ses produits
Nvidia a développé ou a fait l'acquisition de plusieurs technologies pour ses produits.
; [[Scalable Link Interface|SLI]] : Technologie qui consiste à cumuler jusqu'à quatre [[GeForce]]<ref group="Note">Ou désormais deux GeForces GTX 590 ou deux GTX 690</ref> via l'usage d'un pont qui connecte les cartes pour augmenter les performances graphiques. Annoncée à la fin 2004, elle fut présentée comme un moyen d'améliorer à faible coût les performances d'une machine mais en général, même si deux [[GeForce]]s sont utilisées, le gain de puissance est rarement proportionnel, et il l'est de moins en moins au fur et à mesure que l'on ajoute des [[GeForce]]. En 2016 et à l'occasion de la présentation de la nouvelle carte GTX 1080, Nvidia annonce un nouveau pont SLI, le SLI HB Bridge. Théoriquement censé doubler la bande passante disponible, il limite cependant son usage à deux cartes, plutôt que les quatre supportées auparavant. Cette [[technologie]] est similaire à la [[CrossFire]] d'[[Advanced Micro Devices|AMD]], bien qu'AMD délaisse l'emploi du pont à partir de 2013 avec sa série R9 290X.:NVLink
:Le NVLink est une sorte de SLI amélioré, permettant de combiner la puissance de plusieurs cartes tout en permettant des transferts à des débits plus important que le classique SLI.
; [[Optimus (NVIDIA)|Optimus]] : Processus qui consiste à désactiver la carte graphique pour économiser de l'énergie lorsque la fonction 3D n'est pas requise ; l'affichage est alors géré par l'[[Integrated Graphics Processor|IGP]]. Cette technologie est souvent utilisée dans les GeForces mobiles, et n'a pas été tout de suite supportée en standard par [[Linux]]<ref>{{lien web|url=http://www.tomshardware.fr/articles/bumblebee-optimus-linux,1-39921.html|titre=Linux enfin compatible Nvidia Optimus|date=23 mai 2011|éditeur=}}</ref>. AMD propose une solution similaire sur ses cartes.
; 3D Vision : Technologie qui permet de profiter de la 3D stéréoscopique sur PC, actuellement en version 2<ref >{{lien web|url=http://www.clubic.com/carte-graphique/carte-graphique-nvidia/nvidia-3d-vision/article-457584-1-3d-vision-2.html|titre=3D Vision 2 et LightBoost : la nouvelle solution Nvidia en détail|éditeur=}}</ref>. Le principe consiste à utiliser des écrans spéciaux<ref group="Note">Qui disposent d'un rafraichissement élevé (supérieur ou égal à {{unité|120|Hz}}).</ref> qui affichent tantôt une image pour l'œil gauche, tantôt une image pour l'œil droit. Des lunettes spéciales permettent de répartir les images entre les deux yeux pour recréer une illusion de 3D. Cette technologie s'oppose à la HD3D présentée par AMD. La version professionnelle, ''3D Vision Pro'', utilise la transmission [[Ondes radio|radio]] plutôt que la transmission par [[infrarouge]]<ref>{{lien web|url=http://www.nvidia.fr/object/quadro-K5000-fr.html#pdpContent=1|titre=Carte graphique Quadro K5000 avec Kepler-NVIDIA|site=www.nvidia.fr}}</ref>.
; ''GPU Boost'' : Système qui augmente la vitesse du processeur tant que sa fréquence, sa température et sa consommation restent dans certaines limites. Ce système utilisé dans l'[[architecture Kepler]] a connu trois versions. La {{nobr|version 1.0}} débute avec la {{nobr|GeForce GTX 680}}, en 2012. La {{nobr|version 2.0}} débute avec la GeForce Titan, en 2013, sans apporter de nouveauté importante. Avec le {{nobr|GPU Boost 3.0}}, présenté en même temps que la {{nobr|GTX 1080}} et l'architecture Pascal, l'augmentation de fréquence n'est plus linéaire, comme pour les deux versions précédentes, mais définie automatiquement en fonction de la tension<ref >{{lien web|url=http://www.clubic.com/carte-graphique/carte-graphique-nvidia/article-483032-3-gtx-680.html|titre=Nvidia GeForce GTX 680 : la réponse au Radeon HD 7970 ?|date=9 octobre 1201|éditeur=}}</ref>{{,}}<ref >{{lien web|url=http://www.clubic.com/carte-graphique/carte-graphique-nvidia/article-542814-3-geforce-gtx-titan.html|titre=GeForce GTX Titan : la carte graphique la plus rapide ?|éditeur=}}</ref>{{,}}<ref>{{lien web|url=http://www.hardware.fr/articles/887-4/gpu-boost-overclocking.html|titre=GPU Boost et overclocking - Nvidia GeForce GTX Titan en test : big Kepler débarque enfin ! - HardWare.fr|éditeur=}}</ref>.
; ''[[PhysX]]'' : Moteur physique permettant de créer un rendu temps réel des collisions et des processus physiques complexes comme les créations de particules après impact ; limité aux jeux compatibles.
; Battery Boost<ref>{{lien web|url=http://www.clubic.com/carte-graphique/carte-graphique-nvidia/article-690830-2-gtx-880m-battery-boost.html|titre=GeForce GTX 880M : la puce mobile de NVIDIA en test|éditeur=}}</ref> : Technologie permettant d'augmenter l'autonomie d'un PC portable en jeu en ajustant les fréquences de la mémoire et des cœurs CUDA du GPU, ainsi que celles du processeur.
; GeForce Experience : Logiciel facultatif installé généralement en même temps que les drivers des cartes graphiques et qui permet d'optimiser ses jeux selon un ratio performance/qualité paramètrable, de configurer ShadowPlay ou de ''streamer'' sur son PC depuis une NVIDIA Shield ou une Shield Android TV.
; ShadowPlay : Fonctionnalité qui permet d'enregistrer des séquences de jeu, voire les minutes précédant l'activation du logiciel (avec qualité et durée paramétrable), le microphone ou le son intrajeu. ShadowPlay a été remplacée par NVIDIA Share lors de la mise à jour 3.0 du logiciel GeForce Experience en {{date-|septembre 2016}}.
; [[Ray Tracing]] : Technologie de [[Turing (architecture de carte graphique)|l'architecture Turing]] visant à retranscrire au mieux la propagation de la lumière dans les jeux vidéo, en calculant la direction des rayons lumineux pour déterminer leur façon de rebondir sur les différents éléments. Annoncée par NVIDIA à l'occasion du lancement de la gamme de cartes graphiques RTX, qui sont les premières à intégrer cette technologie<ref>Victoria Castro, [https://www.numerama.com/tech/412041-tout-comprendre-au-ray-tracing-les-moteurs-de-jeu-video-ont-ils-trouve-leur-graal.html Tout comprendre au ray tracing : les moteurs de jeu vidéo ont-ils trouvé leur Graal ?], sur ''Numerama''. Consulté le 29/01/2019.</ref>.


=== SLI ===
== Les fabricants de cartes graphiques ==
La technologie SLI ([[Scalable Link Interface]]) consiste à cumuler jusqu'à quatre cartes graphiques [[GeForce]]<ref group="Note">Ou désormais deux GeForces GTX 590 ou deux GTX 690</ref>, via l'usage d'un pont qui connecte physiquement les cartes, pour augmenter les performances graphiques.
Nvidia ne fabrique pas elle-même ses cartes graphiques : elle fournit les fabricants en [[Processeur graphique|GPU]], en mettant à leur disposition un modèle de référence avec un dissipateur de référence<ref group="Note">Le modèle (desin) de référence inclut le fonctionnement du PCB (étage d'alimentation par exemple).</ref> et en leur donnant le choix de conserver ce design ou d'appliquer le leur.

Annoncée à la fin 2004, cette technologie a été présentée comme un moyen d'améliorer à faible coût les performances d'une machine, mais en général, même si deux GeForces sont utilisées, le gain de puissance est rarement proportionnel, et il l'est de moins en moins au fur et à mesure que l'on ajoute des cartes.

En 2016, à l'occasion de la présentation de la nouvelle carte GTX 1080, Nvidia annonce un nouveau pont SLI, le SLI HB Bridge. Théoriquement censé doubler la [[bande passante]] disponible, il limite cependant son usage à deux cartes plutôt que les quatre supportées auparavant.

Cette technologie est similaire au [[CrossFire]] d'[[Advanced Micro Devices|AMD]], bien qu'AMD délaisse l'emploi du pont à partir de 2013 avec sa série R9 290X.

=== NVLink ===
[[NVLink]] est un [[protocole de communication]] [[Transmission série|série]] multi-voies filaire à courte portée développé par Nvidia. Contrairement à [[PCI Express]], un périphérique peut être constitué de plusieurs NVLinks et les périphériques utilisent un [[réseau maillé]] pour communiquer au lieu d’un hub central.

Le protocole NVlink 1.0 est introduit pour la première fois en 2014, sur la puce P100, et utilise une interconnexion de signalisation à haut débit (NVHS) propriétaire<ref>https://www.fibermall.com/fr/blog/evolution-of-nvlink.htm</ref>{{refnc|date=août 2024}}{{,}}<ref>{{Lien web |langue=en |titre=Nvidia NVLINK 2.0 arrives in IBM servers next year |auteur=Jon Worrel |url=http://www.fudzilla.com/news/graphics/41420-nvidia-nvlink-2-0-arrives-in-ibm-servers-next-year |site=fudzilla.com |date=24 août 2016}}.</ref>.

=== Optimus ===
La technologie [[Optimus (NVIDIA)|Optimus]] est un procédé qui consiste à désactiver la carte graphique pour économiser de l'énergie lorsque la fonction 3D n'est pas requise ; l'affichage est alors géré par l'[[Integrated Graphics Processor|IGP]] (l'unité graphique de base qui se trouve sur la [[carte mère]]).

Cette technologie est souvent utilisée dans les GeForces mobiles et n'est pas été tout de suite supportée sur le système d'exploitation [[Linux]]<ref>{{lien web | titre=Linux enfin compatible Nvidia Optimus | url=http://www.tomshardware.fr/articles/bumblebee-optimus-linux,1-39921.html | date=23 mai 2011 | brisé le=2023-11-27}}.</ref>.

[[Advanced Micro Devices|AMD]] propose une solution similaire sur ses cartes.

=== 3D Vision ===
La technologie 3D Vision permet de profiter de la [[Trois dimensions|3D]] stéréoscopique sur PC, actuellement en version 2<ref >{{lien web|url=http://www.clubic.com/carte-graphique/carte-graphique-nvidia/nvidia-3d-vision/article-457584-1-3d-vision-2.html|titre=3D Vision 2 et LightBoost : la nouvelle solution Nvidia en détail}}.</ref>.

Le principe consiste à utiliser des écrans spéciaux<ref group="Note">Qui disposent d'un rafraîchissement élevé (supérieur ou égal à {{unité|120|Hz}}).</ref> qui affichent tantôt une image pour l'œil gauche, tantôt une image pour l'œil droit. Des lunettes spéciales permettent alors de répartir les images entre les deux yeux pour recréer une illusion de 3D. Cette technologie s'oppose à la HD3D présentée par [[Advanced Micro Devices|AMD]].

La version professionnelle, « 3D Vision Pro », utilise la transmission [[Ondes radio|radio]] plutôt que par [[infrarouge]]<ref>{{lien web|url=http://www.nvidia.fr/object/quadro-K5000-fr.html#pdpContent=1|titre=Carte graphique Quadro K5000 avec Kepler-NVIDIA|site=nvidia.fr}}.</ref>.

=== ''GPU Boost'' ===
La technologie ''GPU Boost'' est un système qui augmente la vitesse du [[processeur]] tant que sa [[fréquence d'horloge]], sa température et sa consommation restent dans certaines limites. Ce système, utilisé dans l'[[architecture Kepler]] a connu trois versions.

La {{nobr|version 1.0}} débute avec la {{nobr|GeForce GTX 680}} en 2012. La {{nobr|version 2.0}} débute avec la GeForce Titan en 2013, sans apporter de nouveauté importante. Avec le {{nobr|GPU Boost 3.0}}, présenté en même temps que la {{nobr|GTX 1080}} et l'architecture Pascal, l'augmentation de fréquence n'est plus linéaire comme pour les deux versions précédentes, mais définie automatiquement en fonction de la tension<ref>{{lien web|url=http://www.clubic.com/carte-graphique/carte-graphique-nvidia/article-483032-3-gtx-680.html|titre=Nvidia GeForce GTX 680 : la réponse au Radeon HD 7970 ?|date=9 octobre 1201}}.</ref>{{,}}<ref >{{lien web|url=http://www.clubic.com/carte-graphique/carte-graphique-nvidia/article-542814-3-geforce-gtx-titan.html|titre=GeForce GTX Titan : la carte graphique la plus rapide ?}}.</ref>{{,}}<ref>{{lien web|url=http://www.hardware.fr/articles/887-4/gpu-boost-overclocking.html|titre=GPU Boost et overclocking - Nvidia GeForce GTX Titan en test : big Kepler débarque enfin ! - HardWare.fr}}.</ref>.

=== ''PhysX'' ===
La technologie ''[[PhysX]]'' est un [[moteur physique]] (logiciel) permettant de créer un rendu en temps réel qui gère les collisions et les processus physiques complexes dans un jeu, comme les créations de particules après impact ; limité aux jeux compatibles.

=== ''Battery Boost'' ===
''Battery Boost''<ref>{{lien web | titre=GeForce GTX 880M : la puce mobile de Nvidia en test | url=http://www.clubic.com/carte-graphique/carte-graphique-nvidia/article-690830-2-gtx-880m-battery-boost.html | site=clubic.com}}.</ref> est une technologie permettant d'augmenter l'autonomie d'un PC portable en jeu, en ajustant les fréquences de la [[Mémoire (informatique)|mémoire]] et des [[Microprocesseur multi-cœur|cœurs]] [[Compute Unified Device Architecture|CUDA]] du GPU, ainsi que celles du processeur.

=== GeForce Experience ===
GeForce Experience est un [[logiciel]] facultatif, installé généralement en même temps que les [[Pilote informatique|pilotes]] (''drivers'') des [[Carte graphique|cartes graphiques]]. Il permet d'optimiser les jeux selon un ratio performance/qualité paramétrable, de configurer ShadowPlay ou de [[Streaming|streamer]] sur son PC depuis une NVIDIA Shield ou une Shield [[Android TV]].

=== ShadowPlay ===
La fonctionnalité ShadowPlay permet d'enregistrer des séquences de jeu, voire les minutes précédant l'activation du logiciel (avec qualité et durée paramétrable), le microphone ou le son intrajeu.

En {{date|septembre 2016}}, ShadowPlay a été remplacée par NVIDIA Share lors de la mise à jour 3.0 du logiciel GeForce Experience.

=== ''{{lang|en|Ray Tracing}}'' ===
La technologie ''{{lang|en|[[ray tracing]]}}'' est utilisée dans l'architecture [[Turing (microarchitecture)|Turing]] visant à retranscrire au mieux la propagation de la lumière dans les jeux vidéo, en calculant la direction des rayons lumineux pour déterminer leur façon de rebondir sur les éléments. Cela est rendu possible par des langages de programmation associés ([[OpenCL]] ou [[Compute Unified Device Architecture|CUDA]] par exemple) et par des moteurs comme [[Iray]] et [[OptiX]] de Nvidia<ref>{{Article |langue=en |auteur1=Steven G. Parker |auteur2=James Bigler |auteur3=Andreas Dietrich |auteur4=Heiko Friedrich |titre=OptiX: A General Purpose Ray Tracing Engine |périodique=ACM SIGGRAPH 2010 Papers |éditeur=ACM |date=2010-01-01 |isbn=9781450302104 |doi=10.1145/1833349.1778803 |pages=66:1–66:13 }}.</ref>. Cette méthode apparait dans le monde du jeu vidéo le {{date|23 août 2018}}<ref>{{Lien web |langue=en |auteur institutionnel=NVIDIA GeForce |titre=Battlefield V: Official GeForce RTX Real-Time Ray Tracing Demo |url=https://www.youtube.com/watch?v=WoQr0k2IA9A |site=[[YouTube]] |consulté le=2021-05-20 }}.</ref>, lors de la conférence Nvidia. Ce procédé permet d’améliorer le réalisme, comme la réflexion des flammes ou le reflet des miroirs, au prix d'importantes ressources utilisées. Annoncée à l'occasion du lancement de la gamme de cartes graphiques [[Nvidia RTX|RTX]], qui sont les premières à intégrer cette technologie<ref>Victoria Castro, [https://www.numerama.com/tech/412041-tout-comprendre-au-ray-tracing-les-moteurs-de-jeu-video-ont-ils-trouve-leur-graal.html « Tout comprendre au ray tracing : les moteurs de jeu vidéo ont-ils trouvé leur Graal ? »],'[[Numerama]], 3 décembre 2018.</ref>.

=== DLSS ===
La technologie {{lien|Deep learning super sampling}} (DLSS) permet d'améliorer les performances en jeu tout en préservant la qualité. Le DLSS fonctionne grâce à l'[[intelligence artificielle]] des [[Tensor Processing Unit|{{anglais|tensor cores}}]] des cartes graphiques [[Nvidia RTX|RTX]]. Le principe est de générer le rendu du jeu dans une [[Définition d'écran|résolution]] inférieure, puis de le remettre à celle de l'écran en complétant les [[pixel]]s manquants de l'image grâce à l'[[apprentissage profond]] d'une intelligence artificielle, dont les calculs sont opérés via un [[Superordinateur|super-ordinateur]] de Nvidia.

== Collaboration avec les fabricants de cartes graphiques ==
Étant une société de type « ''[[fabless]]'' » (sans usines), Nvidia ne fabrique pas elle-même ses [[Carte graphique|cartes graphiques]], se contentant de produire uniquement ses [[Processeur graphique|puces graphiques]] (GPU). Elle fournit aux fabricants (par exemple [[MSI (Micro-Star International)|MSI]], [[Asustek]], [[Gigabyte Technology|Gigabyte]], [[EVGA]] ou [[XFX]], entre autres) ses GPU, en mettant à leur disposition un modèle de référence avec un dissipateur de référence<ref group="Note">Le modèle (dessin) de référence inclut le fonctionnement du [[circuit imprimé]] (PCB, ''Printed circuit board''), l'étage d'alimentation par exemple.</ref>, en leur donnant le choix de conserver ce design ou d'appliquer le leur propre.


== Notes et références ==
== Notes et références ==
=== Notes ===
=== Notes ===
<references group="Note" />
{{references|group="Note"}}


=== Références ===
=== Références ===
Ligne 154 : Ligne 249 :


=== Articles connexes ===
=== Articles connexes ===
* Articles : [[Dimension|2D]], [[Trois dimensions|3D]], [[Scalable Link Interface|SLI]]
* [[Scalable Link Interface]] (SLI)
* Concurrents : [[ATI Technologies|ATi]] - [[3dfx]] - [[Matrox]]
* Concurrents : [[Advanced Micro Devices|AMD]]/[[ATI Technologies|ATi]] - [[Matrox]] - [[Intel]]
* Ancien concurrent : [[3dfx]]
* Composant électronique : [[Carte graphique]] - [[Chipset]] - [[Mémoire informatique]]
* [[Liste des principaux fabricants de semi-conducteurs au fil des ans]]
* [[Liste des principaux fabricants de semi-conducteurs au fil des ans]]


=== Liens externes ===
=== Liens externes ===
* {{Autorité}}
* {{fr}} [http://www.nvidia.fr/ nvidia.fr]
* {{Bases}}
* {{Dictionnaires}}
* {{officiel|https://www.nvidia.com/}}


{{Palette|Nvidia|Société Semi-conducteur|NASDAQ-100|Silicon Valley|Technologies CPU}}
{{Palette|Nvidia|Société Semi-conducteur|NASDAQ-100|Silicon Valley|Technologies CPU}}

{{Portail|entreprises|informatique|électricité et électronique|région de la baie de San Francisco}}
{{Portail|entreprises|informatique|électricité et électronique|région de la baie de San Francisco}}


[[Catégorie:NVIDIA]]
[[Catégorie:NVIDIA|*]]
[[Catégorie:Entreprise fondée en 1993]]
[[Catégorie:Entreprise fondée en 1993]]
[[Catégorie:Constructeur informatique|Nvidia]]
[[Catégorie:Constructeur informatique|Nvidia]]
Ligne 173 : Ligne 270 :
[[Catégorie:3D]]
[[Catégorie:3D]]
[[Catégorie:Entreprise du NASDAQ-100]]
[[Catégorie:Entreprise du NASDAQ-100]]
[[Catégorie:Processeur graphique]]

Dernière version du 5 octobre 2024 à 00:22

Nvidia Corporation
logo de Nvidia
illustration de Nvidia

Création 5 avril 1993
Fondateurs Jen-Hsun Huang (actuel PDG), Chris A. Malachowsky et Curtis Priem
Forme juridique SA
Action NASDAQ : NVDA
Siège social Santa Clara
Drapeau des États-Unis États-Unis
Direction Jen-Hsun Huang (depuis )[1]Voir et modifier les données sur Wikidata
Actionnaires The Vanguard Group (8,74 %) ()[2]
State Street Corporation (4 %) ()[2]
Fidelity Investments (4,26 %) ()[2]
BlackRock (7,25 %) ()[2]
Jen-Hsun Huang (3,51 %) ()[2]Voir et modifier les données sur Wikidata
Activité Microprocesseurs
Électronique numérique
Produits Cartes graphiques
Cartes mères
Chipset
Processeur
Filiales Nvidia Ltd. (d)[3]
Mental Images (en)
Icera (en)[3]
MellanoxVoir et modifier les données sur Wikidata
Effectif 26 196 (2023)
Site web nvidia.com

Capitalisation 3 179 milliards US$ (14 juillet 2024)[4]
Fonds propres 12,2 G$ ()[6]Voir et modifier les données sur Wikidata
Chiffre d'affaires en augmentation 60,9 milliards US$ (2023)[5]
+126 %
Bilan comptable 17,3 G$ ()[7]Voir et modifier les données sur Wikidata
Résultat net en augmentation 29,8 milliards US$ (2023)[5]
+581 %
Société précédente 3dfx[8],[9] et AGEIA[10]Voir et modifier les données sur Wikidata

Nvidia Corporation est une société multinationale américaine de technologie basée à Santa Clara et immatriculée dans l'État du Delaware. Il s'agit d'un éditeur de logiciels et d'une entreprise sans usine qui conçoit des processeurs graphiques, des interfaces de programmation d'applications (API) pour la science des données et le calcul intensif, ainsi que des systèmes sur une puce (SoC) pour les marchés de l'informatique mobile et de l'automobile. Elle conçoit ses puces dans ses centres de recherches, mais sous-traite leur production à d'autres sociétés de semi-conducteurs[Note 1].

Sa gamme professionnelle de processeurs graphiques est utilisée dans les stations de travail pour des applications dans des domaines tels que l'architecture, l'ingénierie et la construction, les médias et le divertissement, l'automobile, la recherche scientifique et la conception manufacturière[11].

Ses principaux concurrents sont AMD (anciennement ATI)[12],[13], Intel et Qualcomm[14],[15]. Nvidia est un acteur dominant dans le matériel utilisé pour des projets d'intelligence artificielle[16],[17].

L'entreprise est constituée en avril 1993 dans l'État de Californie, avant de rejoindre le Delaware en 1998[18].

Historique de la société

[modifier | modifier le code]

Nvidia est fondé le [19] à Santa Clara par[20] :

La société est baptisée Nvidia, avec un logo vert et blanc représentant un œil stylisé. L'entreprise conserve son statut de startup jusque vers les années 1997-1998, lorsqu'elle prend de l'importance pour devenir peu à peu un acteur majeur sur le marché des processeurs graphiques, notamment avec le lancement des puces graphiques Riva pour PC.

La société est aussi surnommée, du fait de son logo, la « marque au caméléon »[21],[22],[23].

Années 1990

[modifier | modifier le code]

En 1994, Nvidia conclut son premier partenariat stratégique avec SGS-Thomson Microelectronics pour la fabrication d'une puce d'accélération pour interface graphique. Le groupe Diamond Multimedia Systems installe les puces sur les cartes[24][réf. non conforme].

En 1995, l'entreprise lance sa première puce graphique, la NV1[25] à gravure en 500 nm, qui connaîtra un succès très mitigé. À cause de son côté « tout en un », d'abord (puce 2D/3D « potable », avec émulation sonore et contrôleur de pad Sega) et ensuite parce qu'elle est dédiée à Windows 95. De plus, la technologie même de la puce posait problème. Par exemple, le bus PCI bridait la carte et la technologie spécifique utilisée, le Quadratic Texture Map (QTM), un genre de technologie d'optimisation pour la 3D, nécessitait une programmation spécifique, qui ne sera jamais véritablement adoptée du fait du manque de notoriété de Nvidia à l'époque[26]. La NV2 n'aura jamais vu le jour, car elle était également basée sur le QTM, et Nvidia préférera l'abandonner pour se consacrer à la génération suivante de puces.

À l'automne 1997, l'entreprise lance la RIVA 128 (en)[27], une puce graphique gravée à 350 nm (nom de code : NV3). De nombreux OEM, attirés par l'esprit tout en un qui avait rebuté avec la NV1, décident alors d'utiliser cette carte qui est vendue à un million d'unités en quatre mois[24][réf. non conforme]. Malgré tout, Nvidia reste derrière 3dfx et ATi.

En , la sortie de la RIVA 128 ZX, qui dispose du double de la mémoire de la RIVA 128 et d'un port AGP[28] propulse la société sur le devant de la scène. De plus, elle signe un partenariat avec l'entreprise de fonderie taïwanaise TSMC. En , Nvidia sort la Riva TNT qui, malgré les promesses, reste moins puissante que la Voodoo 2[Note 2] de 3dfx.

En , la société fait son entrée sur le NASDAQ. Au printemps 1999, arrive la puce RIVA TNT2 (en)[27] à gravure 250 nm, suivie à l'automne par la GeForce 256, dotée de la puce NV10 gravée à 220 nm, la première carte vidéo GPU grand public à pouvoir prendre en charge l'intégralité des calculs graphiques. En mai, elle atteint les dix millions de puces vendues.

Années 2000

[modifier | modifier le code]

En 2000, Nvidia achète son concurrent 3dfx, alors chef de file de l'industrie de ce secteur mais en faillite[27]. Début 2000, l’utilisation sur certaines cartes de mémoire DDR SDRAM (Double Data Rate SDRAM) à la place de mémoire SDRAM classique permet aux GeForce 256 de largement surclasser la concurrence du moment. Au printemps 2000, la GeForce 2 GTS apparaît, dotée de la puce NV15. À l'automne 2000, une déclinaison d'entrée de gamme et une autre de très haut de gamme de la GeForce 2 sortent, les GeForce 2 MX (puce NV11), une version allégée de la GeForce 2 GTS, et les GeForce 2 Ultra, cadencées à 250 MHz au lieu de 200 MHz. Nvidia sort aussi la GeForce 2 Pro, constituée d’une GeForce 2 GTS normale équipée de meilleure mémoire.

En 2001, ATI sort sa carte graphique Radeon 8500. Nvidia commercialise en ce temps les GeForce 3 (puces NV20 à microachitecture Kelvin (en) à gravure de 150 nm), qui sont les premières cartes à comprendre des unités programmables (shaders). Le processeur graphique de la console Xbox de Microsoft (première du nom) est un Nvidia NV2A, variante du NV20 adaptée aux consoles par des fonctions et des performances améliorées[29][réf. non conforme]. Nvidia réplique faiblement à ATI, en apportant quelques optimisations sur ses puces NV25 (GeForce 4). Néanmoins, l'entreprise parvient à conserver sa domination grâce aux problèmes d'ATI concernant les pilotes graphiques et une renommée bien plus forte à l'époque.

En , Nvidia a vendu un total de 100 millions de processeurs graphiques. Elle vend aussi directement des cartes graphiques équipées de ses processeurs.

La fin de 2002 et 2003 est une période difficile pour le constructeur. Son NV30 (GeForce FX) n'arrive qu'en retard de plusieurs mois tandis qu'ATI inonde le marché avec ses cartes Radeon 9500 et 9700. Pour tenter de combler son retard, Nvidia sort des évolutions annoncées comme les puces NV28, destinés aux « Ti », et des NV18, destinés aux « Mx ». Ces évolutions consistent simplement en un port AGP 8×. Le NV30 (microachitecture Rankine (en) à gravure de 150 nm, 140 nm puis 130 nm), qui sort avec énormément de retard, au début de 2003, ne répond absolument pas aux attentes des consommateurs. Nvidia tente de corriger le tir en oubliant rapidement les GeForce FX 5800 pour se concentrer sur le NV35, une évolution plus en phase avec les tendances de l'époque. Sortent ainsi les GeForce FX 5900 et 5700. La génération NV3x aura été un échec technique et, dans une moindre mesure, commercial pour la firme[réf. nécessaire].

Dans les années qui suivent, l'entreprise élargit son offre en proposant également des chipsets pour les cartes mères pour PC à base de microprocesseurs AMD.

En 2004, le Scalable Link Interface (SLI) est lancé. Il consiste à faire travailler en parallèle deux cartes graphiques pour doubler le débit d'affichage. La microarchitecture Curie (en) est lancée, nommé d’après la physicienne Marie Curie. Elle est utilisée dans les GPU GeForce 6 et GeForce 7, fabriqués en 130 nm, 110 nm, 90 nm et 80 nm.

En 2005, l’entreprise réalise un chiffre d'affaires de 2,079 milliards de dollars et se classe parmi les cinq premiers fabricants de puces dites « fabless », devant son concurrent ATI. Au cours de l'Electronic Entertainment Expo (E3) en , Nvidia annonce qu'il équipera les PlayStation 3 de Sony en processeurs graphiques. Ils sont nommés RSX (« Reality Synthetizer ») et annoncés comme aussi performants que deux GeForce 6800 en SLI, ce qui correspond à peu près à la GeForce 7800 GTX. Les caractéristiques techniques et les performances sont étonnamment proches de ce qui était annoncé à l'époque pour le processeur graphique (GPU) de la PS3, ce qui laisse fortement penser que tout était prêt du côté du GPU de cette console nouvelle génération (contrairement à d'autres composants comme le Cell, le processeur conçu conjointement par IBM, Sony et Toshiba). En , Nvidia annonce le rachat et la fusion de ULi Electronics pour environ 52 millions de dollars, afin de renforcer sa division chipsets.

En 2006, Tesla est le nom de code d’une microarchitecture de GPU développée par Nvidia en tant que successeur de la microarchitecture Curie (en). Il a été nommé d’après l’ingénieur électricien pionnier Nikola Tesla. En tant que première microarchitecture de Nvidia à implémenter des shaders unifiés, elle a été utilisée dans les GPU GeForce 8, GeForce 9, GeForce 100, GeForce 200 et GeForce 300, fabriqués en 90 nm, 80 nm, 65 nm, 55 nm et 40 nm. Il était également présent dans la GeForce 405 et dans les modules de calcul Quadro FX, Quadro x000, Quadro NVS et Tesla.

En 2007, l'entreprise introduit l'environnement de développement CUDA.

En , Nvidia acquiert AGEIA, connue pour le développement de la carte et du logiciel PhysX. Le , elle voit son chiffre d'affaires diminuer de presque 20 % lors de la publication des résultats financiers anticipés pour le troisième trimestre de l'année fiscale 2009. L'entreprise réalise un chiffre d'affaires de 3,4 milliards de dollars et se classe parmi les cinq premiers fabricants de puces dits fabless.

La même année, elle présente au Mobile World Congress de Barcelone un processeur à destination des terminaux mobiles « multimédia ». Baptisée APX 2500, cette puce, cadencée à 750 MHz et gravée en 65 nm est composée d'un cœur ARM11 (en) (256 Ko de cache de second niveau) ainsi que d'une partie graphique de génération GeForce 6. Elle est capable de décoder des flux HD (720p) qu'elle peut transférer à un téléviseur via le port HDMI, alors qu'elle est capable de traiter des images de 12 mégapixels.

Années 2010

[modifier | modifier le code]
Carte Quadro (SGI VPro VR3) (2010).

En , Nvidia acquiert Icera, un leader dans les modems sans fil et la technologie RF, pour 367 millions de dollars[30].

À partir de , elle commercialise sa nouvelle architecture Kepler, dont l'objectif est de diviser par deux la consommation tout en conservant les mêmes performances par rapport à l'architecture Fermi, avec la GTX 660 Ti, 670, 680 (carte mono-GPU) et la GTX 690 (carte bi-GPU).

Le , à l'occasion du Consumer Electronics Show annuel, la firme dévoile la première console de jeux vidéo de son histoire : Project Shield, une console portable embarquant le processeur Tegra 4, et une sortie TV HDMI[31]. Près d'un mois après Nvidia sort la série des Titan (en) avec la GeForce GTX Titan. Elle est basée sur l’architecture Kepler.

En 2014, l'entreprise commercialise une nouvelle architecture Maxwell, utilisée dans les cartes GTX 750 et 750 Ti puis en 2015 Nvidia lance la série GTX 900. La même année ce sont deux Titan qui sortent, la GeForce GTX Titan Black et Z. Basées sur la même architecture que la précédente, la seule différence notable est la fréquence légèrement plus élevée. Les GPU Maxwell de Nvidia imposent la présence d'un microcode signé cryptographiquement pour déverrouiller l'ensemble des fonctions des cartes graphiques, rendant plus difficile l'écriture de pilotes libres[32],[33].

Le , elle sort la GeForce GTX Titan X Basée sur l’architecture Maxwell 2.0. En 2015, l'entreprise possède 82 % des parts du marché du secteur des cartes graphiques pour ordinateurs de bureau, ce qui place AMD en dessous de la barre des 20 % pour la première fois[34].

En 2016, elle lance sa nouvelle architecture Pascal, qui est d'abord présentée en marge du Computex 2016, puis commercialisée dans la GTX 1080, Elle est aussi déclinée en plusieurs versions dont les GTX 1060 et 1070, et quelques mois plus tard les 1050 et 1050TI (TI signifiant une carte graphique plus performante que la version de base). La même année, Nvidia décide de supprimer la mention GTX de ces Titan jugeant qu'elles ne sont pas destinées aux jeux vidéo. C'est alors une GeForce Titan X qui sortira, basée sur la même architecture que les GTX sorties la même année (Pascal).

En 2017, elle commercialise des versions TI des GTX 1080 et 1070 et une Titan XP. En décembre de la même année, c'est au tour de la GeForce Titan V de faire son apparition sur le marché. C'est la première carte graphique à sortir avec la nouvelle architecture Volta destinée à l'Intelligence artificielle. La GeForce GT 1030 sort la même année. Cette carte graphique est surtout destinée aux configurations PC à petit budget. En 2017, Nvidia signe un partenariat avec l'équipementier Bosch pour travailler ensemble sur le deep learning et la voiture autonome[35].

En 2018, l'entreprise sort une nouvelle architecture de processeurs graphiques, l'architecture Turing, qui apporte un nouvel élément dans les cartes graphiques, le ray tracing. Elle commercialise donc une nouvelle gamme de cartes graphiques, la gamme RTX. Sortent la RTX 2080, 2080 Ti, 2070 et 2060. Elle conçoit aussi une Titan RTX.

En , la société annonce des résultats trimestriels bien en deçà des objectifs formulés préalablement, qui comptaient sur un chiffre d'affaires de 2,7 milliards de dollars au dernier trimestre de 2018[36]. En , elle annonce l'acquisition de l'entreprise israélienne Mellanox pour 6,8 milliards de dollars, supplantant une offre d'Intel[37]. En début d'année 2019 sortent les GTX 1650, 1660 et 1660 Ti[38],[39]. Plus tard, sortent des cartes RTX améliorées, avec les RTX 2080 Super, 2070 Super et la 2060 Super.

Années 2020

[modifier | modifier le code]

La série GeForce 30 est annoncée le sur le site web de Nvidia. Les trois cartes graphiques dévoilées (GeForce RTX 3070, GeForce RTX 3080 et GeForce RTX 3090) exploitent un GPU adoptant la nouvelle architecture Ampere. Il s'agit d'une évolution de l'architecture Turing des GeForce RTX 20 plutôt que d'une réelle révolution. La GeForce RTX 3070 est annoncée comme bien plus rapide que l'ancien fer de lance de la marque, la GeForce RTX 2080 Ti.


GALAX RTX 3090 Gamer OC.

En , Nvidia annonce vouloir racheter le britannique ARM, leader des puces pour smartphones, au groupe japonais SoftBank pour un montant de 40 milliards de dollars . Cette acquisition devait permettre à Nvidia de monter en puissance dans l’intelligence artificielle, les objets connectés et la 5G, les autres points forts de la société ARM avec les puces pour smartphones[40],[41]. Mais en décembre 2021, les autorités de la concurrence américaines s'opposent à cette acquisition[42], et le 8 février 2022, Nvidia annonce l'abandon du rachat à la suite du refus du régulateur[43].

NVIDIA RTX 4090 Founders Edition.

La série GeForce 40 succède à la série GeForce 30. Elle est annoncée le 20 septembre 2022 lors de la conférence GPU Technology Conference (GTC) 2022. Son fer de lance, la RTX 4090, embarque 24 Go de mémoire GDDR6X à 2 625 MHz, étrenne l’architecture Ada Lovelace et pèse 2,2 kg. Il comprend quelques nouveautés logicielles telles le DLSS 3, qui permet d'exploiter des affichages en 3 840 × 2 160 pixels (4K) à 120 fps[44][réf. non conforme].

Portée par l'accélération du secteur de l'intelligence artificielle, Nvidia devient en juin 2024 la première capitalisation boursière au monde, atteignant 3 335 milliards de dollars à la bourse de New York[45].

En mars 2024, NVIDIA arrête la production des séries GeForce GTX[46].

Nvidia produit principalement des processeurs graphiques, utilisées majoritairement dans les PC, mais de plus en plus, ses processeurs haute performance sont utilisés dans des machines de calcul professionnelles :

  • NV1 - le premier produit de Nvidia[26] ;
  • NV2 - Annulée - Utilise les mêmes technologies que la NV1 ;
  • RIVA 128 (en), RIVA 128ZX[28] - support de DirectX 5 ;
  • RIVA TNT (en), RIVA TNT 2 - support de DirectX 6 - succès qui propulse Nvidia en tête de marché ;
  • les GeForce, depuis 1999 ce sont les cartes graphiques pour joueurs de Nvidia, représentées en 2016 par les GeForce 1000 Séries ;
  • Quadro, des cartes pour professionnels ;
  • Crownir, des cartes pour serveurs ;
  • Tesla, des cartes sans sortie vidéo, uniquement dédiées au calcul, qui utilisent CUDA ;
  • les Titan (en), des cartes graphiques dont les performances sont proches des GeForce GTX, mais qui sont destinées au montage vidéo et aux tâches qui demandent de grosses ressources vidéo ;
  • les puces graphiques Tegra, destinées aux appareils portables comme les smartphones, tablettes et consoles portables.

Nvidia a également conçu des processeurs graphiques pour consoles de jeux comme la Xbox (processeur graphique de type GeForce 3) ou la PlayStation 3 (RSX, « Reality Synthesiser » fondée sur l'architecture des GeForce 7).

Bien que spécialisé dans les puces graphiques, Nvidia a produit une seule et unique puce de type x86, son nom le M6117C[47].

Dans le domaine de la mobilité, NVIDIA développe des processeurs ARM. Elle a également produit les chipsets nForce, mais à la suite d'un procès avec Intel, NVIDIA ne développe plus et ne commercialise plus de chipset pour PC[48],[49].

En 2016, la société annonce un supercalculateur maison, Saturn V[50], qui s'impose d'emblée dans le TOP500 et s'arroge également la première position en matière d'efficacité énergétique[51]. Le supercalculateur est propulsé par 60 512 processeurs Xeon E5-2698v4 pilotant des cartes graphiques Nvidia 125 DGX-1s (gamme Nvidia DGX (en)). Surnommé « AI supercomputer in a box », il est destiné à l'apprentissage profond (deep learning). Il utilise aussi des processeurs graphiques Tesla P100[52].

En septembre 2023, Getty Images lance avec Nvidia Generative AI by Getty Images, une intelligence artificielle créant des images à l'aide de la bibliothèque de photos sous licence de Getty, à partir du modèle Edify de Nvidia (disponible sur la bibliothèque de modèles d'intelligence artificielle générative de Nvidia, Picasso)[53].

Technologies

[modifier | modifier le code]

Nvidia a développé ou a fait l'acquisition de plusieurs technologies pour ses produits.

La technologie SLI (Scalable Link Interface) consiste à cumuler jusqu'à quatre cartes graphiques GeForce[Note 3], via l'usage d'un pont qui connecte physiquement les cartes, pour augmenter les performances graphiques.

Annoncée à la fin 2004, cette technologie a été présentée comme un moyen d'améliorer à faible coût les performances d'une machine, mais en général, même si deux GeForces sont utilisées, le gain de puissance est rarement proportionnel, et il l'est de moins en moins au fur et à mesure que l'on ajoute des cartes.

En 2016, à l'occasion de la présentation de la nouvelle carte GTX 1080, Nvidia annonce un nouveau pont SLI, le SLI HB Bridge. Théoriquement censé doubler la bande passante disponible, il limite cependant son usage à deux cartes plutôt que les quatre supportées auparavant.

Cette technologie est similaire au CrossFire d'AMD, bien qu'AMD délaisse l'emploi du pont à partir de 2013 avec sa série R9 290X.

NVLink est un protocole de communication série multi-voies filaire à courte portée développé par Nvidia. Contrairement à PCI Express, un périphérique peut être constitué de plusieurs NVLinks et les périphériques utilisent un réseau maillé pour communiquer au lieu d’un hub central.

Le protocole NVlink 1.0 est introduit pour la première fois en 2014, sur la puce P100, et utilise une interconnexion de signalisation à haut débit (NVHS) propriétaire[54][réf. non conforme],[55].

La technologie Optimus est un procédé qui consiste à désactiver la carte graphique pour économiser de l'énergie lorsque la fonction 3D n'est pas requise ; l'affichage est alors géré par l'IGP (l'unité graphique de base qui se trouve sur la carte mère).

Cette technologie est souvent utilisée dans les GeForces mobiles et n'est pas été tout de suite supportée sur le système d'exploitation Linux[56].

AMD propose une solution similaire sur ses cartes.

La technologie 3D Vision permet de profiter de la 3D stéréoscopique sur PC, actuellement en version 2[57].

Le principe consiste à utiliser des écrans spéciaux[Note 4] qui affichent tantôt une image pour l'œil gauche, tantôt une image pour l'œil droit. Des lunettes spéciales permettent alors de répartir les images entre les deux yeux pour recréer une illusion de 3D. Cette technologie s'oppose à la HD3D présentée par AMD.

La version professionnelle, « 3D Vision Pro », utilise la transmission radio plutôt que par infrarouge[58].

La technologie GPU Boost est un système qui augmente la vitesse du processeur tant que sa fréquence d'horloge, sa température et sa consommation restent dans certaines limites. Ce système, utilisé dans l'architecture Kepler a connu trois versions.

La version 1.0 débute avec la GeForce GTX 680 en 2012. La version 2.0 débute avec la GeForce Titan en 2013, sans apporter de nouveauté importante. Avec le GPU Boost 3.0, présenté en même temps que la GTX 1080 et l'architecture Pascal, l'augmentation de fréquence n'est plus linéaire comme pour les deux versions précédentes, mais définie automatiquement en fonction de la tension[59],[60],[61].

La technologie PhysX est un moteur physique (logiciel) permettant de créer un rendu en temps réel qui gère les collisions et les processus physiques complexes dans un jeu, comme les créations de particules après impact ; limité aux jeux compatibles.

Battery Boost

[modifier | modifier le code]

Battery Boost[62] est une technologie permettant d'augmenter l'autonomie d'un PC portable en jeu, en ajustant les fréquences de la mémoire et des cœurs CUDA du GPU, ainsi que celles du processeur.

GeForce Experience

[modifier | modifier le code]

GeForce Experience est un logiciel facultatif, installé généralement en même temps que les pilotes (drivers) des cartes graphiques. Il permet d'optimiser les jeux selon un ratio performance/qualité paramétrable, de configurer ShadowPlay ou de streamer sur son PC depuis une NVIDIA Shield ou une Shield Android TV.

La fonctionnalité ShadowPlay permet d'enregistrer des séquences de jeu, voire les minutes précédant l'activation du logiciel (avec qualité et durée paramétrable), le microphone ou le son intrajeu.

En , ShadowPlay a été remplacée par NVIDIA Share lors de la mise à jour 3.0 du logiciel GeForce Experience.

Ray Tracing

[modifier | modifier le code]

La technologie ray tracing est utilisée dans l'architecture Turing visant à retranscrire au mieux la propagation de la lumière dans les jeux vidéo, en calculant la direction des rayons lumineux pour déterminer leur façon de rebondir sur les éléments. Cela est rendu possible par des langages de programmation associés (OpenCL ou CUDA par exemple) et par des moteurs comme Iray et OptiX de Nvidia[63]. Cette méthode apparait dans le monde du jeu vidéo le [64], lors de la conférence Nvidia. Ce procédé permet d’améliorer le réalisme, comme la réflexion des flammes ou le reflet des miroirs, au prix d'importantes ressources utilisées. Annoncée à l'occasion du lancement de la gamme de cartes graphiques RTX, qui sont les premières à intégrer cette technologie[65].

La technologie Deep learning super sampling (en) (DLSS) permet d'améliorer les performances en jeu tout en préservant la qualité. Le DLSS fonctionne grâce à l'intelligence artificielle des tensor cores des cartes graphiques RTX. Le principe est de générer le rendu du jeu dans une résolution inférieure, puis de le remettre à celle de l'écran en complétant les pixels manquants de l'image grâce à l'apprentissage profond d'une intelligence artificielle, dont les calculs sont opérés via un super-ordinateur de Nvidia.

Collaboration avec les fabricants de cartes graphiques

[modifier | modifier le code]

Étant une société de type « fabless » (sans usines), Nvidia ne fabrique pas elle-même ses cartes graphiques, se contentant de produire uniquement ses puces graphiques (GPU). Elle fournit aux fabricants (par exemple MSI, Asustek, Gigabyte, EVGA ou XFX, entre autres) ses GPU, en mettant à leur disposition un modèle de référence avec un dissipateur de référence[Note 5], en leur donnant le choix de conserver ce design ou d'appliquer le leur propre.

Notes et références

[modifier | modifier le code]
  1. Par exemple, dans le passé, Nvidia a utilisé les capacités de production de sociétés comme IBM, Microelectronics ou l'européen STMicroelectronics. Actuellement, Nvidia sous-traite sa production aux grands fondeurs comme les taïwanais TSMC (Taiwan Semiconductor Manufacturing Company, Limited) ou UMC (United Microelectronics Corporation).
  2. Il s'agit d'une période confuse dans le domaine de la 3D. Des problèmes apparaissent aussi chez ATi, qui ne parvient pas à sortir ses cartes dans les délais et aux performances annoncées.
  3. Ou désormais deux GeForces GTX 590 ou deux GTX 690
  4. Qui disposent d'un rafraîchissement élevé (supérieur ou égal à 120 Hz).
  5. Le modèle (dessin) de référence inclut le fonctionnement du circuit imprimé (PCB, Printed circuit board), l'étage d'alimentation par exemple.

Références

[modifier | modifier le code]
  1. « https://www.nvidia.com/en-us/about-nvidia/board-of-directors/jensen-huang/ » (consulté le )
  2. a b c d et e « https://www.zonebourse.com/cours/action/NVIDIA-CORPORATION-57355629/societe-actionnaires/ » (consulté le )
  3. a et b « http://s22.q4cdn.com/364334381/files/doc_financials/quarterly_reports/2018/NVIDIA-Q4Y18-Form-10K.pdf »
  4. « Cours action Nvidia NVDA », sur companiesmarketcap.com (consulté le ).
  5. a et b « Nvidia sur le podium des plus grandes capitalisations mondiales, bientôt n°1 ? », sur Investir, (consulté le )
  6. « 2020 NVidia corporation annual review »,
  7. « https://s22.q4cdn.com/364334381/files/doc_financials/2020/ar/2020-nvidia-annualreport-content-r25-web-144dpi-combined.pdf »
  8. NVIDIA Subsidiary Completes its Purchase of Certain 3dfx Graphics Assets (communiqué de presse), Nvidia, .Voir et modifier les données sur Wikidata
  9. 3dfx Announces Completion of Sale of Assets (communiqué de presse), 3dfx, .Voir et modifier les données sur Wikidata
  10. NVIDIA completes Acquisition of AGEIA Technologies (communiqué de presse), Nvidia, , [lire en ligne].Voir et modifier les données sur Wikidata
  11. Ryan Smith, « Quadro no more? nvidia announces ampere-based rtx a6000 & a40 video cards for pro visualization », sur anandtech.com, (consulté le ).
  12. « Les cartes graphiques ATI vont disparaître »(Archive.orgWikiwixArchive.isGoogleQue faire ?), sur 01net.com.
  13. Clémence Tanguy, « Nvidia en Bourse : analyse du leader de cartes et processeurs graphiques », sur cafedelabourse.com, (consulté le ).
  14. « Quels sont les principaux concurrents d’AMD ? », sur news.chastin.com, (consulté le ).
  15. Andy Patrizio, « Attaqué, Intel se défend sur plusieurs fronts », sur lemondeinformatique.fr, (consulté le ).
  16. (en) Sharon Goldman, « How Nvidia dominated AI — and plans to keep it that way as generative AI explodes », sur venturebeat.com, (consulté le ).
  17. (en) « Why NVIDIA Has Become a Leader in the AI Market », sur Datamation, (consulté le ).
  18. (en) « FAQs », sur nvidia.com (consulté le ).
  19. (en-US) « NVIDIA Corporation: History », sur Nvidia (consulté le ).
  20. « This Man Is Leading an AI Revolution in Silicon Valley—And He’s Just Getting Started », sur fortune.com, .
  21. Nvidia muscle son entrée de gamme avec la GeForce GTX 1650, Sud Ouest, (consulté le 24 septembre 2020).
  22. NVIDIA GeForce GTX 295 : le retour du caméléon, Clubic, 9 janvier 2009 (consulté le 24 septembre 2020).
  23. Nvidia : des résultats financiers en hausse, le caméléon a pris la couleur d'Android, lesmobiles.com, (consulté le 24 septembre 2020).
  24. a et b https://www.nvidia.com/fr-fr/about-nvidia/corporate-timeline/
  25. « 15 ans de cartes graphiques NVIDIA en images », sur Tom's Hardware, (consulté le ).
  26. a et b « Diapo : l'histoire des cartes graphiques Nvidia en images », .
  27. a b et c Nil Sanyas, « L'histoire de NVIDIA »(Archive.orgWikiwixArchive.isGoogleQue faire ?), sur NextInpact, (consulté le ).
  28. a et b « Nvidia Announces RIVA 128ZX », .
  29. https://www.gamespot.com/articles/inside-the-xbox-gpu/1100-2764159/
  30. « Nvidia finalise l'acquisition d’Icera, un leader dans les modems sans fil et la technologie RF », sur nvidia.fr.
  31. « Nvidia dévoile Project Shield, une console portable Android », sur gamekult.com
  32. NVIDIA Begins Requiring Signed GPU Firmware Images, slashdot, 2014-09-27.
  33. Linux-Firmware Adds Signed NVIDIA Firmware Binaries For Turing's Type-C Controller, phoronix, .
  34. (en) Anton Shilov, « Discrete Desktop GPU Market Trends Q2 2016: AMD Grabs Market Share, But Nvidia Remains on Top », sur anandtech.com, .
  35. « Voiture autonome : Bosch et Nvidia s'allient sur l'Intelligence Artificielle », sur ZDNet France, .
  36. Régis Jehl, « Nvidia revoit ses résultats à la baisse et décroche en Bourse », sur Les Numériques, .
  37. (en) Sayanti Chakraborty et Tova Cohen, « Nvidia outbids Intel to buy Israel's Mellanox in data centre push », sur Reuters, .
  38. « Nvidia GeForce GTX 1660 et 1650 : des dates de lancement pour les GPU », sur Génération-NT (consulté le ).
  39. Julien Cadot, « Nvidia annonce sa GTX 1660 Ti à 299 € : une carte de référence pour le 1080p à 120 fps ? », sur Numerama, (consulté le ).
  40. « Nvidia veut racheter le géant des puces mobiles ARM pour 40 milliards de dollars », sur 20 minutes.fr, .
  41. Sam Nussey et Stephen Nellis, « Nvidia to buy chip designer Arm for $40 billion as SoftBank exits », sur Reuters, .
  42. (en) Stephen Nellis et David Shepardson, « U.S. FTC sues to block Nvidia deal to buy Arm », sur Reuters, .
  43. Eric Albert, « Puces électroniques : l’acquisition du britannique ARM par l’américain Nvidia bloquée par les régulateurs », Le Monde, .
  44. https://www.frandroid.com/marques/nvidia/1492856_test-nvidia-geforce-rtx-4090
  45. « Nvidia devient la première capitalisation boursière au monde, devant Apple et Microsoft », L'Usine digitale, (consulté le ).
  46. « NVIDIA stoppe la production des GeForce GTX. La fin d'une époque », sur clubic.com, (consulté le ).
  47. « M6117C - 386SX Embedded Microcontroller », sur nvidia.com.
  48. « NVIDIA suspend le développement de chipsets », .
  49. NVIDIA et Intel : fin des conflits pour 1.5 milliard de dollars, sur PC INpact (consulté le 20 août 2016).
  50. (en) « Inside Nvidia’s Next-Gen Saturn V AI Cluster », Timothy Prickett Morgan, nextplatform.com, 30 novembre 2017.
  51. (en) « Nvidia Just Made the Most Energy-Efficient Supercomputer of All-Time », sur futurism.com, .
  52. « NVIDIA Tesla P100 - Le Tout Premier Supercalculateur IA Pour Data Center », nvidia.com (consulté le 15 septembre 2020).
  53. (en) Emilia David, « Getty made an AI generator that only trained on its licensed images », sur The Verge, (consulté le ).
  54. https://www.fibermall.com/fr/blog/evolution-of-nvlink.htm
  55. (en) Jon Worrel, « Nvidia NVLINK 2.0 arrives in IBM servers next year », sur fudzilla.com, .
  56. « Linux enfin compatible Nvidia Optimus »(Archive.orgWikiwixArchive.isGoogleQue faire ?), .
  57. « 3D Vision 2 et LightBoost : la nouvelle solution Nvidia en détail ».
  58. « Carte graphique Quadro K5000 avec Kepler-NVIDIA », sur nvidia.fr.
  59. « Nvidia GeForce GTX 680 : la réponse au Radeon HD 7970 ? », .
  60. « GeForce GTX Titan : la carte graphique la plus rapide ? ».
  61. « GPU Boost et overclocking - Nvidia GeForce GTX Titan en test : big Kepler débarque enfin ! - HardWare.fr ».
  62. « GeForce GTX 880M : la puce mobile de Nvidia en test », sur clubic.com.
  63. (en) Steven G. Parker, James Bigler, Andreas Dietrich et Heiko Friedrich, « OptiX: A General Purpose Ray Tracing Engine », ACM SIGGRAPH 2010 Papers, ACM,‎ , p. 66:1–66:13 (ISBN 9781450302104, DOI 10.1145/1833349.1778803).
  64. (en) NVIDIA GeForce, « Battlefield V: Official GeForce RTX Real-Time Ray Tracing Demo », sur YouTube (consulté le ).
  65. Victoria Castro, « Tout comprendre au ray tracing : les moteurs de jeu vidéo ont-ils trouvé leur Graal ? »,'Numerama, 3 décembre 2018.

Sur les autres projets Wikimedia :

Articles connexes

[modifier | modifier le code]

Liens externes

[modifier | modifier le code]