Az Nvidia jelenleg a világ legértékesebb cége, elsőként lépte át az 5 billió dolláros álomhatárt, már ami a piaci kapitalizációt illeti, és ezt lényegében csak és kizárólag az AI-láznak köszönhetik, illetve annak, hogy az AI szegmensben egyedülálló pozíciót töltenek be saját fejlesztésű AI gyorsítóik révén. A sikerhez persze arra is szükség volt, hogy a hardver mellett egy kerek szoftveres ökoszisztémát is kínáljanak, ami a CUDA segítségével rengeteg területen kínál ütőképes lehetőségeket – ezért is olyan nehéz ütőképes alternatívát állítani a cég termékeinek, mert nem elég a versenyképes hardver, kellően sokoldalú szoftveres támogatás is szükséges hozzá.
Az AI-láz közepette tehát nagyon jó pozícióban foglal helyet az Nvidia, ami egy érdekes előzménynek köszönhető. Még 2011 folyamán indult egy kutatás, amelynek keretén belül a Torontói Egyetem kutatói azt vizsgálták, hogyan lehet hatékonyabbá és eredményesebbé tenni a képfelismerést a számítógépes látásra támaszkodó alkalmazási területeken. A projekt mögött Alex Krizhevsky, Geoffrey Hinton, illetve Iya Sutseker állt, akik jobb módszereket szerettek volna kifejleszteni az akkori algoritmusokhoz képest, amelyeket minden feladatra külön manuálisan kellett optimalizálni, hogy érzékeljék a széleket, a sarkokat, illetve a textúrákat egy-egy kép esetén. Neurális hálózatok ekkoriban még nem álltak rendelkezésre, ezért a munka eléggé körülményes volt. A sztorit az Nvidia vezetője, Jensen Huang nemrégiben, egy podcast alkalmával elevenítette fel.
A három kutató lényegében megalkotta a Deep Learning alapjait, ugyanis kifejlesztették az AlexNet névre keresztelt neurális hálózatot, ami összesen nyolc rétegből állt és nagyjából 60 milliárd paramétert tartalmazott. Az igazi különlegessége az volt, hogy képes volt magától is tanulni, ehhez a konvolúciós és a mély neurális hálózati rétegeket ötvözte, méghozzá igen eredményesen, ugyanis az akkoriban rendelkezésre álló képfelismerő algoritmusokhoz képest jelentősen, 70%-kal jobb volt, ami természetesen fel is keltette az iparági érdeklődését. Maga az AlexNet egy gamer konfiguráción ketyegett, ami két darab, SLI-módba kapcsolt GeForce GTX 580-as videokártyán futott, méghozzá mind a két GPU összes erőforrását használva, de adatcsere csak akkor történt köztük, ha feltétlenül muszáj volt, így a tréningezéshez szükséges időt alaposan sikerült lerövidíteni. Ezzel a lépéssel a GeForce GTX 580 lett a világ első videokártyája, amit AI feladatokra használtak egy olyan időszakban, amikor az Nvidia még szinte egyáltalán nem érdeklődött az AI-ban rejlő lehetőségek iránt.
A fenti kutatás aztán meghozta a változást, ugyanis az akkoriban a 3D-s grafika és a játékok, valamint a CUDA fejlesztését végző vállalat erőforrásokat rendelt a Deep Learning területén végzendő kutatásokra és fejlesztésekre, mert látták, az AI segítségével nagyon sok problémára lehet majd megoldást találni. Azt is látták a kutatás alapján, hogy a GPU hatalmas párhuzamos számítási teljesítményéből nagyon sokat tud profitálni egy-egy neurális hálózat, és akkoriban még nem is voltak kifejezetten erre a munkavégzésre optimalizált Tensor magok sem.
A munka gyümölcseként 2016-ban elkészült a DGX-1, ami Volta architektúra köré épülő gyorsítóval rendelkezett és az első generációs Tensor magokat is használatba vehette, méghozzá a DLSS-sel együtt. Ezt a rendszert Elon Musk kapta meg elsőként, azóta viszont nagyon sok víz lefolyt a Dunán, az Nvidia piacvezetővé vált AI-fronton és aranykora még mindig tart, igaz, a piaci elemzők már elkezdték kongatni a vészharangokat, ugyanis szerintük a jelenlegi fejlődés tempója hosszabb távon nem fenntartható, de az már egy másik történet.