Kepler
Pár hónapos késéssel befutott az nVidia új zászlóshajója a kikötőbe, legalábbis a játékosokéba. Már a pletykák alapján kezdett elég érdekessé válni a Kepler architektúra első fizikai formába öntött asztali változata, a GK104-es GPU, rengeteg kérdés foglalkoztatott minket a megjelenés előtt. Hol van a GK100-as? Ez lenne az abszolút csúcs? Hogyhogy kisebb, mint az AMD Tahiti-je? Mi ez a rengeteg shader, elindult a Kepler a Radeonok útján? Nem ehhez szoktunk. Ahogy végigvesszük majd az új GPU változásait, azt is látni fogjuk, hogy az sem teljesen tiszta, minek az utódja a GTX680-as. A neve alapján persze egyértelműnek tűnik a válasz, hiszen könnyű egyből rávágni, hogy „hát a GTX580-nak!” Az igazság azonban ennél árnyaltabb, mert ahogy a GPU neve is mutatja, elég szoros rokonságban áll GF104/114 duóval. A következő pár oldalon ki is derül majd, hogy miért is.
A Kepler architektúra az alapjait teljes egészében az előző generációs Fermiből vette át, a változások egy magas szintű blokkdiagramon nem is látszanak, így kezdjünk az alapoktól építkezni, míg el nem készül a GK104-esünk. A cél a Fermi újratervezésénél az volt, hogy olyan GPU-k készüljenek majd az új architektúrával, amik utolérik, sőt lehagyják majd az AMD GPU-k energiahatékonyságát. A konkurens cég termékei ugyanis jó ideje élen járnak ezen a fronton, kevesebb tranzisztorból hoztak jó teljesítményt, alacsonyabb fogyasztás mellett. Az új architektúra már egymagában nagy szerepet játszik a Radeonok behozásában, de a cél érdekében szükség volt még a szoftver fejlesztésére is, immár az nVidiánál is minden a teljesítmény/Watt-ról szól.
Akárcsak a Ferminél, a Kepler alap építőköve is a Streaming Multiprocessor (SM), amit az nVidia itt már SMX-nek hív, az X helyére mindenki kitalálhat valami hangzatos jelzőt. Az SMX tartalmazza a geometriai feladatok egy részéért felelős Polymorph motort, a CUDA magokat (amik tulajdonképpen a végrehajtó egységek vagy régebbi terminológiával élve a shaderek), a textúrázókat, az ütemezőket és a mindezeket kiszolgáló átmeneti tárakat, cache-eket. A kódok futtatása úgy történik az nVidia GPU-inál, hogy a több ezer szálat úgynevezett warpokra bontják, ezek az alap egységei a végrehajtásnak és egy warpban 32 szál található. Grafikus feladatoknál ez például azt jelenti, hogy 32 pixelen dolgozik egyszerre egy CUDA magokból álló tömb. Mekkora azonban egy ilyen tömb? A logikus válasz első blikkre talán az lenne, hogy természetesen 32 CUDA magos, hiszen ennyi kell ahhoz, hogy egy órajel alatt végezzenek a 32 pixel egy-egy komponensével. A GF104 esetében azonban egy kis trükköt vetett be az nVidia, aminek köszönhetően 16 CUDA mag dolgozhatott egy warpon. A megoldás lényege abban rejlett, hogy a shaderek órajelét megemelték a GPU órajelének a duplájára, így amit az ütemező kért, az számára a következő órajelben már készen is volt. Az elgondolás nem rossz, és a gyakorlatban működött is, a mérnökök azonban a helytakarékosság helyett inkább az alacsonyabb fogyasztást választották ezúttal. Nemes egyszerűséggel megduplázták a CUDA magok számát, így már ténylegesen 32 végrehajtó egység dolgozhat egy warpon. Hogy ez miért volt jó azt talán az alábbi ábra segít megérteni.
Az új CUDA magok némileg egyszerűsödtek, kevesebb tranzisztorból is kijönnek, így két új CUDA mag méretben az előző generációs egy szem magnál csak 80%-kal foglal több helyet, miközben azonos órajelen ez a kettő már alapból 10%-kal kevesebb energiával is beéri, ami például annak is köszönhető, hogy a végrehajtó futószalag hosszát is csökkenteni lehetett, mert nem kellett olyan nagy órajelre felkészíteni a CUDA magokat. A fogyasztás ráadásul egyenesen arányos az órajellel, így azzal, hogy nem kell az órajelet a duplájára emelni, további 50% energia spórolható meg. A végeredmény a mostani GPU-ban az eredeti fogyasztás 45%-a ugyanannak a feladatnak az elvégzésére és ez óriási előrelépés.
Kepler folyt.
A GK104 SMX-eiben 192-192 CUDA mag található, ami négyszerese a GF104 SM-jeiben lévő 48-nak, de az előző oldalon megismertek fényében talán már nem meglepő, hogy az első duplázás az azonos sebesség tartására ment el, így valójában a rendelkezésre álló erőforrásokból „csak” kétszerannyi lett. Ez a kétszerezés jellemző egyébként az egész SMX-re: kétszer akkora regisztertár, kétszerannyi textúrázó és kétszer annyi ütemező, amik munkára foghatják a CUDA magokat. Egyedül a Polymorph engine-ből maradt egy darab a porondon, amit úgy kompenzáltak, hogy kigyúrták kb. kétszer olyan erősre, így ez sem lesz szűk keresztmetszet.
A fogyasztás csökkentéséért vívott harcnak van egy másik fontos lépcsője az SMX-en belül, ez pedig a már emlegetett ütemezők drasztikus leegyszerűsítése. A Fermivel az nVidia behozott a jól megszokott statikus ütemező helyett egy olyan hardveres megoldást, ami hasonlóan a processzorokhoz, képes átrendezni az utasítások sorrendjét a függőségek függvényében. Ez főleg a GPGPU alkalmazásoknál jelentett óriási előnyt, és segített abban, hogy minél jobb legyen a CUDA magok kihasználtsága. Az egyetlen hátránya ennek változatnak, hogy elég sok területet igényel a lapkán, és így szépen növeli a fogyasztást is. Mivel a részegységek késleltetési ideje fix, ezért a mérnökök úgy gondolták, ezentúl majd szoftveresen, a driver fordítójával oldják meg a lehető legjobb kihasználtságot, hiszen könnyű előre számolni a végrehajtási időkkel. Ez a változtatás viszont már kétélű fegyver, hiszen a fogyasztás csökkenésével a magok kihasználtsága is romlik. A GK104 azonban főleg a grafikus feladatokat veszi alapul és ott még így is könnyű biztosítani, hogy a lehető legtöbb mag dolgozzon.
Ezzel nagyvonalakban ki is tárgyaltuk az új SM-eket, lépjünk egy szinttel feljebb. Az egyel nagyobb építőkő is a Fermiből lehet ismerős, ez pedig a Graphics Processing Cluster (GPC), amit kis túlzással akár egy mini-GPU-nak is nevezhetünk, hiszen mindegyiknek saját raszterizáló motorja van. A GF104 esetében egy GPC-ben négy SM volt, ez most kettőre változott, így minden Raster Engine alatt kb. ugyanakkora izomzat található, mint az elődben. Cserébe viszont lett négy GPC-nk, pont annyi, mint egy GF100-ban. A ROP-ok szinte nem is változtak és az elrendezésük is ugyanolyan, mint ahogy a GF104-ben megszokhattuk, tehát négy blokkban foglalnak helyet, és mindegyik blokkban nyolc-nyolc ROP található, azaz összesen 32-vel gazdálkodhat a GPU. A mérnökök a tapasztalatok alapján úgy gondolták ez bőven elég (és igazuk is van). Mindegyik ROP blokkhoz kapcsolódik 128KB L2 cache és egy 64 bites memória-vezérlő, így itt sincs semmi változás a GF104-hez képest látszólag, hiszen ugyanúgy 512KB-nyi gyorsítótárat és 256 bites memória elérést kapunk. Amit viszont a diagram nem mutat meg, az a sebesség változása. A gyorsítótár sebessége is sokat javult, de a legfontosabb a memória-vezérlők újratervezése volt, ezek ugyanis elég harmatosra sikerültek a Fermi esetében. Miközben az AMD GPU-i 5GHz feletti órajeleken használták a memória moduljaikat, addig a Fermik örültek, hogy elérték a 4GHz-es effektív órajelet. Ennek mostantól vége a GK104 egy csettintésre behozza a lemaradást, és ezt bizonyítván a GTX680-on a GDDR5-ös chipek effektíve 6GHz-en dolgoznak. Ezzel gyárilag jelenleg a GTX680-on vannak a leggyorsabb memóriák a piacon, és ez a megemelt órajel ahhoz is elég, hogy 256 bites adatsínnel hozza az új kártya a GTX580 memória-sávszélességét.
GPGPU képességek
Az eddigiek alapján szép jövőképet lehet festeni a GK104-nek, de azért van egy árnyoldala is az egyszerűsítéseknek. A GPGPU felhasználásról beszélünk, aminek éppenséggel kedvezett például a Fermi komplexebb ütemezője, vagy ahogy a 64 bites lebegőpontos számokat kezelte. Utóbbi az átlagfelhasználókat nem nagyon fogja érinteni, de érdemes beszélni róla, mert a Kepler teljesen új irányt vett ezen a fronton.
GPGPU felhasználásra a GF100/GF110 volt az etalon az előző generációban, ezekre épültek az nVidia HPC (High Performance Computing) szegmensbe szánt Teslái is. Már a GF104-et is egyszerűsítették FP64 fronton, hiszen az SM-jeiben található CUDA magoknak csak az egyharmada volt képes 64 bites számokkal dolgozni, ráadásul csak negyed olyan gyorsan, mintha 32 bitesekkel dolgoznának. Végeredményben tehát FP64-es számolásoknál a maximális teljesítményének 1/12-ét volt képes nyújtani egy GF104-es GPU. A GK104 esetében viszont az SMX-ek alap CUDA magjaiból egyik sem képes 64 bites számokkal dolgozni. A kompatibilitás biztosítása érdekében ezért bekerült mindegyik SMX-be további nyolc CUDA mag, amik csak és kizárólag FP64-es számokkal dolgoznak, és egy GPU-ban először: teljes sebességen. Mindegyik egy órajel alatt végez egy számítással. Viszont még ez is csak arra elég, hogy elméletben a maximális sebesség 1/24-ével tudjon dolgozni a GTX680 ha FP64-es számokról van szó. Mivel az erőforrásokat duplázták a GTX560 Ti-hez képest, ezért logikusan körülbelül ugyanott kéne végeznie a kártyának, mint a valódi elődjének, de a gyakorlat az AnandTech mérései alapján azt mutatja, hogy az új kártya csak próbál lépést tartani a GF104-gyel. A PrimeGRID Genefer tesztjében elért eredmények alapján ~30%-kal több időre van szüksége ugyanazon feladat elvégzéséhez, mint egy GTX560 Ti-nek.
Mivel az idő szűke miatt nekünk egyelőre még nem volt időnk a GTX680 GPGPU képességeivel foglalkozni, ezért körbenéztünk mások mire jutottak és az eredmény ha nem is elkeserítő, azért nem túl fényes. Luxmarkban a GTX580 agyonveri a GTX680-at, a Civilization V GPGPU tesztjében épphogy tartani bírja a lépést az előző csúcskártyával (itt a HD7970 nyer), a Smallux-ban a Radeonok nagyon elhúznak, de még a GTX580 is körülbelül 50%-kal gyorsabb és AESEncrypt-ben is lehagyja a GTX580 az újoncot. A megváltást a DirectX11 egyik Compute Shadere hozza ami folyadékszimulációt végez. Ebben képes nyerni a GTX680, de ettől függetlenül az otthoni GPGPU programozó palánták ha lehet ne erre ruházzanak be. (A sorrendek az AnandTech és a TechReport mérései alapján születtek)
Hardveres és szoftveres extrák
A GTX680-nal és a 300-as driverekkel rengeteg új szolgáltatás került be az nVidia kínálatába, gyorsan átvesszük ezeket is, mert van köztük néhány érdekes.
Elsőként itt van mindjárt a GPU Boost, ami hasonlóan az Intel processzorokban látható Turbo Boost-hoz és az AMD processzorokban lévő Turbo Core-hoz, azért felel, hogy a GPU órajelét állítgassa működés közben. A figyelembe vett szempontok a következők: fogyasztás, GPU és memória leterheltség, GPU hőmérséklet. Jelenleg úgy néz ki, hogy a fogyasztást csak egy külső áramkörrel tudja ellenőrizni a GTX680, a többi információt pedig a GPU küldi a drivernek. Igen a drivernek, a váltogatás ugyanis szoftveresen történik, és ezért a késleltetése is elég nagy egy ugrásnak, az nVidia szerint 0.1 másodperc, ami nagyon magas az eddig megszokottakhoz képest. A mérnökök is beismerik, hogy a megoldás még nagyon kezdetleges, de sok tervük van vele a jövőben, így biztos fejlesztenek még rajta.
A GPU Boost miatt megjelent egy új órajel is a Kepleres GPU-knál, a Boost órajel. A GTX680 alap órajele például 1006MHz, míg a Boost órajele 1058MHz. Azonban a processzorokkal ellentétben a GPU Boost nem úgy működik, hogy ha a csillagok állása is megfelelő, akkor felmegy a Boost órajelre és örül magának, inkább apróbb lépésekkel dolgozik. A GTX680 esetében 13MHz-es lépésközök vannak és az 1058MHz csak amolyan ígéret, hogy körülbelül erre az órajelre fog beállni a kártya egy tipikus grafikus terhelés esetében. Helyzettől függően azonban felmehet ez fölé, vagy ha olyan programokat engedünk rá, mint a FurMark, akkor ne is számítsunk emelésre. Mindegyik órajel mellé más feszültség tartozik, hogy alacsonyabb órajel esetén a fogyasztás is jobban csökkenjen. A tesztek alatt mi is láttunk elég példát az órajel ugrálására, sokszor volt 1100MHz környékén a GPU, de a 3DMarkok alatt akár e fölé is hajlandó menni. A pontokat hozni kell ugye, fontos a jó PR.
Az állandóan változó órajel miatt kicsit nehéz a GK104-et a konkurenciához viszonyítani és a tuningja is érdekesen alakul, ugyanis egy offszet értéket állíthatunk be, ami azt mutatja meg a GPU-nak, hogy mennyivel térjen el az adott szinten lévő órajeltől, tehát tuning után sem marad majd konstans az órajel, megy majd amerre jónak tartja, csak az eredetihez képest pl. plusz 200MHz-cel. A GPU Boostban nagy lehetőségeket lát az nVidia, idővel lehet, hogy hardveressé teszik az egészet, de például szeretnének megoldást nyújtani a játékbeli menük problémájára is. Biztos találkozott már mindenki azzal az esettel, hogy belép egy játék menüjébe, ami aztán megy 1000 fps-sel, teljesen feleslegesen nyúzva a GPU-t. A játék támogatása esetén a driver ilyenkor szólhatna a GPU-nak, hogy fogja vissza magát, mert hiába erőlködik, ezért most nem jár dicséret. Egy érdekességet egyébként már most bevezettek a GPU Boosttal kapcsolatban, ez pedig az, hogy a driverben választhatunk cél FPS mennyiséget. Például mondhatjuk, hogy 60fps-nél többre nincs szükségünk, így ha túl sok képkocka készülne el másodpercenként, akkor a szoftver nyugodtan fogja vissza a chipet. A probléma ezzel csak annyi, hogy a nagy késleltetés miatt lassan reagálhat az olyan eseteknél, amikor hirtelen lenne szükség sokkal több kakaóra (beteleportálnak ezren a pályára, nagy robbanások lesznek, stb.), így egy pillanatra érzékelhetjük a lassulást.
Na de ennyit a GPU Boost-ról, lépjünk tovább, mert bőven van még miről beszélni. A HD5000-es széria óta például a Radeonok már képesek 3-6 kijelző kezelésére, kártyától függően, míg az nVidiánál a csúcs GeForce is maximum kettőt bírt el. Ennek mostantól vége, a GTX680 akár négy monitort is vezérelhet egyszerre, így nincs szükség többé SLI rendszerre ha Surround Gamingre vágyunk.
A DirectX egyik hátránya, hogy limitálva van benne a megcímezhető textúrák mennyisége. A Bindless Textures szolgáltatás ennek vet véget, immár memória címekkel operálhat a GPU, annyi textúrát kezelhet, amennyit nem szégyell. Carmack a MegaTexture-féle megoldások támogatása miatt egyszer már örülhetett a GCN architektúrának, most biztos örömmel látja az nVidia újítását is.
Szoftveres változtatás az Adaptive V-sync, ami leegyszerűsítve csak annyit csinál, hogy a megadott frissítési rátához (60 vagy 30Hz) képest figyeli a képkockák számát másodpercenként. Ha elérjük a megadott 60fps-t akkor aktívvá válik a V-sync, ha beesünk alá, akkor a driver deaktiválja. Ilyet láthattunk már sok konzolos címben.
Bekerült a driver repertoárjába az FXAA élsimítás is, így a támogatott játékokon felül ezentúl bármiben használhatjuk, akárcsak a Radeonok esetében az MLAA-t. A megoldás hátránya, hogy mivel nincs implementálva az adott játékszoftverbe, azért a kész képpel dolgozik, márpedig az MLAA/FXAA nincs jó hatással a megjelenített szövegekre például, elmossa egy kicsit azokat is. Amikor az FXAA egy játék részeként dolgozik (például a Battlefield 3-ban), akkor létrehozza a 3D-s képet, lefuttatja rajta az FXAA eljárást, és csak utána teszi rá a képre a HUD-ot. Driverből aktiválva az FXAA-t már a HUD-dal ellátott képpel dolgozik a GPU.
Megjelent egy újfajta élsimítás is a GPU képességei között, a TXAA, ami egy vegyes felvágott, van benne némi hardveres AA, egy kis CG filmeknél megszokott AA megoldás és a 2xTXAA esetében egy opcionális átmeneti komponens a jobb képminőség érdekében. Szokás szerint most is hihetetlen képminőséget ígérnek nekünk jóval kevesebb erőforrásból. Támogatása később várható majd játékokban, a nyár elején megjelenő Secret World például már élni fog a lehetőséggel. Több helyen a Quincux utódjának nevezik a TXAA-t, valószínűleg jogosan, és annak azért megvoltak a hátrányai is, elég csak pár PS3-as címet megnézni, ami használja (kicsit mosott érzet az egész képen). Kíváncsian várjuk mit hoznak majd ebből ki az nVidiánál.
Nem maradt más hátra, mint a hardveres videó kódoló, ami itt NVENC néven megy. Akár 4k-s videók átkódolására is hajlandó, olyan mint az Intel Quicksyncje, már van is program ami támogatja. Az eddig ismert információk alapján viszont nem képes bemeneti forrásként kezelni a videókártya frame bufferét, így az AMD megoldása a témában sikeresebb lehet a játékosok körében (főleg ha végre lenne program, ami ki is használná).
A mezőny, GTX680, tesztkonfiguráció
Ennyi volt az architekturális változások és az extrák sora, itt az ideje, hogy behelyezzük a GTX680-at a mai mezőnybe!
Mivel először látunk ilyen sokmagos megoldást az nVidiától így nehéz betippelni, hogy mégis mire számíthatunk. Papíron a CUDA magok számítási teljesítménye ezen az órajelen akár a duplája is lehet annak, mint amit a GTX580-as nyújthat, de ebből le kell vonni, hogy az új ütemező messze nem fogja teljes kihasználtságon hajtani a magokat, ráadásul ott vannak az olyan apróságokat is, mint például hogy a memória-sávszélesség változatlan. A PCI-E 3.0 csatoló maximum GPGPU alkalmazásoknál és többkártyás rendszereknél jelenthetne előnyt, de mint láthattuk az előbbinél aligha számít bármit is jelen esetben.
Sokkal érdekesebb azonban a konkurenciához hasonlítgatni a GTX680-ast. A Tahiti 20%-kal nagyobb és 20%-kal több tranzisztort is tartalmaz, de cserébe megkapta például a jobb ütemezőket. Shaderekből is több található a Tahiti-ben, de azt már rég megtanulhattuk, hogy különböző architektúrák esetében a megfeleltetési arány messze áll az 1:1-től. Mivel a GTX680 jelent meg később, így az nVidiának a csúszásért cserébe megvolt az az előnye, hogy úgy választhatta meg a kártya órajeleit, hogy már tudta mire képes a HD7970. Ennek minden bizonnyal lesz is eredménye. A HD7970 mellett szólhatna még a 3GB memória is, de játékokban vajmi kevés az esélye annak, hogy belefutunk egy olyan helyzetbe, hogy kevés a 2GB (és akkor is többmonitoros rendszeren játszunk max.)
Amit még érdemes majd figyelni, az az előző generációs HD6970 teljesítménye, mert ugyanannyi shadert tartalmaz, mint a GTX680-as, de az órajelét bő 20%-kal meg kéne emelni, hogy elérje az új kártyáét. Persze azt sem szabad elfelejteni, hogy a Cayman jóval kevesebb tranzisztorból hozta ki a fenti adatokat, de pont ettől lesz olyan érdekes az egész. Mindjárt bele is csapunk a tesztekbe, de előbb vegyük szemügyre a mai cikk főszereplőjét.
ASUS GTX680 2GB
Az ASUS első kártyája, mint minden kártya az induláskor, a referencia dizájnra épít. A hűtésről már mondhatjuk, hogy a szokásos, az nVidia kártyáin ezer éve ilyeneket látunk. A csökkentett fogyasztásnak hála a ventilátor nem csap akkora zajt, mint a rivális csúcsragadozó, ez már jó jel. Üresjáratban 37 fokos GPU hőmérsékletet mértünk, míg FurMarkos terhelés alatt 85 fokig ment fel a kártya (értelemszerűen ebben az esetben nem is erőlteti önmaga tuningját).
Felsőkategóriás kártyától szokatlan, hogy „csak” két hattűs PCI-E tápcsatlakozót kér (viszonyításképpen a HD7970 egyik tápcsatlakozója nyolctűs), de mi kifejezetten örültünk neki. A kimenetek bár több helyet foglalnak a hátlapon, mégis jóval barátságosabbak, mint a konkurenciánál, elvégre mennyivel egyszerűbb átalakítók nélkül használni több DVI kimenetet, nem nehezítik az életünket mini-csatlakozók.
Tesztkonfiguráció
Alaplap: Gigabyte X58A-UD3R
Processzor: Intel Core i7-930@3,71GHz
Memória: 3x1GB Kingmax DDR3-1333
Grafikus kártyák: Sapphire HD7770 1GB, ASUS HD6850 DirectCU 1GB, Sapphire HD6870 1GB, ASUS HD7850 DirectCU II TOP 2GB, ASUS HD7870 DirectCU II TOP 2GB, Sapphire HD6950 2GB, Sapphire HD6970 2GB, ASUS HD7950 DirectCU II 3GB, ASUS GTX7970 3GB, ASUS GTX560 1GB, ASUS GTX 560 Ti 1GB, ASUS GTX570 DirectCU II 1280MB, ASUS GTX580 DirectCU II 1.5GB, ASUS GTX680 2GB
Tápegység: Chieftec 850W
Operációs rendszer: Windows 7 Home Premium SP1 64bit minden frissítéssel
Driverek: Catalyst 12.2, Catalyst 8.955 (HD7800, HD7900), GeForce 296.10, GeForce 301.10 (GTX680)
Fogyasztás, szintetikus tesztek
Ezúttal az üresjárati fogyasztásos képet nem mellékeltük, mert a mezőnyben annyira kevés volt a referencia kártya, hogy nem igazán lett volna értelme. A Windows asztalán ácsorogva még az is beleszámít a kártya fogyasztásába, hogy egy vagy három ventilátor teker-e rajta, ezért tényleg volt egy kisebb káosz az eredményekben. Ami lényeges lehet, az az, hogy az elődökhöz képest a GTX680-as üresjárati fogyasztása csökkent, így körülbelül egy szinten van a HD7970-essel ZeroCore nélkül (a HD7970-esünk szerencsére referencia példány volt). Terhelés alatt azonban kisimulnak a különbségek, úgyhogy lássuk mire jutottunk a FurMark használatával.
Bár a FurMark alatt a GTX680 berendezkedik minimál 3D-s GPU órajelre, azért még így is szép amit látunk, az utóbbi években nem ehhez szoktatott minket az nVidia. Az új csúcskártya jóval kevesebbet fogyaszt, mint a GTX580, inkább a GTX560 Ti szintjén van, így még a H7970 is érezhetően többet kér enni.  Ezzel meg is volna az első piros pont a Keplernek.
Szintetikus tesztek
Mint azt már említettük, a 3DMarkok alatt fullosan dübörög a Turbo, kell minden egyes kicsikarható plusz pontszám és ez meg is látszik az eredményeken. Vantage alatt 10%-kal gyorsabb a GTX680, mint a HD7970.
3DMark11 alatt nő a különbség, beállításoktól függően 20-24%-ra, ami impresszív, reményeink szerint ebből valamennyi a játéktesztekben is látszik majd. A GTX560 Ti-hez képest megvan a duplázás + a magasabb órajel által biztosított többlet. Szép eredmény.
Heaven alatt is van 20% előnye az új kártyának, pedig az új Radeonok végre szépen vették ezt az akadályt is. Hát, eddig tartott ki a korona. Következzenek az érdekesebb játéktesztek!
Játéktesztek
Megjegyzés: ahol csak lehetőség volt az élsimítás állítására, a maximális beállítás alatt 4x MSAA-t értünk
Az első játékban felmutatott eredmény egy kicsit csalódás, mert a szintetikus tesztek alapján nem ezt vártuk, a HD7970 ha nem is sokkal, de a GTX680 fölé emelkedik. Legalább a GTX580-at sikerül legyőzni, ahogy illik.
Az idegenek sem rajonganak az új architektúráért, bár névbeli elődjéhez képest itt is fejlődést mutat a GTX680, de a HD7970-est nem tudja megverni.
Az Unreal motoros Batmanben azonban változik a helyzet, de épp csak egy pici helycserével. A mezőny eleje eléggé egyben van.
Az öregedő, de még mindig terhelő Crysis Warhead alatt fej-fej mellett menetelnek a riválisok, egyik sem képes a másik fölé emelkedni.
Crysis 2 alatt a GTX680 már láthatóan erősebb, de előnye mindössze pár százalékos. A GTX580-hoz viszonyítva viszont még így is szép az előrelépés.
Hard Reset alatt is hasonló a helyzet, a GTX680 nyer, de nem sokkal. Az nVidia mérnökei lehet, hogy még a tények ismeretében is túl óvatosan bántak az órajelekkel?
A Lost Planet 2 HD7000-es Radeonok érkezéséig az nVidia játszótere volt, majd az AMD-nek végre sikerült behoznia a lemaradását. Legalábbis eddig, mert a GTX680 visszaveszi a koronát ebben a játékban is.
Játéktesztek
Mostanra már valószínűleg mindenkinek kezd visszaállni a kártyába vetett bizalma, hiszen a kezdeti kisiklás óta sikerül megtartania a vezető szerepét. Mafia 2-ben ráadásul lehetőségünk van a PhysX használatára is.
Érdekes módon a Metro 2033-ban kikap a GTX680-as, pedig ennél nagyobb nVidiás zászlót már nem is lehetne kitűzni a játékra. Mulder nem volt hajlandó foglalkozni az üggyel, Kaliforniáról és Ferrarikról hablatyolt valamit a telefonba, nem igazán figyeltünk.
Skyrim alatt a Radeonjaink még mindig lázadoztak a V-sync kikapcsolása ellen (ami érdekes, mert másnál ugyanezekkel a driverekkel már működött a dolog, nálunk pedig az újratelepítés sem segített. Éljen a számítástechnika!), úgyhogy maradt a 60fps áradat. A Catalyst 12.2 egyébként sem szereti ezt a játékot, a HD6950 valamiért borzasztóan alulteljesített nálunk, a HD6800-asok pedig villogtak AA használatával, mint egy karácsonyfa. Nagyon örültünk mikor a tegnapi 12.3-as driver javításai között az is ott szerepelt, hogy ennek a jelenségnek annyi. A mai tesztben azonban a GTX680 a 12.2-es driver miatt bezsebelhetett egy könnyű győzelmet, de ez a meccs még nem lejátszott.
Úgy látszik a teszt végére maradtak a driverhibák. A HD6900-asok sztrájkoltak Stalkerben, 10 percnyi analysing configuration felirat után dobtak egy hátast és a benchmark büszkén az arcunkba tolta az előző kártya eredményeit… No sebaj, akkor ők kimaradnak, de hogy ne csak a 12.2-es Catalyst hibáit emlegessük, a GTX680 is csak az első három tesztet volt hajlandó lefuttatni. A legérdekesebb SunShafts részre már ő is azt mondta, hogy kösz nem. Pedig az a legleterhelőbb mind közül, és ott érdekes dolgok szoktak történni. Na majd legközelebb.
Összefoglalás, jelen és jövő
Elérkeztünk hát az összesítéshez. Az eredmények átlagolásánál most sem vettük figyelembe a szintetikus tesztekben felmutatott teljesítményt, és a Skyrim is kimaradt a V-sync problémák miatt.
Összességében, ahogy az várható volt, a GTX680 vezeti a mezőnyt, de előnye mindössze csak pár százalékos a HD7970-hez képest. A mérnökök úgy látszik óvatosan bántak az órajellel, a nagyobb teljesítmény helyett inkább a jó fogyasztási mutatókra törekedtek, amivel mi csak szimpatizálni tudunk. Így is elég bármire az új kártya, miközben a csúcskategóriában a legalacsonyabb fogyasztással rendelkezik terhelés alatt. Ez egy óriási változás az nVidia részéről, behozták az egyetlen igazi hátrányukat az AMD-hez képest.
Persze valamit valamiért, míg a Tahiti tett egy lépést a Fermi felé az ütemezőjével, addig a Kepler tett egy lépést az előző generációs Cayman felé az ütemező egyszerűsítésével, és úgy alapvetően az AMD-s architektúrák felé is lépett egyet a sokmagos felépítésével az eddigi dupla órajeles shaderek helyett. A 64 bites lebegőpontos számok kezelését szinte kukázták, a játékosoknak nincs szüksége rá. GPGPU fronton tehát nem várhatunk sokat, de ez nem is volt cél a GK104 tervezésénél.
Ha már azt mondtuk, hogy a GK104 tett egy lépést a Cayman felé, vessük is össze a két csúcskártyát, a HD6970-est és a GTX680-ast. Azt láthatjuk, hogy bő 40% különbség van közöttük, amiből 20% behozható csak az órajel különbségből, a +1 milliárd tranzisztor további 20%-ra volt elég.
Még nem beszéltünk a jövőről és a lehetséges fejlődési irányokról, de mielőtt ezt megtesszük, fontos beszélnünk egy olyan aspektusáról is a GTX680-nak, aminek semmi köze az architektúrához vagy a driverekhez. Ez lenne az ár, amit az nVidia ügyesen pont csak egy kicsivel a HD7970 alá pozícionált, így az AMD-n nincs olyan nagy nyomás az árcsökkentésre, ez pedig késlelteti az árháború kezdetét. Valószínűleg amíg nem jelennek meg a kisebb Keplerek és nem ismerjük a teljesítményüket, addig az AMD nem fogja erőltetni az árcsökkentést, maximum a HD7970 árát igazítja a GTX-éhez, de lehet, hogy még azt sem. Kíváncsian várjuk mit lépnek majd.
Hogyan tovább?
Biztos sokakban felmerült a kérdés, hogy a GK104 vajon tényleg a jéghegy csúcsa? Nos, az eddigi információk alapján igen is meg nem is. Észre kell hogy vegyük, hogy a GK104-gyel az nVidia drasztikusan elválasztotta egymástól a játékosoknak szánt GeForce-ait, és a HPC szegmensbe szánt Tesláit. A GK104 biztos nem kerül Teslákra, egyszerűen oda nem elég. Valószínűleg erre lesz majd a GK100-as, ami jó eséllyel kiváló FP64-es képességekkel is rendelkezik majd, a legvadabb elképzelések alapján akár csupa FP64-es CUDA magból is épülhetne. Idővel kiderül, akik óriás chipet akartak az nVidiától, azok a GK100 formájában előbb vagy utóbb valószínűleg meg is kapják, de nem a gamer vonalon. Ott már csak a GTX690-re várunk, ami két GK104-es GPU-t tartalmaz majd. Lefelé könnyű lesz terjeszkednie az nVidiának, a GK106 valószínűleg a GK104 felezése lesz majd, míg a már ismert GK107 a negyedelése (mobil GPU már készült vele, 384 shaderes), plusz ott lesz még a játék a letiltható shader blokkokkal (GTX670-be pl.). Legközelebb májusban számíthatunk új, Kepler alapú megoldásra, addig pedig még befut majd az AMD két-GPU-s megoldása is, a HD7990. Szépen elosztva jelennek meg a konkurens kártyák, de az biztos, hogy az idei év első felében nem unatkozunk majd.
A tesztben szereplő kártyákat az ASUS magyarországi képviseletétől, Ramiris Europe Kft.-től és az Expert Zrt.-től kaptuk kölcsön. Ezúton is köszönet értük!