Architektúra
Bő félévnyi csúszás után végre itt vannak - és már nem csak elviekben - az nVidia új óriás GPU-jára épülő kártyák. Bár az ígéretekkel szemben nem szenvedünk a bőség zavarában, de azért már nem kell Hudson Hawk segítségét kérnünk, ha szeretnénk beszerezni egyet az új GTX-ekből. Sokan várták a 400-as szériát, míg sokan már a megjelenése előtt el is temették, és az első tesztek csak fokozták egy kicsit a káoszt, hiszen mindenki találhatott magának olyat, ami a saját igazát támasztotta alá. Mielőtt azonban elmerülnénk az eredmények tengerében, fussunk át egy kicsit azon, mit is érdemes tudni a Fermi architektúráról, még pontosabban annak első megvalósításáról, a GF100-ról, ami a GTX470-nek és a GTX480-nak is a lelke. Igyekszünk csak a lényegre szorítkozni, de ha valakit inkább a számok érdekelnek, lapozzon egyet nyugodtan.
Fermi egy kicsit közelebbről
A GF100-at kétféleképpen is lehet vizsgálni: mint HPC szegmensbe szánt adatpárhuzamos gyorsítót, vagy mint otthoni GPU-t. Bár jelentős fejlődést képes felmutatni előbbiben is, mi most az utóbbira fogunk koncentrálni, hiszen a GTX széria a játékosoknak szól. Induljunk el felülről lefelé, így néz ki nagyvonalakban az egész chip:
Az alapok ismerősek lehetnek a G80-ból (8800GTX), de az már első ránézésre látszik, hogy itt komoly változások történtek. A chip központi része a 768Kb-nyi L2 gyorsítótár, ami lecseréli az eddigi, csak írható, vagy csak olvasható átmeneti tárakat. Ezen keresztül megy a teljes adatforgalom a memóriavezérlővel és a cache gondoskodik róla, hogy az írások és olvasások a megfelelő sorrendben történjenek. A memóriavezérlő visszatér a G80-ban megismert 6*64=384 bites felálláshoz, de óriási különbség, hogy immár GDDR5-ös, ezért az elérhető memória-sávszélesség óriási (viszonyításképpen a Radeonok is GDDR5-öt használnak, de „csak” 256 bites interfészen keresztül). Az L2 cache-t körülveszi a 48 (6*8) ROP egység, ami nagyon gyors élsimítás kezelést sejtet. A HD4000-es széria óta az nVidiának lemaradása volt 4x feletti AA használata esetén, a GF100-ról viszont nem kevesebbet állítanak, minthogy kétszer olyan gyors nyolcszoros élsimítás használata esetén, mint elődje (GT200). Utánajárunk ennek is, de most térjünk rá a chip lényegi részére, ahol a shaderek futnak.
Eddig ún. TPC (Texture/Processor Cluster) blokkok képezték a shader mag alapját, amik tartalmazták a szálkezelés jórészét, a textúrázókat és GPU-tól függően 2-3 Streaming Multiprocesszort, amikben 8-8 feldolgozó egység volt. A GF100-ban azonban nincsenek TPC-k, helyettük megjelent négy Graphics Processing Cluster (Grafikus feldolgozó fürt, mostantól GPC). Az nVidia azt állítja, hogy ezek akár egy-egy külön GPU-nak is megfelelhetnek, és mint látni fogjuk, kis túlzással tényleg. A Fermi grafikus processzorkénti legnagyobb újítása ugyanis itt kezdődik: talán már feltűnt a szemfülesebbeknek, hogy fent a GigaThread motor mellől teljesen hiányzik az előkészítő rész. Se raszter egység, se a háromszögek feldolgozásával foglalkozó Setup, se tesszelátor, semmi. Az évek alatt a shaderek óriási fejlődésen mentek át, és az nVidia szerint a rosszemlékű FX5800-ashoz képest a GTX280 150x olyan erős volt, ha pixel shaderekről volt szó, míg összesen csak háromszor, ha geometriáról. Hiába futtathattunk vertex shadereket, ha már az előkészítés tele volt gyenge pontokkal. Manapság jellemzően egy háromszöget képes feldolgozni egy GPU egy órajel alatt, még a Radeonok is ezt teszik. De nem a GF100, melyben (az nVidia elmondása szerint először) párhuzamosítva van a geometria feldolgozása. Ez semmiképpen sem lebecsülendő, mert nem kevés problémát kell megoldani ahhoz, hogy ez lehetségessé váljon. A fenti képen jól látható, hogy minden GPC saját raszter egységgel rendelkezik, és négy SM-mel (Shader Multiprocessor). Utóbbiak részét képezik a találóan Polymorph engine-nek hívott előfeldolgozó.
A PE felel a Vertex és Hull shaderek, a Tesszelátor, valamint a Domain és Geometry Shaderekért. Természetesen a négyféle shader a Shader Multiprocessorban található feldolgozókon fut, de a Polymorph Engine felel a kezelésükért és végzi el a fix funkciós részét a tesszelációnak (kis emlékfrissítő: A DX11-es tesszelátor három fázisból áll. Hull shader – Fix funkciós tesszelátor – Domain shader). Ez viszont azt jelenti, hogy a fix funkciós rész elvégzésére a GF100-nak 16 dedikált egysége van, nem pedig 1, a shaderek futásához pedig elég erőt biztosít maga az SM.
Ha a Polymorph Engine végzett, akkor szerephez jut a raszter motor. Mivel összesen négy van belőle és darabja 1 háromszög/órajel sebességgel képes dolgozni ezért optimális esetben akár 4-et is fel lehetne dolgozni órajelenként. Persze azt még az nVidia is beismeri, hogy azért ezt nem könnyű produkálni, de átlagosan 3.2/órajel megvan, ami így is jóval erősebb az eddigi 1-nél.
Az egyetlen lényegi dolog, amiről még nem beszéltünk az maga a Shader Multiprocessor. Ennek a részét képezi a Polymorph Engine, és ebben találhatóak a feldolgozó egységek is, amiket az nVidia CUDA magoknak hív, pedig csak egyszerű aritmetikai/logikai egységekről van szó, melyekben van 1-1 lebegőpontos és integer feldolgozó (egyszerre csak egy számon dolgozhat, ez nem jelent duplázást!). Mivel SM-enként 32 CUDA mag és 16 SM van, ezért mint tudjuk összesen 512 shader műveletet képes végrehajtani optimális kihasználtság mellett egy órajel alatt a GF100. Sajnos a pocsék kihozatali arány miatt még a csúcskártyában is le van tiltva 1 SM, míg a GTX 470-ben már 2 is, így ez a szám módosul 480-ra és 448-ra kártyától függően.
A cache és regiszterkészlet is át lett dolgozva, rengeteg memória található egy SM belsejében. A 128Kb-os regiszterkészlet mellett van például egy 64Kb-os adattár, ami kétféleképpen is felosztható: 48Kb L1 cache és 16Kb közös memória, vagy pont fordítva. GTX néven az utóbbit használják, mert grafikára jobban jön ki.
Nagyon fontos újítás, hogy mostantól minden SM-nek saját textúrázói vannak, nem közösködik másokkal. Cserébe azonban csak 4-4 van mindegyikben így 16*4=64 textúrázó található összesen a GF100-ban. Ez kevesebb, mint a GT200-ban található 80, de az nVidia szerint a jobb cache kezelésnek hála a hatékonyságuk jobb, úgyhogy nem gyengébb ezen a fronton a GPU az elődjénél (plusz órajellel is kompenzál).
Ennyi lenne nagyon zanzásítva az új GF, akit jobban is érdekel a téma, annak ajánljuk a GTX400-as honlapon található két nVidia whitepapert (balra, Additional info alatt), a legtöbb kérdésére biztos választ kap bennük. Közben pedig haladjunk tovább, lássuk milyenek maguk a kártyák és kikkel kell szembenézniük!
Az új GTX-ek és a konkurencia
GTX 470 és 480
Mindkét kártyából egy Gigabyte példány járt nálunk, de mivel a kézzel fogható megoldások hiánya miatt az utóbbi hetekben tele volt a net képekkel, így a referencia design kinézete valószínűleg senkit sem lep meg, ettől minden partner csak a matricázgatásban tér el jelenleg. Ha jobban felfut a gyártás, akkor biztos megjelennek az egyedi GF-ek is.
A Gigabyte terminátorra hajazó díszítése és a kártyák felépítése erőt sugároz, ahogy azt megszokhattuk a csúcskategóriában. A két kártya hűtése hasonló, a legnagyobb eltérés, hogy a GTX480 bordázatából öt heatpipe is kikandikál, az egyenletesebb hőelosztás érdekében. Szüksége is van rá, hiszen még a GTX280-nál is magasabb TDP-vel rendelkezik. Elég súlyos darabok, de hosszra tökéletesen illeszkednek a konkurencia mellé (erről a TechReportos kollégáknak van egy szép képe: klikk). A GTX 470 pont olyan hosszú, mint a HD5850, míg a GTX480 a HD5870 mellé illeszkedik. Utóbbi azért hosszabb egy kicsivel, mert a hűtő műanyagja továbbnyúl a NYÁK-on.
Mindkét kártyán két DVI és egy mini-HDMI csatlakozó található. Utóbbira azért volt szükség, hogy elférjenek a kimenetek egy sorban és ne akadályozzák a levegő útját. Cserébe kapunk egy mini HDMI > HDMI kábelt, hogy ne okozhasson problémát a csatlakozó. Egyszerre maximum két kimenet lehet aktív, ezért is kell az nVidia Surround rendszereihez legalább két VGA.
Üresjáratban mindkét kártya elég forró, de cserébe nem hangosak. Terhelésre a GTX470 hangja még elviselhető, visítani Furmark alatt kezd igazán, míg a GTX480 már játékok alatt is borzasztóan hangossá tud válni, de ezzel még foglalkozunk egy kicsit később is, lássuk a mai mezőnyünket.
A mezőny
Hivatalosan a GTX470 a HD5850 ellenfele, míg a GTX480 a HD5870-et vette célba. Az egyetlen probléma, hogy az árak nem ezt mutatják, hiszen a GTX470 pár ezer forint eltéréssel HD5870 áron kapható, és a GTX480 is inkább a HD5970-hez van közelebb. A konklúzióig azonban tekintsünk el az áraktól, nézzük csak a számokat: az nVidia előző és mostani csúcskártyája hasonló órajeleken ketyeg, csak éppen a GTX480-ban dupla annyi CUDA mag van, ami a legjobb esetben kétszeres teljesítményt is jelenthetne, de ne lepődjünk meg ha nem fog, ez csak igen szélsőséges helyzetekben jöhet elő. Érdekesség, hogy az új kártya memória-sávszélessége alig magasabb, mint az elődé, de az könnyen belátható, hogy a GT200 erősen túl volt tervezve ezen a fronton. Az egyetlen pont, amiben az újdonság gyengébb elődjénél az a textúrázó egységek száma és ebből fakadóan teljesítménye. A cache optimalizációk, miatt elvileg ez nem lehet gond, a kérdés csak az, hogy ez elég lesz e. Manapság egyre inkább a shaderműveletek felé megyünk, ezért a tesztek között otthagytunk pár régebbi darabot is, hogy lássuk, hogy alakul a GTX sebessége. Ahol egyértelmű előny van és nem is kicsi, az a ROP egységek száma. A 48 kereken másfélszerese annak, mint ami a GTX285-ben volt, nem véletlenül állítja az nVidia, hogy nem lesznek problémái a 8xAA-val, ráadásul megjelent a választható opciók között a 32xCSAA is. A GTX 470 mindenben (órajelek, CUDA magok száma, memória interfész) a GTX480 letiltásokkal gyengített változata, és csak ebből kiindulva olyan 25%-os különbség várható kettőjük között.
De mi a helyzet a konkurenciával? Az 5800-as Radeonokat volt időnk kiismerni, már fél éve kaphatóak és még mindig a legerősebb egy GPU-s kártyái az AMD-nek. Az architektúrás alapozás után könnyen belátható, hogy bár gyorsak, a geometria feldolgozásában biztos nem veszik fel a versenyt a GF100-zal. Persze, hogy ez mennyire probléma (ha egyáltalán az), azt majd a játékok megmutatják. Az utóbbi években főleg a pixel shaderek felé tolódott el minden, idő kell ahhoz, hogy a fejlesztők igazán és hasznosan kihasználják a tesszelátor adta lehetőségeket. Ez beletelik egy-két generációba, lehet a GTX480 már nem is éli meg, nehéz ezt előre megjósolni. Pixel shaderben pedig a Radeonok is bivaly erősek, még ha nem is annyira, mint azt a fenti teljesítmény adatok mutatják (a Radeonokat nehezebb 100%-on járatni).
Játékok szempontjából teljesen mindegy, de érdemes elmondani, hogy az FP64-es teljesítménye azért ilyen alacsony az új GTX szériának (a sima felezés helyett), mert az nVidia mesterségesen lefogja azt, hogy a HPC felhasználók inkább Teslákat vegyenek (azoknak úgyis vannak még egyéb előnyei is, úgyhogy lehet ez felesleges volt részükről). A többi szám értelmezése adja magát, van amiben az egyik kártya erősebb, van amiben a másik, a lényeg úgyis az összhatás. Az egyetlen kiemelhető lényegi elem még a tranzisztorok száma. A GF100 hárommilliárdos száma óriási, nem csoda, hogy problémák adódtak a gyártással, ez majdnem másfélszer akkora, mint a Cypress.  Ezért valamennyire el is várható, hogy erősebb legyen annál, de egy új architektúrát bejáratni sosem egyszerű feladat.
Viszonyítási alapként, hogy ne csak csúcskártyákat lássunk egymás között, bevettük a mezőnybe a Gigabyte HD5770-esét is, ez lesz a kapocs a középkategória tetejével (pár % eltéréssel a GTX260 és a HD4870 sebességét képes produkálni). Ezenfelül a tesztgépünk is átesett egy erős fejlesztésen, egyrészt azért, hogy képes legyen kiszolgálni a legerősebb VGA-kat is, másrészt azért, hogy a jövőben CrossFire és SLI tesztjeink is lehessenek. A mostani tesztek legkisebb felbontása is 1920*1200 volt, úgy voltunk vele, ha valaki ilyen kártyát vesz, valószínűleg nem 1280-ra akarja használni (ha mégis, akkor nagyon erős processzort rakjon mellé, vagy semmi értelme nem lesz). Hogy kíméljük a HD5770-et (és magunkat) a legtöbb tesztben kihagytuk a 2560*1600-as mérésekből.
Tesztgép
Alaplap: Gigabyte X58A-UD3R
Processzor: Intel Core i7-930@4GHz
Memória: 3x1GB Kingmax DDR3-1333
Grafikus kártyák: Gigabyte Radeon HD5770, Sapphire HD5850, Gigabyte HD5870, Asus HD5970, Asus GTX285 Matrix, Gigabyte GTX470, Gigabyte GTX480
Tápegység: Corsair TX650
Operációs rendszer: Windows 7 Home Premium 64bit
Driverek: Catalyst 10.3, GeForce 197.41 (GTX470 és GTX480), GeForce 197.45 (GTX285)
Megjegyzés: a 197.41-es driver GF100 exkluzív volt, így nem lehetett alkalmazni a GTX285-re, míg a 197.45 az új GTX-ekkel nem volt jóban, ezért a két driver. A hőmérséklet és fogyasztás tesztek méréséhez a processzort visszavettük az alap 2.8GHz-es órajelére csak kikapcsoltuk az energiamenedzsmentjét, hogy kevésbé ugráljanak az értékek.
Fogyasztás és hőmérséklet
Üresjáratban valószínűleg senkit sem lep meg, hogy a három, egy GPU-val rendelkező Radeon kér a legkevesebbet enni. A GTX470-nek sincs miért szégyenkeznie, hiszen már-már nevetséges órajelekre veszi vissza magát, aminek meg is van a hatása, sikerül a GTX285 alá mennie. Az egész csak azért csalóka egy kicsit, mert ebben az 50MHz-es állapotban tényleg csak akkor marad, ha nem csinálunk semmit, egyébként szinte azonnal átvált egy köztes állapotba, de ez csak 10W különbséget jelent. Ami viszont elég szomorú, hogy a GTX480 bár ugyanazokat az üresjárati órajeleket használja, mint a GTX470, mégis jóval többet eszik. Ez így önmagában még elnézhető lenne, de a mellérakott 5970-nel már nem igazán. Remélhetőleg ha kiforrottabb lesz a GF100 gyártása ezt a problémát orvosolják majd és elmegy kevesebb feszültséggel is a GPU, de addig ez a szomorú valóság.
Ami ráadásul akkor sem változik, ha a terheléses teszteket nézzük. Az még csak-csak megmagyarázható, hogy az üresjárati fogyasztás nem sikerült a legjobban, de hogy terhelés alatt is többet eszik a GTX480 mint a HD5970 már komoly értelmet ad a robosztus hűtésnek. Az első pletykák 290W feletti TDP-ről beszéltek, végül pedig az nVidia 250-et mondott. Ami már csak azért is különös volt, mert a még GTX470-nél is visszafogottabb Teslájára írt 247-et. Így pedig az igazság az, hogy az nVidia szépített egy kicsit a számokon, bizony 290 felett van az a TDP. A különbség óriási a két új GTX között, így a 470-es valószínűleg reális adatokat kapott, miközben a 480 csúnyán túl van feszelve, hogy bírja a szükséges órajelet és némi tuningot. A többi kártya fogyasztása körülbelül azt hozta, ami várható volt, de már egyik sem ismeretlen számunkra, így meglepetés nem nagyon van.
A nagy fogyasztás nagy hőtermeléssel jár, és ez meg is mutatkozik a fenti diagramon. Üresjáratban szerencsére alacsonyabb hőmérsékleteket mértünk a vártnál. Köztes órajeleken ez 70 fok fölé megy, de legalább még így sem kezd el visítani egyik kártya sem. Üresjáratban tehát az egész mezőny elég csendes, még a két GPU-s 5970-es is. Terhelés esetén azonban már felforrósodik a helyzet mindenhol, mert a legtöbb kártya inkább a hangerővel spórol, nem a Celsius fokokkal (egy bizonyos szintig nagyon helyesen). A HD5770-es így is viszonylag csendes marad és a HD5850 se nagyon emeli meg a hangját, de a többiek már hallhatóan küszködnek. A GTX285, a GTX470 és a HD5870 kb. hasonló szintet képvisel mindegyik elég hangos, de valós alkalmazások alatt, nem FurMarkkal terhelve még tűrhető zajszintet produkálnak. Ezzel szemben a GTX480 simán felveszi a versenyt a HD5970-nel, sőt! Egymást túlvisítva próbálják bebizonyítani, ki a hangosabb kártya a vidéken. Kár, hogy mi nem ezt szoktuk értékelni, de hát a 300W-os monstrumokat valahogy le kell hűteni. A GTX480 még így is elérte a 100 fokos határt, de szerencsére valós játékok alatt a 90-100-as tartományon belül marad.
Tesztek I.
Az utolsó 3DMarkban fej-fej mellett haladnak a GeForce-ok és a Radeonok. Ez nem nagyon lesz jellemző a teszt során, általában a végeredmények nem ilyen letisztultak.
A Quake Wars nem egy mai darab és inkább a ROP-okat erőlteti meg, ráadásul egy ideje a Radeonokat is szereti. Főleg arra voltunk kíváncsiak, hogy az új GTX-ek mennyire tudnak profitálni a több ROP blokkból, és hogy igaza volt-e az nVidiának abban, hogy sokkal gyorsabb a 8xAA kezelése az új generációnak, mint a GTX285-nek. Nos, a válasz igen, de nem annyival, hogy veszélyt jelentsen a Radeonokra.
Resident Evil alatt eléggé felbontásfüggő a GeForce-ok viselkedése, a kisebb jobban kedvez nekik, de az is az elterjedtebb. A GTX480 komoly előnyre képes szert tenni az 5870-nel szemben, még a GTX470 is majdnem beéri 1920-ban.
A World in Conflict mindig is az nVidia kártyákat preferálta és nincs ez másképp az új generáció esetében sem. A GTX470 könnyen tartja a lépést a HD5870-nel még magasabb felbontáson is. A helyzetet csak az rontja le elég erősen, hogy az nVidia szoftvermérnökei megpróbáltak minden egyes fps-t kicsikarni a kártyákból, hogy jobb színben tűnjenek fel és ennek az volt az eredménye, hogy a használt WHQL driver mellett a GTX285-tel fagyogatott a játék, míg a 400-as sorozattal legtöbbször szimplán el sem indult. Átnevezett exe-vel megoldódtak a problémák, tehát biztos, hogy optimalizációs gondokról van szó.
A DX10.1 használata annyira felhozza az új generációt, hogy meg is előzik a Radeonokat.
A DiRT2-re egy későbbi alkalommal még biztos visszatérünk, mert a GeForce-ok sebessége semmit sem esett DX11 és az új driver használatával, ami azért elég gyanús, hiszen több munkát kell végezniük. Mi a demó benchmarkját használtuk a méréshez, aminek nincs frissített változata, így elképzelhető, hogy rosszul kezeli a GF-eket és DX9 módban futott, a következő alkalommal erre visszatérünk a dobozos változattal felvértezve.
Fallout 3 alatt szokás szerint a Radeon driver nem képes ráerőltetni a v-sync kikapcsolását a játékra, így még a legerősebb kártya is csak 60fps-sel megy. Nem túl reprezentatív így a dolog, de azért meghagytuk az eredményeket, mert nagyon jól mutatják a két GF generáció közötti különbségeket.
Just Cause 2 alatt csak egy hajszállal gyorsabbak a GF-ek, de megjelenik náluk két extra opció, amiket ha bekapcsolunk a GTX480 csak 10%-ot esik (27fps-re 1920*1200-on), míg a GTX470 érdekes módon 30-at, lehet lefogja a memória-sávszélessége.
Tesztek II.
A játék benchmarkját használva úgy ábrázoltuk az eredményeket, hogy átlagoltuk a négy tesztben felmutatott fps értékeket, különben kártyánként 16-ot kellett volna ábrázolnunk és átláthatatlanná vált volna a diagram. Érdekes módon a friss driverrel, teljesen maximumra tekert beállítások mellett a GeForce-ok nagyon haldokolnak DX10 alatt, de ahogy váltunk DX11-re, eltűnik minden problémájuk, jobb eredményeket is mutatnak fel mint a Radeonok, a legextrémebb beállításokon a GTX480 megközelíti az 5970-et.
Szénné tuningolt Core i7 ide vagy oda, a Call of Juarezben a HD5970-nel keményen processzorlimitbe ütköztünk. A többi kártya még pont reális képet mutat a GF-ek egy hajszállal gyorsabbak kisebb felbontáson, míg 2560-on változik a helyzet, szóval körülbelül egálban vannak a Radeonokkal ha az átlagot nézzük.
Far Cry 2 alatt nagyon gyorsak az új kártyák, a GTX480 ~30%-ot is képes ráverni a HD5870-re 1920*1200-on, és az előny nem sokkal csökken a magasabb felbontáson sem.
Crysis alatt egy picivel gyorsabbak az új GF-ek, ha épp hajlandóak futtatni azt. A helyzet ugyanis az, hogy mivel ez is presztízsjáték, amiből minden fps-t ki akartak sajtolni, ezért nem kevés optimalizációt tartalmaz a driver, és oda jutottunk, mint a World in Conflict esetében: fagyogat a játék… Ehhez képest már nem is tűnik olyan nagy problémának, hogy a magas felbontás + 4xAA kombót nem igazán szereti az 5970, rosszul működik a CF (ezért nem is tüntettünk fel eredményeket). Átnevezett exe-vel GTX-eknél a fagyások megszűnnek és az fps értékek is visszaesnek. Mivel a régebbi driverekkel nem voltak ilyen gondjaink ezért az átnevezés nélküli eredményeket tüntettük fel, remélhetőleg a következő verzióban már nem lesznek ilyen problémák.
A játék elején nem hiába világít az óriási nVidia logó, egyértelműen látszik, hogy a Borderlands melyik cég felé húz. 1920*1200 alatt azonban újfent processzor limitbe futottunk, erre abszolút nem számítottunk.
A Metro 2033-at már sokan szidják a pocsék optimalizáltsága miatt és sajnos azt kell, hogy mondjuk nem teljesen alaptalanul. Szükség lesz néhány patch-re és driverre ahhoz, hogy felgyorsuljon a játék, de addig ez a helyzet, még a legkeményebb VGA-kat is képes két vállra fektetni maximális beállítások mellett. Az igazsághoz hozzátartozik, hogy igen terhelő helyen mértünk, van, ahol kétszer ekkora sebességre is képes a program. Azt is megnéztük, hogy a DX11-es extrák (DOF, Tesszeláció) mennyire terhelik meg a kártyákat. A GTX480 ha ezeket kikapcsoltuk 18,3-ról 25,1 fps-re ment fel, míg a HD5870-es 14,7-ről 21,1-re. Tehát csak ez a két opció kártyától függően 30-40%-ot lassít.
Íme egy újabb processzorlimitált kép. A Call of Duty játékoknál nagyon attól függ, hogy hol mérünk, hogy ki képes felmutatni jobb eredményeket. Mi megmaradtunk a második pálya elejénél, ami újfent a zöldeknek ad okot a mosolyra.
Bad Company 2 alatt az átlagosabb helyzet áll elő, egy kicsit vezetnek a GF-ek.
Konklúzió
Szokás szerint összesítettük az eredményeket, és százalékosan ábrázoltuk a kártyák egymáshoz viszonyított teljesítményét. Nehéz igazságosan, kevés diagramba belesűríteni mindent, ezért a GTX285, mint egyetlen DX10-es kártya lemaradt, már úgyis tudjuk mire képes. Ezen kívül az összes olyan teszt eredményeit kihagytuk, ahol processzorlimitbe, vagy driveres problémába ütköztünk. Előbbinél csak az 1920-as eredményeket mellőztük (2560-ban sehol sem volt processzorlimit), utóbbinál pedig csak az igazán indokolt esetekben tekintettünk el az eredményektől (például Fallout 3 v-sync probléma). Ezek után a százalékok a következőképpen alakultak:
Az nVidia a kártyák indításakor igyekezett óvatosan becsülni a sebességtöbbletet és 5-10% előnyt jósolt a kártyáinak a HD5850-nel és HD5870-nel szemben. A GTX470 ezt körülbelül be is tartja, míg a GTX480 túl is lépi, hiszen átlagosan 13-14%-kal gyorsabb, mint a HD5870-es. Persze ebben semmi meglepő nincs, a chip méretéből adódóan ez a kötelező minimum, nagyon csalódottak lettünk volna, ha 10% alatt lett volna a különbség. Azonban ezzel már el is fogytak az előnyök, és sajnos van bőven olyan szempont, ami az új kártyák ellen szól. Az első, hogy az óriási késés ellenére még mindig nem érhetőek el nagyobb mennyiségben, úgy kell vadászni rájuk. Valószínűleg ennek is köszönhető, hogy az áraik a közelében sincsenek annak, amit az nVidia anno bejelentett. A GTX 470 majdnem annyiba kerül mint egy 5870-es, és így már nem jó vétel. Sajnos a GTX480 ára is az 5970-hez áll közelebb, nem az 5870-hez. Remélhetőleg ez a következő pár héten változni fog, de biztosra nem tudhatjuk. Vannak felhasználók akiket nem hat meg, de mi nem tudunk szó nélkül elmenni a fogyasztás-melegedés-hangerő trió mellett sem, ami főleg a GTX480-at érinti. A kártya többet fogyaszt és jobban melegedik mint egy 5970-es, és a hangereje sem alacsonyabb. Persze egy nagyon erős csúcskártyáról beszélünk, de nem olyan erősről, mint az 5970, ami két GPU-t hordoz magán. Abból kiindulva, hogy a két GTX között mekkora különbség van fogyasztásban, könnyen belátható, hogy a 480-astól nem sajnálták a feszültséget.
A jövő azonban, ha hasonlóan megkésett is, de nagyon jó is lehet. A Fermi architektúra minden kétséget kizáróan erős, jól megtervezett és könnyen skálázható, ezért kivívta elismerésünket. Sokat várunk a középkategóriás megoldásoktól, amik már remélhetőleg mentesek lesznek a csúcskártyák gyerekbetegségeitől, és komoly konkurenciát jelentenek majd a Radeonoknak, ami egy árverseny beindítását eredményezheti. Idővel a GTX470 és GTX480 ára is helyrerázódhat, és ha jobb vétellé nem is válnak, mint a HD5800-asok, de egy szintre kerülhetnek velük, ha elnézzük a hátrányaikat, és tudjuk, hogy sokan el is fogják. Nem szabad elfelejteni, hogy egy új architektúrát bevezetni sosem egyszerű dolog (emlékezzünk csak a hasonlóan forró és sokat fogyasztó HD2900XT-re), és az nVidiának kevesebb tapasztalata is van a friss gyártástechnológiákra váltással, mint az AMD-nek. Nyáron remélhetőleg jönnek az olcsóbb Fermi-k, ősszel pedig már számíthatunk egy frissített Radeon szériára, ráadásul jövőre az ATI is architektúrát akar frissíteni, és 28nm-en elrajtolni. Nem fogunk unatkozni az biztos.