Kosár

A kosár jelenleg üres

Bejelentkezés &
Regisztráció

Jelenleg nincs belépve.

Válassza ki az oldal nyelvét

TERMÉKEINK

iPon FÓRUM

iPon Cikkek

HD4870X2: az új csúcsragadozó

  • Dátum | 2008.09.03 12:01
  • Szerző | Svindler
  • Csoport | MEGJELENÍTÉS

Az előző generációs kártyáknál már mindkét nagy gyártó hozzányúlt a többchipes megoldásokhoz, hogy megszerezhesse, vagy éppen megtarthassa a leggyorsabb kártyáért járó címet. Ennek hála az utóbbi félévben a driverekben nagy hangsúlyt fektettek a többchipes/többkártyás rendszerek optimalizálására. Emlékezzünk csak vissza, az első tesztünkben a 3870X2 még rengeteg játékban gyengélkedett, míg pár hónappal később, már csak nagyon kevés akadt amivel problémái voltak. Valószínűleg ennek is köszönhető, hogy az ATI minél hamarabb a piacon akarta tudni a legfrissebb fejlesztését a Radeon HD4870X2-t, kihasználva azt, hogy az nVidia jelenleg erre nem tud mit felmutatni. A GTX2x0 széria óriási magméretét elnézve jó eséllyel még egy ideig nem is fog (ráadásul 2x512 bit memóriasín már igen költséges lenne). Így az ATI-nak minden esélye megvan arra, hogy huzamosabb ideig birtokolja a leggyorsabb kártyáért járó címet. Ha szoftveres oldalon nincsenek gondok… Lássuk hát a mai felhozatalt:



Mint az előző generáció erőlegénye, úgy éreztük a 9800GX2-nek is helye van a tesztben. Bár az ára jelentősen csökkent - tulajdonképpen lefeleződött megjelenése óta –, attól még nagyon jó viszonyítási alap. A GTX280 pedig az aktuális zászlóvivő az nVidiánál és árban is közel áll az új ATI-hoz, így egy percig sem volt kérdéses, hogy tiszteletét kell tegye itt. Ahogy az adatokból is látszik, az új X2 tulajdonképpen teljesen olyan, mint két darab 4870-es, MHz-re egyeznek az órajelei is. Nem variáltak vele, mint anno a 3870-nél. Az adatokhoz csak azt vegyük még hozzá, hogy a memória effektív órajele GDDR5 esetén már négyszeres szorzóval jön ki, ezért az óriási memória sávszélesség.



A hozzánk érkezett példány a Gigabyte műhelyéből került ki, ám teljesen a referencia design szerint van felépítve. Bár a GTX280 mellé téve a hűtési megoldása még kisebbnek is tűnhet, ez elég csalóka a GTX-et takaró műanyag lemez miatt. Egy biztos, az ATI mérnökei nem spóroltak az anyaggal, az új Radeon elég nehéz jószág lett.



Már a sima 4870 se érte be kevés táppal, így aggódtunk, hogy komolyabb hűtés híján nagyon hangos lesz a kártya. Szerencsére kellemes csalódásként ért minket hogy nem az. Hosszabb terhelés után is csak GTX280 körüli hangja van (ami azért nem mondható halknak), míg a 9800GX2 bizony még mindig tud üvölteni. Kicsit furcsa volt, hogy a vele egy időben kiadott 8.8-as Catalyst nem volt hajlandó őt felismerni, így a hozzá adott meghajtót voltunk kénytelenek használni, valószínűleg nincs sok különbség.

Tesztgép
Alaplap: Gigabyte P35-DS3
Processzor: Intel Core2Duo E8400@3.6GHz
Memória: Geil Ultra 2x1GB DDR2-800 KIT
Tápegység: Corsair TX650W
Operációs rendszer: Windows Vista SP1
Driverek: Gyári (HD4870X2), GeForce 175.19 (9800GX2) és 177.41 (GTX280)

Hozzászólások

Nem vagy bejelentkezve, a hozzászóláshoz regisztrálj vagy lépj be!

Eddigi hozzászólások:

  • 8.
    2008. 09. 04. 00:05
    Az Asus mindig is szeretett drágábban eladni mindent... :/
  • 7.
    2008. 09. 03. 22:52
    Azért itt vannak elég téves információk.
    Az ASUS HD4870X2-t gyorsan körbenéztem az összes kisker keresőn és _nálunk_ a legolcsóbb. Túl van árazva? Igen, de nem mi áraztuk így hanem az Asus, nem növeltük rajta a hasznunkat. A tesztben szereplő Gigabyte például olcsóbb. Az MSI és a Sapphire is olcsóbb, csak jelenleg nagyon hiánycikkek.
    A doboz nélküli "kamionról pottyant" Radeonokat meg hadd ne vegyem komolyan
  • 6.
    2008. 09. 03. 20:38
    Mostanában sztem is kicsit drágábbak letek,csak azt nem tudom hogy ez a nagykereskedők miatt van,vagy az Ipon miatt.

    Úgy 2 év múlva majd én is veszek egy ilyet. <img src=
  • 5.
    2008. 09. 03. 18:41
    oli köv. kérdés a számodra:
    Hány MHz-en dolgozik az L2 cache?

    A helyes válasz rá:
    Annyin amennyin a proci ketyeg. Vagyis ha 4,4 GHz akkor az is 4,4 GHz-en slisszol el kb. 2000x min. gyorsabban, mint a DDR3-2000 MHz-esed durván CL4-es késleltetéssel. Már ha lenne ilyen, ugyanis a proci L2 Cache késleltetési ideje mindig CL1.
  • 4.
    2008. 09. 03. 18:41
    Hát igen sajnos van néhány "selejtes" darab de az eddigi tapasztalatok alapján azért az e8xxx szériát rendesen meglehet huzatni.
    Ph-n egyik gyereknek e8500 még stabil volt 4,7ghz-n is de 4-ig simán lehet huzni 1.3v körül.
  • 3.
    2008. 09. 03. 18:19
    Mire lessz játék 4 magra addigra a q9650-ekkel is el lehet majd bújni. Amúgy egy e8500 vagy 8600 már simán megy 4ghz-fölé és stabil.
    Esetleg érdemes lenne még1 tesztet majd a 8.9-es catalystal.
  • 2.
    2008. 09. 03. 18:05
    bocsi oli hogy lebabázlak <img src=

    Az a 3-3/3-3 már elnézésed, de ez nagy mellélövés volt. Szerinted mi különbség a Core Duo és a Core 2 Duo között?
    Elárulom akkor:
    Core Duo-ba a 2 processzor energiatakarékossága olyan volt, hogy amikor az 1-ik proci le lett áramtalanítva, mert nem volt rá szükség épp, akkor a memó is.
    Core 2 Duo-ba nem a drága édes jó pocsék szoftwarez programozók köpik a legyet a levesbe, hanem a drága jó Intel csapja le őket légycsapóval finoman szólva, mert a game azt se tudja, hogy L2 cache az nem alaplapi memória.
    Nem a farok csóválja a kutyát és csak 6 megát kezel a 12-ből, amikor a procik adják a 12-t a szoftvereknek. Az, hogy azt 2 mag, 1 mag, vagy 72 mag adja már édesmind1 lenne.
    Szóval amibe 8 meg 12 mega L2 cache van, azt szoftveresen lebútítanák Intel már perelné is a céget, hogy mit nyúlkál a hardvervezérlő chipjén a processzor fizikális kialakításába. Az 1 dolog, hogy gari bukta, de hogy még ezzel le is gyengítik a proci teljesítményét...
  • 1.
    2008. 09. 03. 15:42
    Jogos, kiegészítettem a tesztkonfig információit, mi egy Corsair TX650W-t használtunk a teszthez, ennél sokkal kevesebbel már nem mertem volna nekiesni, főleg a húzott Core2 mellett. Már szemet vetettem Joker kolléga fogyasztás mérőjére, legközelebb már mérek fogyasztást is nagykártyás tesztnél (kicsinél nincs értelme, mert az eszköz pár W-ot tévedhet és kb ennyi is a különbség köztük).

    Egyébként ahol processzorlimitált volt az ATI ott vagy azért mert már egyszerűen túl erős volt, és nem bírta kihajtani a proci, vagy más kártya is limitált volt. Utólag néztük meg magasabb felbontáson a World in Conflictot és kb ugyanezeket az eredményeket kaptuk. Ezért is maradt most ki az Unreal, mert az megeszik akármekkora processzort az ilyen szörnyek mellett.