Kosár

A kosár jelenleg üres

Bejelentkezés &
Regisztráció

Jelenleg nincs belépve.

Válassza ki az oldal nyelvét

TERMÉKEINK

iPon FÓRUM

iPon Cikkek

CrossFire vs SLI gyorsteszt

  • Dátum | 2010.07.05 14:01
  • Szerző | Svindler
  • Csoport | MEGJELENÍTÉS

Elég régen foglalkoztunk többkártyás rendszerekkel, de a jövőben nagyobb figyelmet fogunk szentelni nekik, főleg a középkategóriás kártyák esetében. A mai cikkben azt akartuk kideríteni hogy áll az nVidia új szériája SLI fronton. Mivel a cég kínálata még mindig átalakulás alatt van, ezért középkategóriás modellekről nem igazán beszélhetünk. Így is a „legkisebb” kártyájukat, a GTX465-öst választottuk a tesztbe, mellé pedig a hozzá árban közel álló HD5850-es került. Bár a teljesítmény ma nem igazán számít, csak CrossFire és az SLI hatásfoka, azért láttunk érdekes dolgokat. Csapjunk is bele a közepébe, mert már mindkét kártyával foglalkoztunk régebben, nem nagyon van mit mesélni róluk.

Tesztkonfiguráció
Alaplap: Gigabyte X58A-UD3R
Processzor: Intel Core i7-930@3,5GHz
Memória: 3x1GB Kingmax DDR3-1333
Grafikus kártyák: 2x Sapphire HD5850, 2x Gainward GTX465
Tápegység: Corsair TX650 és TX750
Operációs rendszer: Windows 7 Home Premium 64bit
Driverek: Catalyst 10.6, GeForce 257.21



Üresjáratban nincs gond, minden kártya hozza a kötelezőt, terhelés alatt viszont a két GTX visszavonulásra kényszerítette az általában használt TX650-ünket, így erősebb alternatíva után kellett nézzünk. Sajnos igazolódni látszik a múltkori sejtésünk is, miszerint a GTX465-ök fogyasztásában elég nagy szórás lehet, a múltkori Asus példány jóval kevesebbel is beérte.



A hőmérsékletek érdekesen alakulnak, főleg a kétkártyás rendszerek első kártyáját érdemes figyelni, mivel ennek a kártyának alig van helye levegőhöz jutni az előtte lévő második kártya miatt. A Radeonoknál ez plusz 20 fokot jelentett, a GeForce-oknál pedig halálközeli állapotot, hiába a kétventilátoros Gainward kártya. Többször előfordult, hogy beindult a kártya hővédelme és levette az órajeleket, hogy túlélje, de az esetek többségében még így is fagyás volt a végeredmény. Nagyon erős kereszthuzatra lesz szükségünk, hogy a nyarat túlélje egy GTX465 SLI konfiguráció, vagy kevesebbet fogyasztó példányokra, amik nem melegszenek ennyire. A teszteknél természetesen igyekeztünk figyelni az órajelekre és mindig hagytuk hűlni a kártyát, hogy ez ne szóljon bele az eredményekbe.

Hozzászólások

Nem vagy bejelentkezve, a hozzászóláshoz regisztrálj vagy lépj be!

Eddigi hozzászólások:

  • 47.
    2010. 07. 16. 11:06
    Valaki írta, hogy az nv csúcs kártyái már elverik helyenként az atit.Ez igaz csak az "plusz" elenyésző míg áruk sokkal nagyobb, sokkal többet fogyasztanak mint az ati.
  • 46.
    2010. 07. 09. 09:28
    Ja, elég érdekes lenne. Quake-el és UT-vel próbáltam, gondolom akkor mind FPS limiten ment.
  • 45.
    2010. 07. 09. 00:50
    2 db voodoo2 SLI-ben nekem 1024x768-as felbontás mellett kb ugyanannyi FPS-t produkál, mint egy kártya 640x480-ban. Ahhoz képest ez elég sovány teljesítménynövekedés
  • 44.
    2010. 07. 06. 22:52
    Köszi Szaby!
    Ezt nem vágtam. És lehet tudni, h akkor most kb. mi a helyzet? Esetleg egy részletesebb külföldi cikk?
  • 43.
    2010. 07. 06. 20:12
    Gyurry

    Pont azért van ott az idézőjel

    Meg hát a 480 az első széria Meglessük mit tud majd a gf106 és a gf108 is
  • 42.
    2010. 07. 06. 19:42
    Humbuk:
    "Egy ilyen géppel ellennék vagy "10 évig" "

    Persze, meg 640k-val is
    Írj egy emlékeztetőt magadnak 2020-07-06-ra azzal a kérdéssel, hogy örülnél -e egy ilyen gépnek.

    Lehet, hogy akkor már olyan netbookot lehet majd kapni, aminek 3840*2160 a felbontása 3d-ben, 40 Wattot fogyaszt, és a Crysis csak azért nem megy rajta, mert a 256bites oprendszerrel már nem kompatibilis.
  • 41.
    2010. 07. 06. 13:06
    A Guru3D-s teszt 4 hónappal ezelőtt készült, a március-áprilisi Catalyst pedig pont a CF-en javított...
  • 40.
    2010. 07. 06. 11:35
    kakukktojás
    Nah megnéztem végre a linket a tri-sli-s gépről Hát hogy is mondjam.. Korrekt kis gép! Elfogadnám az emberke egyéves villanyszámlájának az árát

    De hiába van ilyen állat gépe ^^ Sajnos hiába az izom ha nincs hozzá agy (hiába sok highend cucc ha nincsen ami korrektül kihajtja)

    Egy ilyen géppel ellennék vagy "10 évig"
  • 39.
    2010. 07. 06. 11:21
    nem semmik a játékgyártók sem Melyikre könyebb programozni gondolom Bár tényleg vannak eltérések.
  • 38.
    2010. 07. 06. 11:11
    Nem a QuadSLI tesztre gondolok, hanem az előző hozzászólásomban linkelt Rig of the Month-ra. ("gépet" szócskára kattintva éred el) Az már egy teljesen hétköznapi emberkének az otthoni PC-je. Azt nem ingyen kapta a gyártóktól, hanem megvette.
  • 37.
    2010. 07. 06. 11:00
    kakukktojás javíts ki ha tévedek, de én úgy olvastam a cikkben, hogy nem nagyon volt költve a cuccokra mert dolgokat a gyártók küldték el a teszt kedvéért mármint a lapot meg a kártyákat és a procit...

    Lehet én olvastam valamit félre ^^
  • 36.
    2010. 07. 06. 10:33
    Humbuk és csul1!
    Hát elég kemény az biztos. De ami még durvább, hogy van ember, aki összerakott egy ilyen gépet. És ebben már a paganifreak által javallott vízhűtés is ott figyel. A csávót kérdezik, h mennyit költött rá, aztán mondja, h ha összeszámolná, már nem lenne olyan poén a dolog. Egy-egy komponens árából korrekt kis gépeket lehetne építeni.

    XtreemX!
    A felső kategóriás kártyák párharcában már nem mindig ez a helyzet. Gyakran, ha jobb az ATI egy kártyával (relatív), akkor két kártya esetén már előz az NV a jobb SLI skálázódás miatt. Legalábbis a Guru3D-s tesztből ez derül ki. Ez a Rig of the Month tulaj is azt írja, azért választott három GTX480-at (és nem 5870-et), mert jobban skálázódik az SLI. Ettől függetlenül abban nincs vita köztünk, h egykártyás rendszer esetén én is inkább ATI-t vennék. Sőt alacsonyabb kategóriás CF is bejövős, pl: 5770 (2) CF, mert magasabb órajeleket bír (1000+ MHz), mint a nagytesó.
  • 35.
    2010. 07. 06. 09:56
    Ha már futja CF-re ekkora kártyákkal, akkor belefér a büdzsébe a GPU vízhűtése is.

    Ez pl. korrekt, és egy korszerű, tetőszellőzős ATX házzal kombinálva a helyigénye is kicsi, házon belül megoldható a hűtés.

    Így nem lenne probléma az első kártya fulladozása a második fölé szorítva
  • 34.
    2010. 07. 06. 09:30
    Jelenleg az ATI odaver az nvidiának csúnyán.. ezvan.
  • 33.
    2010. 07. 06. 07:50
    kakukktojás hát igen nem semmi az a teszt "költség hatékony gép építés"
  • 32.
    2010. 07. 05. 23:21
    LOL kakukktojás! Ez aztán a teszt és az az evga lap meg nagyon beteg
    köszi a linkeket! Érdemes megcsekkolni!
  • 31.
    2010. 07. 05. 22:55
    CF vs SLI a Guru3D-ről. Nézegessétek, mert érdekes. Nem mondanám, h a CF jobban skálázódik, sőt (csúcskártyák esetén 5870 vs 480).
    Vki írta, h 3, meg 4 kártyás rendszereknél a CF pláne jobb. Azért ezt is fenntartásokkal kell ám kezelni. Az ilyen eszeveszett videó teljesítménnyel felvértezett gépeknél gyakran CPU limit lép fel, s onnantól minél több a VGA, annál rosszabb. (Pl.: 3x5770)
    Érdekességnek itt van egy GTX 480 Quad-SLI teszt is. A karik egy 4,6GHz i7 980 és 2db 1200W-os táp társaságában számolgatnak. Még ezt az eszeveszett 6 magos procit is meg kellett húzgálni, h ne legyen limit.
  • 30.
    2010. 07. 05. 22:52
    bigmac
    Ez a lehetőség is benne van "pakliban".Nyilván attól is függ az adandó válasz,milyenek lesznek az NV idén megjelenő további modelljei.Ha realizálódnak az uj architektura fejlesztési eredményei, akkor lépnie kell AMD-nek is.Vannak,de még mennyire,hogy vannak tartalékok az 5-ös szériában.
  • 29.
    2010. 07. 05. 22:41
    és még annyit engedjetek meg:
    Meggyőződésem, hogyha nem a kapitalista irányvonal lenne követve sok-sok és még annál is több játékban miszerint a profit az isten, akkor talán jobban szerkesztett/optimalizált játékokat is kaphatnánk a pénzünkért cserébe.
    Nézzétek meg az xbox 360 vagy éppen a ps3 hardver konfigurációját... nem éppen egy 8magos
    quad slis/crossfires rendszer 500GB rammal és mégis mi tudnak belőle kihozni?
    (Perszer tudom azt is, hogy "egy" rendszerre könyebb progit írni mint 10.000.000 félére, de azért eg határt kellene húzni)
  • 28.
    2010. 07. 05. 22:34
    Az Nvidia azért váltott, mert a GTX200 asokat nem tudták volna úgy átalakítani, hogy DX11 re használható legyen, az AMD pedig már eleve úgy tervezte a HD3000 sorozat óta, hogy könnyen át tudjanak lépni DX11 re.
    Sokan beszélnek itt architektúra váltásról, de az AMD NEM FOG VÁLTANI A DX11-re.
    A HD5000 sorozaton végeznek kisebb átalakításokat, és mivel a GPU is kisebb, még jópár dolgot bele tudnak integrálni 40nm -en is, és máris készlesz a HD6000.
    Amúgy meg ha az Nvidia SLI-jének a hatásfoka rosszabb akkor talán olcsóbban kellene árulni a konkurenciánál a kártyát, nem pedig drágábban...
  • 27.
    2010. 07. 05. 22:33
    Szia Balucsek
    Jól mondtad!Majd meglátjuk jön-e egyáltalán az idén.Jelenleg az ATI-AMD birtokában van a kezdeményezés,az 5xxx-széria nála már lefedi a teljes szegmest az alsótól-a csucs-kategóriáig.
    A modelljeik pedig jól állják a sarat a konkurenciával való összevetésben,igy hát semmi nem hajtja öket egy kényszerből,elhamarkodottan kiadott összetákolt 6xxx-es széria piacra dobására.
    Bizonyos szempontból páholyból nézik és tanulmányozzák az NV megoldásait,és erőlködését ,hogy teljessé tegye a saját fegyvertárát.Egyébként meggyőződésem,hogy ezek megjelenésük bevezetésük
    idején kategóriájukban egyre jobbak lesznek az összevetésekben,mert náluk is gyülik a tapasztalt és be is fog épülni minden uj-és ujabb modelljükbe.Ezt a tendenciát már a GF104-es mai hirében is tapasztalhattuk.Jelentősen rácáfol az előzetes találgatásokra,főképp a fogyasztás tekintetében.
  • 26.
    2010. 07. 05. 22:31
    Nem bántom én az Ati-t és ha odajutok, hogy vga-t veszek akkor term pénztárca alapján fogok dönteni és az alapján h melyik a jobb vétel márkától függetlenül.

    Viszont amit sokan nem értenek és itt picit védem az NV-t, hogy ők egy teljesen új felépítésű, tudású kártyát hoztak létre (ebbe is bele lehet kötni, de most hagyjuk is ezt)
    Nem ártana sokaknak utána nézni, hogy valójában mire is lehet képes ez a cucc aminek egyik
    !!!opciója!!! hogy tud sima gpuként is üzemelni. Pedig nem ez a fő célja! Google a legjobb barátunk nem?

    Amikor kijöttek az első vinyók (nekem 80MBos volt az első gépemben) nem hiszem, hogy akkor azt látták volna előre, hogy lesz majd 1 meg 1,5 vagy 2TBos

    Ami itt a lényeg, hogy ati bejáratott és a gf200as bejáratott szériával szemben ez egy új irány vonal ami nekünk meglehetősen friss!
    Ám aki megnézi az érem mindkét oldalát az látja, hogy hoppá, ez majdnem ugyan azt tudja amit a régiek! De! Mivel új ezért a fejlesztőknek meg kell tanulni kihasználni/kiaknázni és ha ez végre sikerül, akkor a rendszer megtudja mutatni az igazi erejét!

    Szerintem atis,nvs emberkéknek akik még nem tették meg, kicsit utána kellene nézni, hogy mit is kínál a gf1xx vagy, hogy mire is találták ki!

    Szóval tessék tájékozódni és érdeklődéssel figyelni, hogyan fejlődik a technika és érvelni a technika ellen vagy mellett!

    Szerintem a kommentelésnek az lenne a lényege, hogy a tanácstalan döntését halogató embereket meggyőzük vagy lebeszéljük bizonyos dolgokról! Érveket felsorakoztatva! Mert igazából a segítség lenne a fontos és nem az egymás szidása!

    Gf465öt vegyek vagy HD5850et vagy gtx275öt?? (ez amolyan költői kérdés)

    Peace!
  • 25.
    2010. 07. 05. 22:20
    amúgy valaki nem tud tesztet mutatni 2xx vs 4xx példányokról?
  • 24.
    2010. 07. 05. 22:16
    Balucsek: szerintem Humbuk rosszul fogalmazta meg amit gondolt (: úgy értette ha majd új architektúrára váltanak, ami előbb utóbb szükséges lesz, amit az nvidia már meglépett, hiába, hogy ez miatt most jóval gyengébb
  • 23.
    2010. 07. 05. 22:11
    Szia psylocke!
    A CPU-Z és GPU-Z csak illusztráció.A bench. mérése közben nem látom ,de akor az AMD Over Drive,és a GIGABYTE EASY SAVER,és EASY TUNE nyilván megemeli az órajeleket. Alapra állitva használom 200X17 szorzó mellett.A pillantnyi érték ami PrtSc -kor volt az előző progik \"érdeme\"
    a legalacsonyabb szorzó 4 volt amit láttam,ennyire visszaveszik az órajeleket ,ha nincs rá szükség.A vége pedig 19 volt stabilan alapfeszen.
  • 22.
    2010. 07. 05. 22:06
    Nem hiszem hogy a 6xxx szériával fog szívni az ATI. Ami pletykákat hallani lehet az inkább az 5-ös széria tovább finomított változata lesz amit most év végére várnak sokan (majd kiderül egyáltalán jön-e) nah meg ugye miért is rontanák el azt ami most nagyon jól bevált... Így nem valószínű hogy olyan nagy gond lesz nekik a 6-os széria drivere.
  • 21.
    2010. 07. 05. 21:59
    Szaby59

    a gf 200 asok drivereivel nincs is ennyi gond
    Tökéletes ember nincs, és amit ember csinál az sem lehet soha tökéletes!
  • 20.
    2010. 07. 05. 21:55
    @psylocke: Kósza tipp, de sztem CNQ visszavette az órajelet, mert épp nem volt terhelés alatt
  • 19.
    2010. 07. 05. 21:50
    Humbuk: ott a pont, teljesen egyetértek, énis kíváncsi vagyok az ati mit fog hozni majd az új architektúránál
    Szaby59: na ha ilyen okos vagy dobj nekem össze egyet
  • 18.
    2010. 07. 05. 21:46
    jozsef m. - 2.2n megy a procod?
  • 17.
    2010. 07. 05. 21:13
    Miért?
    Hisz az nV fanok mindig azzal jönnek, hogy a driverekkel sosincs gond.
    Mellesleg május óta "kaphatóak" és a csúszásokkal bőven volt idő drivert írni.
  • 16.
    2010. 07. 05. 20:51
    Már bocs de kezdek dühbe gurulni a sok einstein-től!

    "Legalábbis egyelőre, hiszen az előny most az AMD-nél van, már bejáratott architektúrához írnak meghajtókat, míg az nVidia programozóinak sok mindent elölről kell kezdeniük. Előbb-utóbb valószínűleg meglesz az átlag 70%, addig azonban az AMD erősebb ezen a fronton. Visszatérünk még a kérdésre ha kijönnek az nVidia középkategóriás kártyái."

    Analfabétáknak fordítsuk külön???

    1 dolgot tessék felfogni: Új kari új driver!!!! És idő mire rendesen összerakják!
    A nagy ati király sirály giga mega atom brutál vállalat is szívni fog az új 6xxx-es kártyáival ha majd végre összehozzák és nem a régi arhitektúrával szerelik!

    Szal lehet nem így kéne hasonlítgatni! Ha majd 1éves lesz a gf és lesz már rendes szoftveres támogatása, akkor lehet majd méregetni... Mert így term gyengébb!

    Félre ne értsetek mind a két cég termékeit szeretem, de ami itt érzelmi alapon megy... az gáz.. Sok sok csőlátással rendelkező ember kiborít
  • 15.
    2010. 07. 05. 19:54
    Egyértelmű volt eddig is, hogy a CF jobb, és a 3 vagy 4 kártyás rendszerekben a CF előnye csak még nagyobb, 4 SLi például van ahol lassabb, mint a 3, és ahol gyorsabb is ott se sokkal, radeonoknál azért sokkal jobb a helyzet.
  • 14.
    2010. 07. 05. 19:54
    Hm.. kéne szereznem mégy egy 5870-et.
  • 13.
    2010. 07. 05. 19:29
    az összefoglaló táblázat tényleg sokat segít, jó ötlet volt.
  • 12.
    2010. 07. 05. 18:25
    Ez lemaradt:


  • 11.
    2010. 07. 05. 18:19
    Tesztet nem tudok most de egy kis izelitő:


  • 10.
    2010. 07. 05. 18:15
    Én még egy harmadik teszten megnéztem volna eredményeket, nem is értem miért maradt ki

    2 vagy több monitoros mód !

    Ajajj - asszem ATI gyalázott volna , ígyis , de látjuk, tudjuk - igazán nagy felbontásban érzik jól magukat AMD/ATI kártyák !

    Kérünk egy többmonitoros tesztet , pls
  • 9.
    2010. 07. 05. 18:07
    Persze hogy jobb az ATI, csak az nVidia +pluszban dolgozik effectusokon mint peldaul PhysX, CUDA, OpenCL... De viszont latszik a homersekleten is hogy az nVidianak nemvoltak "ilyen magason" a mhz-k, nemtudjak meg ugy kezelni a hőt...
    Eddig az ATI a magas MHZ-kel az nVidia a szelessavval (bit-tel) nyomtak a gyorsasagot... Az nVidia mar vegre gyors is es nagy a szavszelesseg,,, akkor mi lesz ha mar igyis a VILAG LEGEROSEBB kartyaja az ATI kijon 512bites kartyakkal??? (single chip)
  • 8.
    2010. 07. 05. 17:39
    ThePoweR: crysis nv-s játék, mégse szerepel fényesen, Capcom is köztudott nVidiás, ez a táblázat még engem is meglepett
  • 7.
    2010. 07. 05. 17:34
    Bul07: persze, hogy single résszel tesztelünk, multiban elég nehéz lenne minden kártyánál hasonló helyzetet teremteni.

    sHe3p: már volt egy tesztünk, de akkor még elég kiforratlanok voltak a driverek, ráadásul nagyon drága volt az alaplap. Most hogy jönnek az olcsóbb deszkák megint fogunk foglalkozni a témával
  • 6.
    2010. 07. 05. 17:31
    ezek szerint a játékoknál a single részre értitek a fps-t
    csak mert a COD:MW2 multi része 89FPS-re szabályozza le magát (eredeti játék)

    de mi értelme van a single fps-t mérni a multi részével sokkal többet játszik az ember
    persze a single részhez is kell egy minimális fps mennyiség hogy játszható legyen
  • 5.
    2010. 07. 05. 17:25
    ThePoweR akkor ezt mivel magyarázod?:
    A CrossFire Just Cause alatt éri el a csúcsát, 90% fölé kerül, ami nagyon szép eredmény. Nvidia logó ide vagy oda, a GTX-ek nem remekelnek.
  • 4.
    2010. 07. 05. 17:24
    nah kezdődik a "nagy országos vita"

    természetesen, egyértelműen és nem is meglepően, az amd a winner
  • 3.
    2010. 07. 05. 17:22
    A múltkor azt magyarázta valaki, hogy a Crossfire milyen rossz, búúú, többkártyás rendszerbe csakis SLI. Pfff, két játékon kívül mindenben AMD ftw.
  • 2.
    2010. 07. 05. 15:06
    nvidiás és atis gamek sorozata. Amelyik game nvidiás ott az nv jobb amelyik ati-s ott az ati a jobb amelyik egyik se ott kb ugyan az mind2.
  • 1.
    2010. 07. 05. 14:53
    egy Hydra chipes rendszerrel készült tesztet is megnéznék,ahol GF és ATI van bekötve egymás mellé