Kosár

A kosár jelenleg üres

Bejelentkezés &
Regisztráció

Jelenleg nincs belépve.

Válassza ki az oldal nyelvét

TERMÉKEINK

iPon FÓRUM

iPon Cikkek

Csatározások a középmezőnyben

  • Dátum | 2011.06.17 16:27
  • Szerző | Svindler
  • Csoport | MEGJELENÍTÉS

Itt a nyár, sok mozgolódásra már nem igazán számíthatunk a videókártyák piacán, de azért az előző hónapban még volt frissítés az olcsóbb régiókban, valamint mindkét cég kidobott 1-1 kártyát, amikkel a középkategóriás kínálatukat akarták bővíteni, betömve a többi termékük közötti teljesítményrést, még akkoris, ha az nem volt túl nagy. Az AMD részéről itt a HD6790, ami eredetileg a GTX550 Ti-re lett volna válasz, csakhogy az ellen az esetek többségében elég volt egy másfél éves HD5770-es is. Ettől függetlenül a versenyképesség növelése érdekében a HD6790 árazása pont megfelel a GTX550 Ti-nek, így körülbelül borítékolható a mai eredmény, de ne szaladjunk ennyire előre, nem csak róla szól ez a pár oldal. Az nVidia is dobott ki új kártyát, méghozzá a megérdemelten nagy sikereket elérő GTX460-as utódját, ami nem meglepő módon a GTX560-as nevet kapta. Innentől kezdve a Titanium (Ti) jelzésnek a nagytestvérnél több értelme lett, hiszen valós előnyöket is jelent. Mivel egyik kártya sem épül új GPU-ra ezért a szokásos blokkdiagramoktól el is tekintenénk, nézzük egyből, hogy mit mondanak a számok.



Bár a 700-as sorozatba került, a HD6790-ben véletlenül sem Juniper GPU dolgozik, hanem a 6800-as szériából ismerős Barts-nak egy tovább butított változata, így igazából jobban állna neki a HD6830-as név, a régi HD5830-as mintájára. Ha pedig már a HD5830-nál tartunk, akkor nem lehet nem észrevenni a hasonlóságot a két kártya között. Mindkettő egy-egy erős chip lebutított változatát használta, amit órajellel akartak kompenzálni. A magasabb órajelhez magasabb feszültség kell és a kettő párosa magasabb fogyasztást szül, így lehet az, hogy a HD6790 TDP-je tulajdonképpen HD6870-es magasságokban röpköd. Ami a mostani helyzetben nagyon különös, az az, hogy a HD6790 ugyanannyi shaderrel rendelkezik, mint az alatta lévő HD5770-es, és érdekes módon még a GPU órajele is kisebb 10MHz-cel. Nem korlátozhatja ez a teljesítményt? Nos, a válasz nem egy szimpla igen/nem, hiszen a Barts architektúrája egy kicsit jobban optimalizált, mint a Juniperé, de ettől függetlenül shader izomzatot nézve nagyon hasonló helyen van a két kártya. Ami vízválasztó lehet, az a memória sávszélesség, abból ugyanis jóval több jutott az új kártyának.

A GTX560 már egy kicsit más tészta, két irányból is megközelíthetjük. Egyfelől nem más, mint a GTX560 Titanium egy kicsit gyengített változata (egy shader blokk letiltva), másrészt pont ez miatt tökéletesen egyezik az órajelek kivételével a specifikációja a GTX460-nal, tehát kb. ugyanazt kapjuk magasabb órajelen. Ez a 810Mhz pont az a szint, amit majdnem minden GTX460-as képes volt produkálni némi tuninggal, így az eredmények ezúttal nem okoznak majd túl sok meglepetést. Mielőtt azonban a tesztekre vetnénk magunkat, beszéljünk egy kicsit a két kártyáról, ami nálunk járt.

ASUS GTX560 DirectCU II

Az ASUS kínálatában a szokásos DirectCU-s példány mellett van egy DCU II-es változat is, ami jobb hűtőteljesítményt kínál, elméletben még alacsonyabb zajszint mellett. Nálunk pont egy ilyen kártya járt, így meg tudtuk nézni mire képes a két ventilátor. Nos, érdekes módon a kártya ugyanúgy melegedett, mint a Titanium változat (35 fok üresjáratban, 84 FurMark alatt), és bár üresjáratban tényleg csendes, teljes terhelés alatt lehetne halkabb. Furmark alatt legalábbis már zúgolódik rendesen (de nem visít!). Jó hír viszont, hogy a játékok nagy része közel sem terhel annyira, mint a FurMark, nem is mértünk soha 80 fok feletti hőmérsékletet sehol, és így a kártya is halkabb volt.



Kimenetek között a szokásos két DVI+egy mini-HDMI triót kapjuk, ezekből egyszerre maximum kettő használható.

HIS HD6790 IceQ

A HIS IceQ szériája is már nagyon régóta a halk és hatékony hűtést jelenti, ráadásul a legtöbb esetben úgy, hogy a gépházon kívülre viszi a meleg levegőt. Bár ez utóbbi jelen esetben nincs így, azért most sem panaszkodhatunk. A kék hűtő teljesítménye teljesen jó, mert FurMark-kal is csak 73 fokig jutottunk, játékok alatt pedig végig 70 fok alatt maradt a GPU, ami tekintve, hogy mivel állunk szemben nem rossz. Üresjáratban nagyon visszaveszi magát a ventilátor így 45 fokig is felment a GPU, de legalább hangja nem volt a kártyának. Terhelésre hallani a zúgását, de nem hangos.





Mivel Barts alapú Radeonról van szó, ezért természetesen a kimenetek száma is kielégítő. A két DVI port mellett egy HDMI (normál nagyságú) és két mini-DisplayPort is jelen van.

Hozzászólások

Nem vagy bejelentkezve, a hozzászóláshoz regisztrálj vagy lépj be!

Eddigi hozzászólások:

  • 149.
    2011. 07. 03. 09:50
    Rohadtul nem tartozik a témához de azért megkérdezem hogy ért-e valaki a fireGl meg nvidia quadro kártyákhoz... igazából az érdekelne hogy videovágáshoz, effektezéshez hasznomra lenne egy ilyen vga, régebbi tipus(talán 7100as ati, nem ugrik be hirtelen, ddr3, memó szávszél meg 512bites).
    Arra már rájöttem hogy 3d modellezéshez jó lenne(nem arra kell) de valamiért nem sikerül érdemi infot találnom ezekról a kártyákról.
    Van a boltban használtban 2, 1db 1 gigás quadro fx meg az a 256MBos ati.

    Szóval ha valaki tudna tanácsot adni azt megköszönném. A lényegi kérdés az hogy inkább egy ilyen tervező kari vagy egy 8800gts(mert abból is van 3 itthon). Összemérni sajna nincs időm(meg kedvem se).
  • 148.
    2011. 06. 21. 01:10
    Az NV karikon a CUDA nem véletlenül van. Physx től kezdve mindent azzal számol. Én például IRAY-ben renderelek vele (gts450!) és jó 3-4 szer gyorsabb mint a CPU (athlon x2 5200) magában. Szóval nem csak játékra jók, de az tény hogy abban teljesítenek a legjobban.
    Pélbának okáért egy Dragon age 2-ben DX11 el van mondjuk egyszerre max 100-300 ezer polygon+effectek textúrák post processing stb. és viszi az egészet egy 30-50 fps-el namost mikor dolgozok és van egy komolyabb modell akkor jó 16-30 millió poly (minden textúra és effect nélkül) amit simán kirak 30 fps fölött (mudboxban mondjuk) de ha átviszem maxba a történetet akkor 300 ezer polynál már köhécseli a 10-15 fps-t szintén csak a natúr modellel...
    Minden azon múlik mire használod mert amire nekem kell arra gyakran kevés. játékra meg abszolút elég bármiről legyen is szó. Szép grafika nekem annyira már nem mérvadó mert én is azt csinálom. De egy jó játékmenethez mondjuk egy apex-es rombolást meg ruhaszimulációt úgy elvárnék, de legalább valami hasonlót.
    Amíg OpenCL nem lesz használható renderelésre addig NV-s maradok, utána ki tudja, talán veszek valai tápos 2 magos karit.
  • 147.
    2011. 06. 20. 22:33
    A zöldek figyelmébe: Kellemes GeForce a láthatáron!
  • 146.
    2011. 06. 20. 21:04
    igen , hozzá se szólok már inkább olvasom a hívők szájkaratézását bár most nem az igazi így kijelentem mindkét gyártó sz@r és éljen a 3DFX
  • 145.
    2011. 06. 20. 20:30
    Nem tudom, hogy a hsz-eimből hogyan sikerült ide kilyukadnod, de a lényeg, hogy a mainstream videokártyák, amikkel pl. az ipon árlista színültig van, igenis játékra vannak csinálva. Miért gondolom ezt? Azért, mert 1000 emberből 999 nem azért fog GTX570-et venni, hogy CUDA-ra programozzon, azért. Piter szerint egy kártya sem játékra van kihegyezve. Persze, és az autók sem közlekedésre vannak kihegyezve, de mégis erre használják az emberek, ez van.
  • 144.
    2011. 06. 20. 20:09
    Terror az hogy te nem látsz tovább annál hogy pc csak játékra, az a te dolgod. Az más tészta hogy az Nvidia nem így gondolja. Nem véletlenül hívja a shader procijait CUDA core-nak. Hidd el hogy az asztali gpu biznisz csak egy mellékes nekik. Tesla-ból jobban megélnek, ezért fejlesztik inkább a GPU-t a GPGPU számítások felé. A világ szuperszámítógépeinek 500-as listájának élén nem egy olyan gép áll amik x86-os magok mellett Tesla-kkal vannak felszerelve. Jól párhuzamosítható számításoknál egy GPU rommá veri az x86-os procit teljesítményben.
  • 143.
    2011. 06. 20. 11:07
    Téged is látni? Pont ma filóztam rajta hol lehetsz
  • 142.
    2011. 06. 20. 11:05
    Innen látszik hogy játékra az erősebb vga jobban dominál mint az erős cpu!
  • 141.
    2011. 06. 20. 10:54
    akinek problema az allando ati/nv es intel/amd annek itt egy cikk:
    http://www.tweaktown.com/articles/4115/599_amd_gaming_pc_built_and_tested/index6.html
    es erdeklodjon tovabb...
  • 140.
    2011. 06. 20. 00:10
    ocsabi -kösz!
  • 139.
    2011. 06. 19. 22:54
    Heroes27 - 2011-06-19 17:44:23

    Nemtudom ... pszt most ér le lassan , lassu a netem , de nem sokáig ...
  • 138.
    2011. 06. 19. 22:32
    A bfg-rol mar reg hallottam az igaz!XFX bol meg talalsz 400-as szeriabol, ha jol tudom!a sparkle-bol is van 400-as szeria es 500-as is!pl sparkle

    Amugy bocs hogy a legjobb nem jutott az eszembe!Valoban EVGA a legjobb {lenne}Ha vegre arut is szallitananak!Joforman hianycikk az evga kartya!
  • 137.
    2011. 06. 19. 21:01
    Az XFX átállt a RadeOn-ra, a BFG meg tönkrement az elsö Fermi buliban.
  • 136.
    2011. 06. 19. 20:56
    piter: Sparkle
    Találos kérdés: a piter által felsorolt cégek közül hány nem létezik már?
  • 135.
    2011. 06. 19. 19:19
    HELP !

    A fent említett nVidia (olcsóbb 550ti és 460) kártyák mind CUDA és 3d szemüveg kompatibilis?

    Köszönöm a választotok!
  • 134.
    2011. 06. 19. 17:56
    Lassan a sírva röhögős szintre süllyed ez a topik...
    Zárójelben, ha NV fan vagy, vegyél EVGA-t, mert toronymagasan a legjobb az összes közt!
    Egyébként az ATI kártyák kutyasétáltatásra, az NV-k meg macskasimogatásra vannak kiélezve, de alapszinten mindkettő alkalmas vécépucolásra is!
  • 133.
    2011. 06. 19. 17:44
    Diego:

    Tört winre lehet valahogy azt használni? Kajak jobb ,mint az Alienware.
  • 132.
    2011. 06. 19. 16:58
    Szerinted mi a szarra vannak kiélezve, ha nem játékra?

    Facepalm....
  • 131.
    2011. 06. 19. 16:39
    Na szoval sem az nvidia sem a ati kartyak ha azt vesszuk nem jatekra vannak kielezve!De megis ez van!Az nvidia tamogatja a jatekfejlesztoket!Ez altal nekik is elonyuk van kaphatnak az alkalmon es uj drivereikben mar benne van a meg kisem jott jatek tamogatasa!Vagy a telepito dvd-en!Nagyon keves jatekkal talalkoztam aminek a promojaban benne volt az ati!Neverwinter nights 2!talan ez az egyeduli ahol lattam!
    Ha mar nvidia fan vagy akkor valassz rendesen!Vannak nagyon is megbizhato gyartok!
    pl.XFX-BFG-Gigabyte-Asus-Sparkle!
  • 130.
    2011. 06. 19. 16:39


    Miért ne lenne ... ?

  • 129.
    2011. 06. 19. 16:37
    _DiEGO_: aztaaa!!!, ez valami fake, vagy tényleg van?
  • 128.
    2011. 06. 19. 16:34
    Hoppsza , mire bukkantam rá



    kell nekem
  • 127.
    2011. 06. 19. 15:06
    ossyni: gyanus Nekem 6850-em van, és nem tűnik úgy hogy 7750-et ketyeg. Jó is lenne...
  • 126.
    2011. 06. 19. 15:04
    Terror: lám ennyire nem értek hozzá, csak azt tudom, hogy mindkét kártyával szívtam már, úgyhogy nekem egykutya. Van ami itt jobb, van ami ott. Össze kéne gyúrni őket.
  • 125.
    2011. 06. 19. 14:33
    HIBA ????????
    6850-nél mi az a 7750-es órajel? -szerintem el lett ütve!

    Kérdés!
    Ezeken az újabb nVidiákban már mindegyikben van CUDA és 3d szemüveges támogatás?
  • 124.
    2011. 06. 19. 13:15
    Nem feltétlenül így van. Kezdjük azzal, hogy pl. az nV DX11-e nem 100%-ig ugyanaz, mint az AMD-é, vannak funkciók, amiket a gpu emulál. Ha az AMD ki akar velük szúrni, akkor berakat pár dolgot, ami ezen a ponton izzasztja a gpu-t, és máris megvan az elméletben két egyforma teljesítményű kártyán a 10% különbség, vagy több. Vagy fordítva: eleve elég nagy az architekturális különbség a két kártya között, az nV a nagyobb memóriasávszéllel kompenzálja a gyengébb háromszögelést (nem feltétlenül van így minden esetben, ez csak egy példa), és ha azt akarja, hogy az AMD kártya szívjon, akkor nem sok meló memóriaintenzív dolgokat belevinni a grafikába... Mivel tökéletes architektúra nincs, és nincs két paraméter, amiben az átlagot nézve két egyforma nV/AMD kártya ugyanúgy teljesítene, ezért más sem történik már nagyon sok éve, csak az egymással való csipkelődés a gyenge pontok kiszúrására.

    De vegyük ezt inkább pozitívumként, legalább egy gyártó sem kényelmesedhet el, és nem fejleszthet csak bizonyos dolgokra, mert neki az jobban fekszik.
  • 123.
    2011. 06. 19. 11:58
    Nah egyéb iránt szerintem ez az Nvidiára, ATI-ra optimalizált játék dolog is csak marketing.
    Gondoljunk bele... Egy játékot 1-2-3 évig fejlesztenek, sőt a motorját még jóval-jóval azelőtt kezdik fejleszteni (4-5 évvel korábban).
    Ergó mikor egy játékot fejleszteni kezdenek, még messze sehol nincsenek azok a kártyák, amin majd ezek a játékok futni fognak. Max tervezőasztalon.

    Ilyenkor leülnek szépen a fejlesztők (de legikább a motor fejlesztői), meg a programozók, a fejlesztők megmondják, hogy urak, x év múlva ezeket az effekteket fogja tudni egy videókártya, ilyen shader meg olyan szűrő támogatás lesz benne, ehhez tessék fejleszteni.
    A programozók meg ezek alapján megírják a játékot.
    Eközben az nvidia meg az ati kilicenceli az adott chipszetet a gyártókan (gigabyte, asus, sapphire, stb...), adott specifikációkkal, azt szevasz...

    És a vége az, hogy a játék mindkét kártyán kb ugyan úgy fog futni. Aztán kiadás előtt valszeg béta teszten még javítják a hibákat nvidiára és atira is.
    Na itt tudom elképzelni, hogy max 2-szer annyi nvidia kártyán tesztelik, mint ati-n.

    És ebből áll egy optimalizálás. Ez még nem jelenti azt, hogy ATI-n kevésbé jól futna.
    Aztán az elejére kiírják hogy ati vagy nvidia azt heló. Ez már csak marketing. Ennyi erővel azt is kiírhatnák, hogy Rádió1.

    Most nem azért de én megvettem ezer forintos kiszerelésben a Chrome c játékot gold editionban. Az 576 kiadója adta ki és azzal indulta játék, hogy bejött egy batár nagy 576 logó. Akkor most újságra optimalizálták a játékot, vagy mi.

    Sőt mondok viccesebbet. Hitman Blood Money két verzióban is megvan. Egy sima játék és egy tripla pack részeként. Eredeti.

    Elvileg Nvidiára van optimalizálva. Atin az egyik pálya fagyott mint állat.
    Nvidia kártyán el sem indult.

    Nah ennyit erről...
  • 122.
    2011. 06. 19. 11:56
    AMD-ről tudni hogy a kártyáit játékra fejleszti. Nvidia eléggé elhúzott a HPC irányba, ezért tudják drágán gyártani a GPU-ikat. Sok olyan dolog van a Fermi óta a GPU-ban ami a játékosok szemszögéből nézve felesleges, ezért le is van tiltva, ami a GPGPU jó használhatóságához elengedhetetlen, ilyen az L1 cache koherencia vagy az ECC ramok támogatása, ami megdrágítja a chipet, viszont játékosoknak totál felesleges. Az alsóbb kategóriás gpu-kból ez már kikerül, de azok olcsóbbak is.
  • 121.
    2011. 06. 19. 08:53
    szerintem max arra gondolhatott, hogy több játék van NV-re optimalizálva, mint ati-ra,
    a haverod szerint az ati mire gyártja a vga-it
  • 120.
    2011. 06. 19. 02:21
    Nem igazán tudom elképzelni, hogy mi másra lehetne optimalizálva egy videókártya, mint játékra. Az egy nagy baromság, hogy az Nvidia csak játékra van optimalizálva az ATI meg nem. Akkor az mire?? Szobafestésre? Ugyan már...
    Egyébiránt, én Nvidián találkoztam több hibával, pl az unreal tournament (az első, ami vagy 3000 éves, és még a kereszténységnél is idősebb ám) ba*ott futni Nvidián.

    Ami pedig azt illeti, hogy ki a jobb gyártó... Mikor? A kérdés az, mikor.
    Én még Asus V3800-zal keztem a PC-s pályafutásomat. Apuka megvette nekem 160k-ért. (KB. 1999-et írunk, max 2000-et, középsuli közepe volt). 2 hónapra rá kijött az első Geforce és fele annyi pénzért rommá alázta...
    (Igaz akkor még a földi halandónak nem volt internete sem, így nem tudtuk nyomon követni a híreke. Budapest újság volt...)

    Szóval a Geforce lett az istenkirály sokáig. Aztán 2003-ban az ATI kidobta a 9700-ast és a sárba taposta az Nvidiát. Vagy 1-2 évig ők voltak a csúcson 9700 9800 X800.
    Aztán megin az Nvidia sokáig, majd pár éve volt egy olyan időszak mikor kijöttek két ATI kártya ami 40k meg 70k volt, de agyon alázta a 100k-s Nvidiákat.
    Nem akarok baromságot mondani, de talán a 4850 meg 4870 volt. Talán. De már nem esküszöm meg rá)
    Arra viszont tisztán emlékeszm, hogy az Nvidiának madj egy év kellett, mire tudott válaszolni erre a lépésre.

    Szóval én úgy vélem a VGA piac mozgásban van, és hogy mikor ki a jobb, az változó.

    Szerintem az Nvidia semmivel sem jobb az ATI-nál (és viszont is), csak többet költ marketingre. És ezt általában a szimpla USER-en vasalja be.
  • 119.
    2011. 06. 19. 02:08
    GTX 560 vs. 6870 témához csak annyit, hogy akinek számít a tuning, jobb választás az nV. Eddig minden tesztben min. a Ti szintjére húzták, a 6870 pedig eléggé antituningos.
  • 118.
    2011. 06. 19. 00:29
    devilhun:én érzem az iróniát a hangodba ,ennyire láma nem lehet senki hogy komolyan mondja és kérdezze
  • 117.
    2011. 06. 19. 00:12
    GTX570? HD6970? Nekem az AMD-van, eddig nem reccentette meg semmi.
  • 116.
    2011. 06. 19. 00:08
    ~65 ezer forintért van Gigabyte GTX560SO, ennél jobb választást ennyi pénzért nem tudok. Abban a felbontásban, amit írtál, ez a kártya mindent elvisz maximális beállítások mellett.
  • 115.
    2011. 06. 19. 00:02
    1650x1050 felbontás 80000ft max
  • 114.
    2011. 06. 19. 00:00
    Jó játékra mind a kettő.
  • 113.
    2011. 06. 18. 22:59
    És szerinted mire vannak kiélezve, ha nem játékokra? Dísznek gyártják a 60-100 ezres kártyákat, hogy ilyen is legyen?

    Ebben az a legviccesebb, hogy pont az Nvidia kártyái célozzák inkább a professzionális piacot.
  • 112.
    2011. 06. 18. 22:52
    Hát nekem haver mondta hogy az ati kártyákat nem épp játékra van kiélezve.
    Rosszul tudja.
    Milyen felbontásra és mennyiért?
  • 111.
    2011. 06. 18. 22:42
    Hát nekem haver mondta hogy az ati kártyákat nem épp játékra van kiélezve.
    A geforse meg 100% játékra én így tudtam.
    Az hogy itt sokan sokat tudnak aminek a fele baromság.
    Akkor help milyen kártya való játékra?
    adjatok tippet létszi lehet ati és geforce is.
    De ha lehet halk és brutális közép kategóriás.
    köszi
  • 110.
    2011. 06. 18. 22:37
    Nem kell egyik gyártót sem pártolni, mindkettő termékeinek megvannak az előnyeik, a hátrányaik, de mindkét gyártónak egy a végső célja: a hatalmas összegű profit megszerzése. Annyit még hozzátennék, hogy nem biztos, hogy az olcsóbb, meg "gyorsabbnak látszó" termékek a jobbak.
  • 109.
    2011. 06. 18. 22:35
    morgyi

    Én még drivire hibával sem találkoztam egyszer sem, se AMD-nél, se nVidiánál, pedig rendszeresen felteszem a legújabbakat. Ezért sem értem miért jönnek állandóan ezzel a Catalystos szidalmazással.
  • 108.
    2011. 06. 18. 22:29
    Az a szar hogy mindenkiben az a felfogás él hogy az Ati mekkora szar bezzeg az Nvidia... Akinek esze van az AMD-t vesz már. AMD egy jóval kisebb, olcsóbban gyártható kevesebbet fogyasztó és ezáltal melegedő gpu-val tudja azt a teljesítményt hozni mint az Nvidia. Driverekkel vannak hibák? Jó oké vannak... de legalább nem sül meg a VGA-d ha húzod (GTX590) vagy nem sül meg játék közben, a hibás ventilátor vezérlő miatt. Hanem csak kellemetlenségek... ami néhol idegesítő, de hamar jön a hotfix, ezzel együtt lehet élni, de manapság már ritkák az olyan bődületes hibák. A dx11-es generáció óta az AMD úgyérzem hogy jobb, nem teljesítményben, abban egy szinten állnak, nvidiának van egy gyorsabb kártyája mint az AMD-nek ennyi, hanem ami fontos az sokak számára a fogyasztás, vagy ha az mind1 akk a melegedés ami ebből adódik, mert nem mind1 hogy porszívó e vagy nem. Az Eyefinity-t meg nem hiszem hogy legfőképp a játékosoknak találták ki, ha valaki több asztalt akart munkához, annak méregdrága matrox rendszerekben kellett gondolkodnia, most meg megveszed a legolcsóbb radeont és megy rajta. Ha nem kell a grafikai teljesítmény akkor tökéletes.
  • 107.
    2011. 06. 18. 21:38
    Rabib: Ennyi. Ezt híjjjuk fogyasztói társadalomnak, meg profitnak ugye. A proci ha azt vesszük csak egy nagy adag homok. (Mégha nem is).

    Egyéb iránt ezem volt, és ez még most is 28k, nem 21.
    http://ipon.hu/webshop/product/_gigabyte_gv_n450oc_1gi_gts450_1gb_gddr5_pcie/160131

    Plusz mikor vettem semmiképpen nem akartam atit, mert akkor ralatíve drágák voltak ár/teljesítménybe. KB az 5770 volt akkortájt ilyen teljesítményben, de alapból vagy 8 rugóval drágább volt, a vaporos meg még többel.
    Már pedig nekem fontosabb a zajszint, mint a teljesítmény. (Pontosabban igyekszem megtalálni a középutat, mert manapság kevest játszom, de annál többet melózok a gépemen, és rühellem ha zúúúúúg)
  • 106.
    2011. 06. 18. 21:11
    Igen, így van, bár a GTX470 és GTX480 ára azért is csökkent a felénél is kevesebbre, hogy versenyképesek tudjanak maradni valamennyire, valamint az új szériák annyival gyorsabbak lettek, hogy ezek a kártyák a középkategória tetejét, vagy a felső kategória alsó részét érik el manapság. Persze ha lehetne kapni GTX480SO-t 60 ezerért, az igazán ajánlott vétel lenne, ugyanúgy, mint a GTX470SO. A minőségi alkatrészeknek, és a módosított nyáknak hála, jóval kevesebbet fogyasztanak a referencia modelleknél, hűvösebbek, pedig gyárilag eléggé jól tuningoltak.

    zord01
    A GTS450 a 21 ezer forint körüli árkategóriában aránylag jó helyen van. Viszont ~25 ezer forintért van HD5830 is, ami sokkal gyorsabb nála.
    Egyébként teljesen egyetértek veled, egyik se ér annyit, mint amennyiért megvesszük. A gyártók így tudnak profitot termelni, ezt pedig a vásárlóktól "gyűjtik össze."
  • 105.
    2011. 06. 18. 21:05
    Az alaplapom meg 12k volt (igen tom, gyenge f*s, sz*r, azért is cseréltem le), most boltban 10k és 7500HUF-ért hírdettem meg, és 1 óra alatt 3 vevő rohant meg, hogy másnap már el is vinné.
    Valakinek 1-2-3 ezer forint is pénz...
  • 104.
    2011. 06. 18. 21:03
    Jah és ami az eladást illeti: én 35k-ért vettem a GTS450-et 8 hónapja. Most boltban 28-k és 23-ért úgy vitték el, mint a cukrot...
  • 103.
    2011. 06. 18. 20:50
    piter:

    Tudod neked is sok mindenben igazad van. Gyakorlatilag mindenben egyet is értenék veled, ugyanakkor nem értettél meg. Én nem arról beszéltem, hogy jobb-e egy drága kártya, mint egy olcsóbb, hanem hogy MENNYIVEL?

    Pár dolog:
    Igen, tökéletesen igaz, hogy jobb egy drágább kártya, mint egy olcsóbb. De én mindig azt nézem, mire kell nekem, és abban a kategóriában a legjobb ár érték aránnyal rendelkező terméket veszem (legalább is igyekszem). Ezt valahogy belém nevelte az élet, meg a közgáz.
    Aki nem így tesz, az a saját pénztárcájának az ellensége. Én például akkor sem venném meg minden évben a legdrágább VGA-t, ha 10-szer annyit keresnék mint most. Talán ha már annyi pénzem lenne, hogy már számon sem tudnám tartani, hogy mennyim is van.

    Egyéb iránt én sem szeretem az olcsó cuccokat, ennek tükrében svájci órám van, és arany telefonom, meg Armani az öltöny, de azért ha tudom hogy piszkos leszek, kínai ruhában megyek...
    Ha meg már az autóknál tartunk áll a garázsban egy 6 éves 745I BMW meg egy 7 éves S500.
    Nem kell elhinni, attól még van, és nem izgat ki mit gondol...

    Mégse kell 120k-s kártya, mert az igényeimet kiszolgálja egy 40 rugós.
    Nem mellesleg, egy 120k-s kártya csak 23%-kal tud többet, ugyanakkor 3-szor annyiba kerül. Ez számomra nem éri meg.
    Azt a 80k különbözetet inkább elbulizom. Legalább addig sem a gép előtt kockulok, amit egyébiránt manapság a kelleténél többet űzök.

    Lám most is itt fórumozok, ahelyett hogy mosolygósra innám magam, és felszednék egy új csajt.

    Ami meg az Nvidia vs. ATI-t illeti, én mind a kettőben csalódtam már. Egyik sem tökéletes. Innentől kezdve meg sztem hót mindegy melyik szart veszem. Úgyse ér annyit, mint amennyit elkérnek érte.
  • 102.
    2011. 06. 18. 20:46
    Ha fűteni kell tuti!
    Viccet félre téve sem rossz, de egy 6950/2gb ellen már nem nyerő, és az még olcsóbb.
  • 101.
    2011. 06. 18. 20:43
    A GTX470 egy elég jó teljesítményű videokártya. MSI GTX480-at lehet kapni már ~58 ezer forintért. A GTX480 jobb az összes tesztelt kártyánál.
  • 100.
    2011. 06. 18. 20:35
    Terror: kegyetlen jó képet tettél ki! Így legalább nem mondhatják hogy nvidia ellenes lennél!
  • 99.
    2011. 06. 18. 20:27
    Egy reszeben igazad van a masikban nincs!nem mindenki talal olyan hulyet aki megvesz egy hasznalt kartyat felaron,ami egy eves!Mert addigra mar a bolban is annyi vagy alig tobb!
    A ferrarirol meg annyit akinek olyan van a benzin nem tema!es a BMW is ott van a garazsban!
    1.akinek a jobb kell es tellik ra megveszi!
    2.akinek nem kell az ne vegye de ne is beszeljen ra masokat hogy azt vegyek!
    3.Ugyan ez forditva is igaz!
    4.en csak egyszeruen nem szeretem a olcso cuccokat!Az auto nem tartozik bele arra nincs eleg hogy egy golfnal jobb legyen!
    Vusszaterve az eredeti temara szerintem azert az nvidia mar joval tobbet letett az asztala mint az amd!
  • 98.
    2011. 06. 18. 19:56
    Szasztok!

    piter: Én ár érték arányról beszéltem. Veszek egy kártyát 120k-ért. Túl sok értelme nem lesz, hacsak nem épp a legújabb Crytech játékkal akarok full HD-ban Ultra High-on játszani, de akkor mikor kijön, általában ez totál vágyálom. Max CrossFire-ben, vagy SLI-ben két igen drága kártyával. Viszont a normális játékok 99%-a elmegy egy 40k kártyán.

    Szóval veszek egy kártyát 120k-ért. VAGY veszek egy kártyát 40-ért, a következő évben eladom 20K-ért és veszek egy kártyát megint 40k-ért. Ergó a következő évben 20K-ba került az új vidkari.
    Akkor az első évben költök 40-et, aztán évente 20-at. És napra kész vagyok. Ezt a trendet követve 5 év alatt költök el 120k-t.

    NINCS az a bika kártya, ami 5 évig fullon visz mindent. Talán 2 évig, aztán majd jön a lejeb vett grafika, aztán már a felbontást is lejeb kell venni, a végén meg már örülsz, ha minimumon elindul valami.

    Akinek meg annyi pénze van, hogy nem számít neki évente 120-150 rugó, az vegyen minden évben ilyen kártyát.

    Igazából én is megtehetném, de semmi értelmét nem látom...

    (Egyéb iránt emlékeszem anno 7 éve a bika kártyámnak hogy örültem. Aztán annyit fogyasztott kis túlzással mint a mosógép, melegedett, meg hangos volt. Ma meg az alaplapra integrált 4250 kétszer annyit tud passzív hűtéssel. Ezért sztem nem érdemes 40k-nál többet adni egy kártyáért, de akinek munkaeszköz, vagy hobbi szinten költi a pénzt, az vegyen drága kártyát. Elvégre ha senki nem venne, nem gyártanák őket.
    Én a saját példámon tanultam meg, hogy nem érdemes...)

    Sztem picit olyan ez mit Ferrarit venni. Tök gizda, meg gyors, drága, és piros is, kell hozzá egy benzinkút a garázsba. Nagyon csúcs, meg minden. De a munkahelyre egy BMW-vel is eljutsz.
    Jó a Ferrari?? Persze. Kéne?? Persze. Adnál érte 80 millát??? HÁÁÁÁTTTTT....
  • 97.
    2011. 06. 18. 19:48
    Ha megveszed a jatekot nem ir ki semmit!Es akkor sem ha ertesz hozza!Itt a problem a 30-45 ev kozotti genallomanyban van!Mi megadunk mindent a gyerekeinknek ami nekunk nem volt!Es most nem arra gondolok hogy amigan nyomtuk vagy enterprison!
    Hol voltak meg akkor ilyen kartyak es jatekok!Tehat a hiba bennunk van!
  • 96.
    2011. 06. 18. 19:40
    mondjuk egyébként igaz, hogy sok beteg ember van ott. Amikor egy játék topikja azz van teli, hogy kell telepíteni, meg hibát ír ki win7 64 help..... ettől a falra lehet mászni.
  • 95.
    2011. 06. 18. 19:26
    Azért a 14 évet el tudnám képzelni

    "heló, hogy kell fel telepiteni ?? telepítés közben ki irt valamit és nem találom"

    "Elindul a game de fehkete képen csak az utasitásokat látom!"

    "Valaki leírná, hogy mit jelent itt kicsomagolni? Mert nekem max összefűzni lehet a total commanderrel. Kell valami plusz segédprogram vagy hogy?"

    "Tud vki nekem abban segíteni,hogy egy hasonló szörnyes FPS játék jött ki pár napja és nem találom fent az oldalon,fent volt de most nincs"

    stb
  • 94.
    2011. 06. 18. 19:26
    Mondom, hogy fiktív a táblázat, de a hozzászólásokból ítélve a túlnyomó többség még nem jutott el az alsó tagozatig, vagy eljutott, csak éve(ke)t ismétel. Esetleg a jövőből jöttek, mert a nyelvezet, khm, meglehetősen sok közös ponton egyezik a Mézga Család Kalandjaiból megismert MZ/X újmagyar szókincsével.
  • 93.
    2011. 06. 18. 19:20
    Terror én ezt nem hiszem el, hogy az átlagéletkor 14 ncoron. Ez egyszerűen felfoghatatlan
  • 92.
    2011. 06. 18. 19:11
    Tényleg, elő is keresem a múltkori nCore-os felmérést, lehet abban is van ilyesmi és az talán még reális is.
  • 91.
    2011. 06. 18. 19:09
    Fiktív, de jól példázza a mondandómat.
  • 90.
    2011. 06. 18. 19:08
    Terror

    Jáú, ez fájt Ez a grafikon honnan van?
  • 89.
    2011. 06. 18. 19:06
    insanity228 - megmondom, hogy honnan kerülnek ide, és miért így...

  • 88.
    2011. 06. 18. 19:00
    Én utoljára a CoD 1-el játszottam komolyabban. Aztán mire a CoD 2 jött eléggé kiestem a dologból, nem is foglalkoztatott annyira. De amikor kipróbáltam a CoD2-őt végleg eldöntöttem, hogy nem fogom befeketíteni a régi szép emlékeket ezekkel a fos utánzatokkal. Kb 2 éve amikor egy 4770-es kártya vételénél próbaképp CoD x (franc tudja melyik volt, de nagyon szar)-et kezdett el játszani az eladó, hát csak örülni tudtam a korábbi döntésemnek. A játék abból állt, hogy megvettem mindenki a gránátot, meg a szuper töltényt, és megjelenéstől fogva dobálta szanaszét, meg lőtte a falat mindenfele, mint a hülye, hátha eltalál valakit... Nameg a pelenkás vérpistikés sírás anyázás persze... Idáig degradálni egy egyszer jó játékot szégyen a köbön!
  • 87.
    2011. 06. 18. 18:39
    nekem abból az tetszik a legjobban, amikor azt mondta, hogy pénzhiány miatt használtam CF-et. Ezen besírtam Ha nem lett volna pénzhiány, akkor mi lett volna?
  • 86.
    2011. 06. 18. 18:33
    gordon85 - 2011-06-17 22:42:3741
    tapasztalatom szerint radeont az vesz aki olcson meg akarja uszni.tobb codos haver vallomasai alapjan.aki megteheti sosem fog radeont venni hanem nvidiat+intelt.en is penzhiany miatt hasznaltam cf-et,de most valtok egy gtx 570-re.

    Múltkor vártam a szobájában egy ismerősömet amíg összeszedi magát és végre elindulhatunk. Láttam az asztalán a Modern Warfare-t, mondom kb. 2 év után belelesek mi a helyzet CoD témában. Ne mondjam olyan jót röhögtem, mikor a mikrofonba szinte csecsemő hangú vérpistikék hadserege üvöltözött, anyázott, sírt. Tiszta szánalom volt. Meg is kérdeztem haverom, te ezzel a sza**al játszol még mindig?
    Azóta az említett "codos" emberkék hallatán csak mosolygok egy jót.
  • 85.
    2011. 06. 18. 18:24
    devilhun - 2011-06-18 11:20:0279

    Szevasztok nekem ati van mióta átértem a konzolról a pcre.
    Mennyi időbe telt?

    Szerintem jó az ati de nem játékra mert arra van a geforce kártyák.
    Kicsit törni magyar and írni butaság.

    Olvastam lentebb hogy azok vesznek atit akik olcsón akarják megúszni.
    Ebben van valami, de azért hülyeség...

    Ez baromság mert atibol is van 160000ft-os meg a geforce-bol is.
    És? Ez hogy zárja ki a fentebb levő kérdést? Omg!

    Én már rakom össze az új gépemet is ami így fog kinézni.
    Nem vagyok milliomos sőt gyűjtögető életmódot élek.
    Íme elárulom hogy a kártya amit kinéztem az egy
    Gigabyte GV-R695OC-1GD HD6950 1GB GDDR5 PCIExpress

    Szóval te ritkán szoktál játszani. Tökéletes választás!


    Honnan szabadultok el ilyen sokan?
  • 84.
    2011. 06. 18. 16:59
    MasterMark: "Akkor volt még jó amikor nem AMD hanem igazi ATI volt az ATI, most meg már AMD Catalyst... na nemár"

    Mond már el, hogy miben változott attól, hogy ati-ról amd-re lett átnevezve? főleg, hogy 2006 óta amd tulajdon
  • 83.
    2011. 06. 18. 15:28
    Amit Zord mond az igaz. Érdemesebb ilyen 40-50eftos videókártyákban gondolkodni, és inkább 1 inkább 2 évente cserélni, mivel a cserét utána meguszod 20-40eftból.

    Atiról meg annyit, hogy lassan 2éve van 4870-esem és teljesen megvagyok vele elégedve. Annyi, hogy a hűtőjét kell 2-3havonta takarítanom mert zajos lesz.
    Meg annyi, hogy a linuxos driveren lenne mit polírozni.

    Geforce-os emberek meg szerintem túlzásba tudnak esni

    Sztori: Összedobtunk egy lanpartit. 1PC + 3laptop. Egyik laposba integrált intel vidkari volt a másik 2 laptopba Ati + az én 4870-esem.

    Age of Empires 1
    Az egyik laptopon nem indult el vmi hiba miatt és a gyerek erősen NVIDIA párti és meg akarta magyarázni nekünk, hogy azért nem indul el, mert Ati videokari van a gépbe De a másik 3 gépen futott(2gép ebből Ati-s) ráadásul még nekünk újabb széria volt a vidkari.

    Szóval sztem, ahol baj van, ott hozzá állás kérdése, meg kitudja mi van feltéve vagy mi nincs.

    Ha a kártyával baj van vinni kell cseréltetni. A selejt arány meg sztem gyártó függő, nem az ATI/NVIDIA hibája.
  • 82.
    2011. 06. 18. 15:24
    zord01 hiaba ervelsz hogy jobb venni 120-helyett 40-ert ez nem igaz!Mikor kijott a 9800Gtx megvettem nem olcson az biztos!2,5 evig lazan vitt minden jatekot hagoskodas minden nelkul!Jo elismerem nem kotelezo 120-ert 80-ert is lehet!Ha egy ev mulva keves vegyel fele annyiert meg egyet es sli-ben nyomathatod!
  • 81.
    2011. 06. 18. 15:07
    Meg ne kérdezd tőle, hogy akkor mi célból gyártják, mert a választ azt várhatod...
  • 80.
    2011. 06. 18. 14:55
    'Szerintem jó az ati de nem játékra mert arra van a geforce kártyák'. - ekkora baromságot írni. Ezt melyik bunkó oldalon olvastad?
  • 79.
    2011. 06. 18. 14:53
    Egy gtx470-et beletettem volna a tesztbe mivel ugyan azon az áron van vagy még olcsóbb mint az 560ti.
  • 78.
    2011. 06. 18. 12:07
    Biztos jobb egy 540k-s gép mint egy 200k-s max nem ANNYIVAL, mint amivel többe kerül. Én hosszú-hosszú évek alatt arra jöttem rá, hogy 40k-nál nem éri meg többet adni egy videókártyáért. MIÉRT? Egyszerű. Nem tud annyival többet.
    Ha veszek egy 120k-s kártyát, az bivaly lesz pár hónapig, fél évig, talán még egy évig is. Cserébe többet fogyaszt, melegszik, hangos. Egy év után pedig általában egy közép kategóriás kártya le fogja nyomni. Nem feltétlen azért mert erősebb, hanem mert hatékonyabb (csíkszélesség csökken, stb), és jobban kezeli az új effekteket.

    Szóval inkább veszek 40k-ért egy kártyát minden évben, mint hogy 3 évig szívjak egy 120k-ssal.

    Más. Fél éve az én gépem is 200k volt, és gyakorlatilag minden ment rajta full HD-ban még a Crysis is (Igaz nem ultra high-ban). (Nem mellesleg hatalams csalódás volt a játék. Egy rosszul sikerült Chrome utánzat.)

    Azóta még kb 60k-t költöttem rá alaplap, VGA csere. (pontosabban 30-at, ha azt vesszük, hogy a régi cuccokat elpasszoltam).

    No de akkor egy kérdés:
    Ezt mondja meg valalaki, hogy hogy lehetséges:
    Gigabyte alaplappal és GTS450-nel, nem működött a command & concure the first decade lemezről (eredeti nem crackes) a generals, meg a kiegészítője sem. Ugyanakkor, ha alaplapi VGA-ra kapcsoltam, akkor ment.
    A Star Wars Empire at Warral ugyan ez volt. A sima játék ment, a kiegészítő, a Forces of Corruption meg nem. De alaplapi videókártyával az is ment.

    Most alaplap és VGA csere volt (MSI R6850 és Asus M4A88TD-V Evo)és ugyan ez a helyzet.
    Az említett játékok a PCIE16 os kártyával nem mennek, de ha alaplapi kártyára váltok, akkor simán mennek.

    Ez hogy lehet szerintetek?????

    (Jah és a régi gépemen mindegyik játék ment simán...)
  • 77.
    2011. 06. 18. 11:20
    Szevasztok nekem ati van mióta átértem a konzolról a pcre.
    Szerintem jó az ati de nem játékra mert arra van a geforce kártyák.
    Olvastam lentebb hogy azok vesznek atit akik olcsón akarják megúszni.
    Ez baromság mert atibol is van 160000ft-os meg a geforce-bol is.
    Én már rakom össze az új gépemet is ami így fog kinézni.
    Nem vagyok milliomos sőt gyűjtögető életmódot élek.
    Íme elárulom hogy a kártya amit kinéztem az egy
    Gigabyte GV-R695OC-1GD HD6950 1GB GDDR5 PCIExpress
  • 76.
    2011. 06. 18. 10:42
    Jó teszt. Én személy szerint kíváncsi lettem volna hogy az ati 5850 és 5870 hogy teljesít ebben a mezőnyben... már elég jó áron lehet őket kapni használtan (meg néha újonnan is), és azért még mindig elég ütősek.
  • 75.
    2011. 06. 18. 09:56
    Jó teszt lett! Kaptunk egy kis képet a középkategória jelenlegi állásáról.
  • 74.
    2011. 06. 18. 09:19
    Nekem van egy ismerősőm aki ilyen helyen dolgozik mint szerintem te és mondta hogy egyszinten van a kettő márka meghibásodásba 2db-ot emelt ki leginkább az atinál a vtx-et, nvidiánál a gigát, amik leginkább mennek vissza!
    De laptóbba toronymagasan az nvidia vezet meghibásodába!
  • 73.
    2011. 06. 18. 08:44
    _DiEGO_: A CUDA-nak van ATI megfelelője csak most nem jut az eszembe, valami stream vagy hasonló, PhysX gyorsító kártyát meg lehetett venni régen külön amikor még az Ageia-é volt, olyan kéne most is. Ha jól tudom volt olyan is, hogy egy másik nVidia kártyát be kell rakni ATI mellé és akkor a másik kártyának csak a PhysX részét használni, de ezt ha jól tudom már letiltotta az nVidia. Bár egy erős Intel proci megoldja szoftveresen...

    Asus Ageia PhysX:



  • 72.
    2011. 06. 18. 08:34
    Szép reggelt mindenkinek ...

    gordon85 - 2011-06-18 01:00:55

    Azt a ... eddig fennvoltatok és mégsincs kép - asszonyka legalább tudott aludni reméljük . Néztem képen jobb oldalit, ami asszonykáé --- hát kap az valami levegőt is eléggé beszigetelten van szerencsétlen gép , ha valóban megy is az .

    MasterMark - 2011-06-18 05:49:07

    Megy intel mellé minkekettő vga - de... valahogy azt látom , hogy a többség AMD/ATI karit vesz bele, nem mindenkit hat meg a marketing a CUDA -val & PhysX -el , egyenlőre értelmetlenség és ezt a többség belátja

    Aki meg munkára veszi a Core i7-et annak minek bika VGA ??? ha úgyis csak a proci a lényeg ? annak elég lenne az IGP .
    Kis linkecske ezt találtam [hamarjában] , [és ezt.]

  • 71.
    2011. 06. 18. 06:07
    Dragon3k: Kösz a gyors választ, mert kicsit megijedtem, mert én Intel + ATI VGA-t szeretnék majd egyszer.

    Akkor volt még jó amikor nem AMD hanem igazi ATI volt az ATI, most meg már AMD Catalyst... na nemár
  • 70.
    2011. 06. 18. 06:03
    MasterMark: amd/intel-hez ugyanúgy jó az amd/nv vga.
  • 69.
    2011. 06. 18. 05:49
    Végig olvatam mindent, és lenne egy kérdésem: azt vettem ki, hogy nem jó ha Intel alapú rendszerhez ATI kártyát raknék, ez tényleg így van?

    gordon85: A belsejéről azóta sincs kép. (az oldalát le tudod venni? vagy segítsünk )
  • 68.
    2011. 06. 18. 03:17
    zord01: egyik márka sincs istenítve, csak amikkel gordon előállt egy része hülyeség a másik meg a konkurens megoldásánál is megvan. Hülyeség része az, hogy felhozza a 2 vga melegíti egymást, nem olyan szar alaplapot kell venni ahol a 2db pci-e 16x slot között csak 1 slotnyi hely van, hanem olyant, ahol 2, ez alap feltétel, ha az ember több kártyás megoldásban gondolkodik és nem akarja, hogy egymást süssék a vga-k. A driveres gondokról meg annyit, hogy ati/amd régen tényleg voltak vele gondok, manapság azért elég jól megírják őket, legtöbb gond user error, sokszor kiderült, hogy nem a driverrel volt a gond, nv régen tudott drivert írni, de az utóbbi időben mintha mindig valami szart adnának ki. Amúgy meg nagyobb vita lett abból, hogy csak játékra az 1366os rendszerek feleslegesek, mert semmi pluszt nem nyújtanak, de gordonnak ez nem tetszik, mert nehéz beismernie, hogy elköltött 540e-ret egy olyan gépre, ami játékokban nem tud többet, mint egy 200e-res gép
  • 67.
    2011. 06. 18. 01:35
    Egyébiránt már meg is van a megoldás, de aki ezt a baromásgot kitalálta, azt agyon kéne verni.
    Addig nem engedi a GPU Scaling-et, amíg a monitor natív felbontásban van. Amint leveszem a full HD-t kisebb felbontásra, máris engedélyezi a dolgot. És akkor már minden lehet állítani.

    Aki ezt kitalálta, egy állat volt...
  • 66.
    2011. 06. 18. 01:24
    Az a leggusztustalanabb az egészben, hogy a 8 éves laptopomon a mobility radeon 9700 simán tudja ezt a funkciót. A GTS540 is tudta...

    Egyébiránt: nekem volt ATI-m aztán lett Nvidiám, és most ismét ATI-m van. Mind a kettőnek vannak előnyei és hátrányai. Aki csak az egyiket képes éltetni, és a másika fikázza, az sztem nem normális.

    Ez most olyan, hogy Merci vagy BMW? Ízlés dolga. Én mindkettőnek látom előnyét és hátrányát is, és ha egy klikkeléssel lehetne váltani közöttük én biza betenném mind a kettőt a gépembe, hogy ha az egyik szar, akkor a másik talán nem.


    Az minden esetre talán mond valamit, hogy a 450-ből kvára elegem lett, és azért váltottam vissza ATI-ra. Nem hibátlan, nem sokkal jobb, de talán egy picivel mégis. Most... Aztán fél év múlva lehet megfordul a dolog, és az ATI lesz bosszantóbb (számomra).

    Szóval sok szerencsét a vitához, gyilkoljátok le egymást, és aki utoljára életben marad, annak van igaza, és az a vidkari a legjobb.

    Én már leszoktam erről a baromságról, hogy valami éltessek, és mást meg fikázzak. Egyik márka sem hibátlan, mondhatnám azt is hogy ugyan olyan szarok, csak más fronton...

    Good Luck
  • 65.
    2011. 06. 18. 01:02
    gordon85 - Pont te voltál képes egy Asus reklámot bemásolni érvelés gyanánt. No comment... Amúgy vess már egy pillantást erre a szép kis táblázatra, és keresd ki belőle a szuper legkisebb i7-esedet, amelyiknél még a házon belüli i5-750 is jobb eredményeket ér el az összes játéktesztben, csak éppen feleannyiba került, mikor megjelent. De hát neked lehet magyarázni, az ilyen write only userek abban mérik a teljesítményt, hogy mennyibe került.

    Közben látom hogy írtál pár kommentet, amikkel a jóisten tudja, mire reagáltál, lehet kéne egy alkoholszonda a bejelentkezés gomb mellé.
  • 64.
    2011. 06. 18. 01:00
    HAHAHAHAHAH

    zord01 koszi az amd reklamot

    na errol ennyit.nincs mirol beszelni
  • 63.
    2011. 06. 18. 00:58
    Sziasztok!

    Igen végigírtam öt topikot, hátha nátha, és de igen, ráérek visszanézni.
    Egyébiránt ezt a gpu scaling-et én is megtaláltam, de hiába pipálom be, hogy engedélyezze, a három választási lehetőség inaktív marad, nem lehet választani.
    LG nem rulez...

    Azért köszi
  • 62.
    2011. 06. 18. 00:57
    nem ertem most mirol beszelsz.beakarod bizonyitani hogy az i7 procik gyengek vagy mi?loooooooooool
  • 61.
    2011. 06. 18. 00:57
    nem ertem most mirol beszelsz.beakarod bizonyitani hogy az i7 procik gyengek vagy mi?loooooooooool
  • 60.
    2011. 06. 18. 00:52
    gordon: mutass egy olyan játékot ami csak azért jobban megy mert x58as rendszer van alatta. Ja és ne 800*600as felbontással gyere, 1440*900, 1680*1050 vagy 1920*1200 mindegy, hogy intel vagy amd 4 magos van a gépben. (azért írtam 4 magot mert így nem lehet bele kötni, hogy ennek 4 magos kell így hülyeség amit írtam blabla).

    Amúgy belerakhatsz akár egy 6 magos intelt, semmivel sem fog jobban menni a játék, főleg ha még a 4 magot se használja ki

    Amúgy az, hogy a legerősebb, nem jelenti, hogy a legjobb is, mert kódolás, tervező programoknál, meg ilyen vackoknál jobb az x58as rendszer, de ez nem jelenti azt, hogy mindenhol így van.
  • 59.
    2011. 06. 18. 00:48
    Hat en olyan helyen dolgozom ahol latom mi a helyzet!Az most minegy hogy hol mert ugysem magyarorszag!
    Na szoval kb atlagban 3x annyi ati kartya kerul vissza tulmelegedes miatt mint nvidia!Tudom hogy ez mar regi nota nvidia vs ati de ez van!
    A szggatasok es alacsny fps az szerintem abbol fakad az atiknal hogy a driver-jeik xarok!De talan egy ev mulva jobbak lesznek mint az nvidia!
    Talan ha arra torekedne mindket ceg hogy ne egymassal versengjenek akkor jobb kartyak is kikerulnenek!Marmint megbizhatobbak!Es nem lennenek ilyen bakik mint gtx590 vagy az hd6990 a legmelegebb!
  • 58.
    2011. 06. 18. 00:48
    nem vitazok.1 eve a legerosebb alaplap volt az x58-as.sot meg mostis ottvan.szal sztem egyaltalan nem hulye aki ilyet vesz jatekra.barmelyik 4-6 magos amd csodat leveri a legkisebb i7-is nemcsak jatekban hanem barmilben.lol
  • 57.
    2011. 06. 18. 00:43
    Valamelyik oldalon voltak tesztek 4x 8x 16x pci-e 2.0-val és 4x és 16x között is 10% különbség volt max a 8x és 16x között 1-2%. Ha jól emlékszem 6970nel volt a teszt, innen kezdve a marketing szöveges vackokat felejtsd el.
    Az idézeteddel meg az a gond h a szandiban összesen 16x sávszél van, vagyis 4 vga esetén mindegyik 4x sebességgel megy csak.
  • 56.
    2011. 06. 18. 00:39
    terror

    idezek:
    Ez ideális az NVIDIA® GeForce SLITM és AMD® CrossFireXTM megoldásoknak, mivel az új alaplap könnyedén képes kezelni két utas SLI megoldást kettős PCI Express X16 kapcsolaton, míg a három utas SLI két PCI Express x8 és egy X16 kapcsolaton keresztül valósulhat meg. Ez a 3DMark06-ban végzett tesztek szerint, hasonló SLI konfiguráció esetén 26.4%-os teljesítménynövekedést jelent a hagyományos P67 lapkakészletre épülő alaplapokhoz képest. A CrossFireX esetében a P8P67 WS Revolution akár négy GPU-t is támogat PCI Express X8 kapcsolatokon, szemben a hagyományos alaplapokkal, melyek ehhez nem rendelkeznek elegendő sávszélességgel.

    ez p67 laprol szol de az x58 is vagja ugyan ezt.szal 26% a kulombseg.ha neked ez semmi akkor nincs mirol beszelni.lol

    eredeti forras:http://asus.web4.hu/cikk/a-p67-lapkakeszletre-epulo-alaplapok-kozt-az-asus-p8p67-ws-revolution-biztositja-a-legjobb-grafikus-teljesitmenyt
  • 55.
    2011. 06. 18. 00:38
    gordon: eleve ki az a hülye aki 1366ba fektet játékok miatt? nem esztelenül kell szórni a pénzt hanem normálisan össze kell válogatni az alkatrészeket. Pl: ha 2 ugyanolyan vga-t raknék a gépembe mint amilyen neked van semmivel sem mennének lassabban. Az alaplap+proci+ram párosom került annyiba, mint min a te procid és semmivel sem vagy vele előrébb
  • 54.
    2011. 06. 18. 00:30
    vegezetul:

    megnyugtataskeppen.a tavaly pont ilyenkor vasarolt (lentebb emlitett osszegert)corsair 1000wattos stb,stb gepem 200k korul tudnam kb eladni.szal folosleges pumpalni agyatlanul a penzt hardverre,mert semmi ertekallosaga es hatalmasakat lehet bukni.
    inkabb 60-70-ert :x360,ps3 rulez
  • 53.
    2011. 06. 18. 00:18
    Te meg ne szólíts fel senkit tájékozódásra. Az összes FX lapon X16-os slotok vannak, a többin oszlik csak x8-ra. Amúgy a tesztek szerint semmivel nem lassabb így sem, mert a sávszél nem bottleneck, és ez igaz az Intel 1155-ös és 1156-os lapjaira is. Inkább maradj már csendben, éppen eléggé bemutatkoztál már.
  • 52.
    2011. 06. 18. 00:16
    Zolti77

    latom hemzsegnek itt a pro pc guruk.
    az x58 lapok (ha jobban tajekozott lennel)a PCI Express slotjai 16x-ak.szal nem csak a pci 1 hanem a tobbi is megy egyszerre 16x-ba.

    magyarra leforditva :cf-be vagy sli-be sokkal gyorsabb ez a lap mint egy elozo generacios vagy amd-lap.ott 8x mennek a cf-ek amik jelentosen lassitjak az egeszet.
  • 51.
    2011. 06. 18. 00:06
    Ez az a típusú fickó, aki a méregdrága processzorát egy sok éves vashoz hasonlítja, és örül, hogy gyorsabb. TÉÉÉNYLEG gyorsabb? Naaaaa neeeee. Ez biztos csak véletlen lehet, hisz arról szól ez az iparág, hogy egyre lassabb processzorokat gyártsanak. Komolyan, mellékelhetnének a retail Intel cooler mellé valami retail nervous system bónuszt is.
  • 50.
    2011. 06. 18. 00:02
    gordon85 azért te sem vagy semmi emberke 55ezerért alaplap 2 VGA gondolom faja procival és mertél pénzhiányra hivatkozni lentebbi hozzászólásodban.... ráadásul a legszarabb párosítással az alaplap a VGA-hoz gondolom bementél a kereskedőhöz az meg rábeszélt valamire amit a kutya nem vitt el tőle...
    sokkal jobb alaplap is van sokkal olcsóbban CF-re föleg ha nem intel vagy VIA pláne radeonhoz
  • 49.
    2011. 06. 17. 23:53
    az aszonynak 1 amd-je van (a kepen jobbra).amikor gepezik,neha rapillantok mit csinal, es jokat mosolygok rajta milyen leveltetu az a gepmentsege a sulinetes gepenek hogy egy geforce 9600gt szive dobog benne.kb 20x gyorsabb az intelem.netezesen,youtubon kivul nem sok mindenre jo.talan meg a cod2 elzotyogne rajta lego felbontasba (800x600) low bealitasokkal
  • 48.
    2011. 06. 17. 23:33
    tibi27 - Mit? Hogy a Microsoft Visual C++ installere nem tudja frissíteni önmagát? Vagy hogy a monitor rosszul skálázza a képet? Vagy hogy a fószernek a Win újrainstallálása után minden kóser volt a driverrel, csak előtte összeszarta a rendszert valamivel? Arról persze hogy nem írnak, mert ahhoz az AMD-nek semmi köze. Természetesen gondok nV-vel soha nem fordulhatnak elő.
  • 47.
    2011. 06. 17. 23:27
    gordon 540k huf...te se tudod mi kell neked, megvetted eleted legnagyobb hulyeseget az x58ud5 gigabyte-al. Jah hogy az intel csak nvidiaval megy jol...
    Inkabb tanultal volna tobbet...amugy meg nem 2x6870 vettel volna hanem inkabb 6970-et. Mert aki fel hogy elesik az nem megy a jegre. Teged valaki jol megszivatott es most magyarazkodsz.
    Ilyen alapon ne vegyel gtx570 mert nem futi a hazat, az gtx580 sokkal jobb, az asszonyt se zavarja ha ejjel leloki a rucit mikor alszik...
  • 46.
    2011. 06. 17. 23:20
    Ez különben tényleg baromi érdekes hogy a tesztelőknél egyszer se irnak olyan hibákról mint ami itt van[LINK]vagy[LINK]
  • 45.
    2011. 06. 17. 23:13


    oksa , amúgy komolya ház - belső is az lesz reméljük ...
  • 44.
    2011. 06. 17. 23:05
    hat lol.tavaly nyarton vettem a gepem brutto 540k-ert.szal a gigabyte x58a ud5 alaplap elrendezese nemhiszem hogy rossz lenne.a cf kabel korlatolt hossza miatt es a vga merete miatt (altalaban 2 slotot foglal)az elso es a harmadik slotba dofheted csak a kartyat.hat en mar nem kapom le az oldalat a gepemnek plane hogy 9 orat dolgoztam es az aszony is alszik.majd holnap fenykepezek 1-et a kedvedert te kis hitetlen.
  • 43.
    2011. 06. 17. 22:57
    gordon85 - 2011-06-17 22:19:55

    Ezt most komolyan gondoltad ?

    Nem a külseje éredekel sem engem sem mást ... A belső , amiről beszélsz a 2db ATI CF-be szal egy belső kép - mertem gondolni, hogy nagyon egyértelmű volt
  • 42.
    2011. 06. 17. 22:52
    gordon: egymást melegítik a kártyák, na most nv oldalon, akkor még rosszabb lesz, mivel nagyobb fogyasztása és több hőtermelése van. Az meg nem az amd hibája, hogy szar elrendezésű alaplapod van, ahol nincs hely a 2 vga közt. Amúgy volt ati és nv kártyám is a sok év alatt, és az a tapasztalatom, hogy nv-nél is nagyon sok bug van, 6 hónapja amd kártyám van és eddig nem volt driver gondom. Amit még sokan felszoktak hozni, hogy amd-nél az újabb driverekkel szarabbul mennek a régebbi vga-k, én nv-nél tapasztaltam bad company 2-vel, hogy eleinte 1680*1050ben medium grafikával vígan ment, ahogy frissültek a driverek a végén már 1280*800 full lowon is akadt, ennyit a nagy nv driverekről.
  • 41.
    2011. 06. 17. 22:52
    Kiváncsiságból mi az a kettő kártya amivel nem vagy megelégedve és milyen lapba van?
  • 40.
    2011. 06. 17. 22:42
    Inkább mondd meg nekem, hogy mennyi 48:2(9+3).

    Pénzhiány miatt Crossfire... És a gazdasági válság miatt Ferrari helyett Mercedes, nem?
  • 39.
    2011. 06. 17. 22:42
    tapasztalatom szerint radeont az vesz aki olcson meg akarja uszni.tobb codos haver vallomasai alapjan.aki megteheti sosem fog radeont venni hanem nvidiat+intelt.en is penzhiany miatt hasznaltam cf-et,de most valtok egy gtx 570-re.
  • 38.
    2011. 06. 17. 22:34
    hat te aztan pro vga teszter lehetsz az eroltetett hozza szolasaiddal.
  • 37.
    2011. 06. 17. 22:29
    A tudatlanság idillikus állapot, a hülyeség meggyőződéssel történő hangoztatásához.
  • 36.
    2011. 06. 17. 22:29
    Nekem még egyetlen egyszer sem volt 7 év alatt. Hogy van ez?
  • 35.
    2011. 06. 17. 22:19
  • 34.
    2011. 06. 17. 22:16
    Nyolc év után tértem át nV-ről Ati-ra, és hirtelen megszűntek az eltünedező textúrák, hiányzó, ki nem rajzolt objektumok, artifactok a képen, és azóta elégedett vagyok. Textúraátszakadás... egészségedre. Ja, és azóta ilyet sem látok:


  • 33.
    2011. 06. 17. 22:15
    Olyan emberekel vitázol akik nap mint nap látnak piros meg zöld kártyákat, mind kettőnek vannak hibái, nem kell azért az atit hibáztani mert neked nem felelt meg!

    Szépen veszel zöld kártyát kitapsztalod és rájösz hogy neki is vannak hibái.
    Nézzél be akár melyik oldalol nvidai tropikba meglátod menyi hibája van neki is!
  • 32.
    2011. 06. 17. 22:15
    Tudjátok mit néznék meg??? Hogy a GTX 460 815 MHZ-es órajelen mit produkál ezekben a tesztekben... nekem ugye Gigabyte GTX 460 SOC van ami 815 megy.. szóval lehet ott lenne ahol egy alap gtx 560..
  • 31.
    2011. 06. 17. 22:11
    gordon85 2011-06-17 21:55:33

    Gondolom most egy kép - akár telefonnal is - nem akadály , hogy lássuk azt a gépet
    Ami annyirán nem tetszik már 1 éve ...
  • 30.
    2011. 06. 17. 22:09
    lol.nemigen fog sirni a szam.elarasztjak a piacot az olcso silany minosegu kartyakkal a pirosak.amennyivel olcsobb es gyorsabb annal hamarabb megis adja magat,nem beszelve a driver problemakkal.textura atszakadas stb..stb..nezz mar meg egy zold kartyat sosem fogsz olyat latni.
  • 29.
    2011. 06. 17. 22:06
    nvidianal sosem talalkoztam meg driver gondokkal
    Majd fogsz, tiz év ati-zás után.
  • 28.
    2011. 06. 17. 22:03
    Nyugottan válts nvidára de után ne sirjon a szád hogy az még rosszabb!

    Ha nvidiába driver hibába futsz akkor már késő, mert füstől is a vga és nem graiztassák mert oda kozmált!
  • 27.
    2011. 06. 17. 22:00
    ja a tesztelok lefuttatnak egy 1 oras tesztet.hasznald mar huzamosabb ideig pl 1 even keresztul es majd akkor nyilatkozz az ugyben.kosz
  • 26.
    2011. 06. 17. 21:59
    ja a cf bugok attol vannak hogy 1 normalis drivert nem birnak 10 eve osszedobni erre a sz.... soha tobbe radeon!3x adtam eselyt de meg mindig ugyanabba a gyerekbetegsegbe szenved az ati.nvidianal sosem talalkoztam meg driver gondokkal.
  • 25.
    2011. 06. 17. 21:59
    Azért az érdekes, hogy a tesztelőknél soha nem megy szarul, csak nálad. Meg melegítik egymást. Természetesen két, magasabb tdp-jű nV kártya nem fogja melegíteni egymást, mert azok olyanok.
  • 24.
    2011. 06. 17. 21:55
    a Crossfire hatékonyságrol annyit hogy x58 alaplapom van,1eve tolom 2db radeon kartyaval cf-be es valami borzalom.bugos,kiforratlan,megbizhatatlan remalom.senkinek nem ajanlom.fogyasztas duplaja,melegitik egymast a kartyak egy hatalmas,szellos Inwin Maelstrom hazban 5 venti melett.teljesitmenytol sem vagyok elajulva,a rengeteg bug es fagyasrol nemis beszelve.adom is el es valtok nvidiara.
  • 23.
    2011. 06. 17. 21:34
    Amúgy itt egy remek kis teszt a témában:

    [LINK]

    Gyorsabb, kevesebbet fogyaszt. Tudom, neked az nem számít, mert így is jobb vétel, hiszen zöld.
  • 22.
    2011. 06. 17. 21:13
    De akkor akár azt is megemlíthetnéd, hogy miért legalább ennyivel drágább az 1280 MB-os GTX570 a 2 GB-os HD6970-nél, mikor a különbség köztük pont annyi, mint az 560Ti és 6950 között (és még mindig kevesebbet fogyaszt). Felső kategóriának egy ideje a többkártyás rendszereket hívják, a Crossfire hatékonysága nagyságrendekkel nagyobb, mint az SLI-é, szóval az AMD megint jobb választás. Azért ne trollkodj fejjel neki a falnak.
  • 21.
    2011. 06. 17. 20:56
    Miért emeli ki mindenki hogy Eyefinity??? mint ha az akkora előny lenne. Kinek van otthon 2-nél több monitorja? Szerintem ez nem döntő a felhasználók 98%-ánál, bár a dobozon jól mutat hogy jobb mint az nV. Fogyasztás, meg 30-50W a különbség (pár °C), ha a táp nem bírja el akkor valóban döntő lehet, de hogy a villany számlában nem fogod látni az biztos, főleg hogy alapjáraton nincs különbség, csak terheléskor.

    560Ti szint felett az ATI meg nem olcsóbb. 560Ti=6950 és az árak meg 49.572 és 53.700 akkor melyiket éri meg jobba? Amellett hogy olcsóbb az nVidia még ott van a CUDA és PhysX. Fogyasztásba meg 218W (nV) 182W (AMD) 36W a különbség ami meg semmi.
    Így a felső kategóriában még mindig az nV a jobb.
  • 20.
    2011. 06. 17. 20:41
    Azért ha kicsit is utánna nézel / néznél , máris láthatod , hogy nem éppen úgy van az nem véletlen húztam el a választási időt ... és minden jó mellett még játékra is bőven alkalmas !
  • 19.
    2011. 06. 17. 20:37
    Az term. 5770 akart lenni sry !
  • 18.
    2011. 06. 17. 20:35
    Kit érdekel hogy népszerűbb vagy népszerűtlenebb az 5830 mint az 5777? Az 5830 olcsóbb és gyorsabb is (10-15%), szóval akinek van egy pici kis agya az ebben az árkategóriában (25-30e Ft) nem vesz másik videokártyát!
  • 17.
    2011. 06. 17. 20:24
    Hát ez a 6790 ilyen 5830 utód lett.
  • 16.
    2011. 06. 17. 20:24
    Végigírt vagy öt topicot ugyanazzal, és még mailben is válaszoljunk, mert nem ér rá visszanézni.
  • 15.
    2011. 06. 17. 20:20
    Terror már megszoktam ilyenek! Birom a jó kemény beszolásait!
  • 14.
    2011. 06. 17. 19:19
    azóta mióta 25K azt olcsóbb mint az 5770.

    Terror, na, szerényebben már
  • 13.
    2011. 06. 17. 19:08
    Naálam a my digital flat panels-ben van, gpu scalinget kell keresni. De nem használom, mert a monitor automatán vált (Samsung rules).

    (A mailcímedet felirattam a melegparkereso.hu-ra)
  • 12.
    2011. 06. 17. 19:03
    Bocsi a duplázásért, nem értem néha elsőre nem küldi el a cikket, ha meg duplán kattintok az elküldre, néha dupláz...
  • 11.
    2011. 06. 17. 19:02
    Sziasztok!

    Egy nagy segítséget szeretnék kérni, bár elég offtopic kérdés.
    Vettem egy új ATI (MSI R6850-es) videókártyát, de az új catalyst agyon van variálva.

    Régen tudott egy olyan funkciót, hogy csak a tényleges felbontást jelenítette meg a képernyőn. Nem húzta szét a képet.
    NEM TUDJA VALAKI, HOGY HOL VAN EZ A BEÁLLÍTÁS???????????????

    A poroblámám abból adódik hogy egy nagyon régi játékkal játszok, aminek a max felbontása 1024*768.
    De a szemét kis szoftver kiteszi az egész játékot 1920*1080-ba. Torzít és pixeles.
    Sokkal jobba lenne, ha nem tenni át 1920*1080-ban, hanem csak a tényleges felbontást jelenítené meg a monitoron.
    Légyszi aki tudja hogy lehet ezt bállítani (2 órája keresem és nem találom ezt a beállítást) az írja már meg a zord01@freemail.hu-ra
    Előre is köszi!!!!!!!
  • 10.
    2011. 06. 17. 19:02
    Sziasztok!

    Egy nagy segítséget szeretnék kérni, bár elég offtopic kérdés.
    Vettem egy új ATI (MSI R6850-es) videókártyát, de az új catalyst agyon van variálva.

    Régen tudott egy olyan funkciót, hogy csak a tényleges felbontást jelenítette meg a képernyőn. Nem húzta szét a képet.
    NEM TUDJA VALAKI, HOGY HOL VAN EZ A BEÁLLÍTÁS???????????????

    A poroblámám abból adódik hogy egy nagyon régi játékkal játszok, aminek a max felbontása 1024*768.
    De a szemét kis szoftver kiteszi az egész játékot 1920*1080-ba. Torzít és pixeles.
    Sokkal jobba lenne, ha nem tenni át 1920*1080-ban, hanem csak a tényleges felbontást jelenítené meg a monitoron.
    Légyszi aki tudja hogy lehet ezt bállítani (2 órája keresem és nem találom ezt a beállítást) az írja már meg a zord01@freemail.hu-ra
    Előre is köszi!!!!!!!
  • 9.
    2011. 06. 17. 18:58
    Mindezen karik tesztje egy AMD-s konfigban is szívesen megnézném ... Azt a kettő átlagából venni a végeredményt ez így nem mérvadó szememben ... Mondjuk egy : Phenom II X6 1100T 3.30GHz procival .
    De látom Sapphire HD6790 jól veri GTX550TI -t - jó kis kártyám van 31,5K-ért
  • 8.
    2011. 06. 17. 18:33
    6850-es shader órajele megszaladt egy plusz nullával a végén...
  • 7.
    2011. 06. 17. 18:30
    Már boccs, de 5830 mióta népszerű?
  • 6.
    2011. 06. 17. 18:16
    A népszerű 5830 sose szerepel a tesztekben.... Mindig 5770. De a teszt nagyon jó lett.
  • 5.
    2011. 06. 17. 18:08
    -nem
  • 4.
    2011. 06. 17. 18:07
    3 hete vettem egy 560ti-t így a tesztet látva sem nem bántam meg
  • 3.
    2011. 06. 17. 17:08
    ha már videókártya teszt, akkor techpowerup. Persze köszönjük ezt a tesztet is, minnl több, annál jobb
  • 2.
    2011. 06. 17. 17:01
    (Hm, ha le van mérve a fogyasztás, és az árak is adottak, az összegzésnél jó mutatna egy teljesítmény/fogyasztás és teljesítmény/ár mutató is)
  • 1.
    2011. 06. 17. 16:48
    1x-re 2db kártyát teszteltek! Nem semmi! De legalább ezek is megvoltak, igaz elég nagy késéssel de meg!