Kosár

A kosár jelenleg üres

Bejelentkezés &
Regisztráció

Jelenleg nincs belépve.

Válassza ki az oldal nyelvét

TERMÉKEINK

iPon FÓRUM

iPon Cikkek

Cayman akcióban: HD6900-asok

  • Dátum | 2010.12.23 14:20
  • Szerző | Svindler
  • Csoport | MEGJELENÍTÉS

Szép lassan ez az év is véget ér, de hogy a hátra lévő napokban se unatkozzunk, az AMD gyorsan elénk tolta az eddigi legerősebb egy GPU-val szerelt VGA-it. A mérnökök semmit sem bíztak a véletlenre és a HD6900-as sorozat chipjeiben nem spóroltak a tranzisztorokkal: körülbelül 2.6 milliárd található a Caymanban, ami már eléggé közelít a GF1x0 3 milliárdjához. Az igazsághoz hozzátartozik, hogy egyik cég sem így képzelte az év zárását, de nagy kedvencük, aki tavaly is megtréfálta őket, újfent okozott meglepetéseket. A TSMC ugyanis búcsút intett a 32nm-es gyártástechnológiának, így a riválisok kénytelenek mindent kihozni a 40nm-esből, amíg a félvezetőkkel foglalkozó gyártó óriás át nem áll a 28nm-es technológiára. Az erősen kérdéses, hogy ez mikor fog bekövetkezni, úgyhogy lássuk, hogy miből élünk, mi lesz abból, ha az AMD nagyobb chipet tervez, és még az architektúrát is piszkálja.

Cayman alias HD69x0

A Cayman nem egy HD5000-es Radeon amibe még több shadert pakoltak, már az alapjait is megpiszkálták. Azért revolúcióra nem kell gondolni, most is kicsi, de hasznos léptekben haladunk előre, nézzük meg együtt, hogy mik ezek.



Aki látta anno a Cypress (HD58x0) vagy a Barts (HD68x0) ábráját, annak ismerős lehet a fenti kép, de a szemfülesek azonnal kiszúrhatják rajta az első komoly változtatást, amire régóta várunk: két teljes értékű Graphics engine van. Mit is jelent ez tömören? Csak hogy a legfontosabbakat emeljük ki, két tesszelátort, amik már a Bartsban bemutatott fejlettebb változatok és két háromszög feldolgozását órajelenként. Geometriában a GF110 még így is erősebb, de már jóval kevesebb az esély arra, hogy ez limitálja a Radeont. Természetesen megnéztük, hogy mit ér ez a duplázás a gyakorlatban, de egyelőre maradjunk az architektúránál, mert az tartogat még meglepetéseket, haladjunk hát szépen lefelé. Akárcsak a Barts-ban, most is két szálkezelő került a GPU-ba, amik dirigálnak a SIMD shader processzoroknak, amikből ezúttal 2*12 található a chipen. Mindegyikben 16 stream processzor dolgozik, amik négy-négy ALU-val (végrehajtó egységgel) rendelkeznek. A 2007-ben megjelent 2900XT óta a Radeonok stream processzorai öt ALU-val dolgoztak, ezekből négy végezte az egyszerű műveleteket, míg az ötödik speciális műveletekért felelt. Egy stream processzor csak egy parancsot kaphatott órajelenként, így az ALU-k vezérlését egy VLIW parancsszóval oldották meg (Very Long Instruction Word – Nagyon Hosszú Parancsszó), ami tartalmazta mind az öt végrehajtó egységhez a végrehajtandó feladatokat. Ez csak azért volt problémás, mert nehéz volt olyan VLIW mintákat készíteni, amik biztosították az optimális kihasználtságot, izzadhattak hát a szoftvermérnökök is. Biztos sokan emlékeznek még arra, hogy anno mennyire érdemes volt mindig feltelepíteni a legfrissebb drivert, mert néha bizony nem kis teljesítménytöbbletet hordozott. A Cayman szakít az eddigi hagyományokkal és kukázza az ötödik, speciális ALU-t, marad négy darab egy stream processzorban, azok négyen viszont bármilyen utasítást végrehajtanak.



A fenti képen az látszik, hogy egy órajel alatt mire képes a stream processzor. A változás miatt ráadásul biztosítani a maximális kihasználtságot, így az AMD becslése szerint ugyanannyi ALU esetén körülbelül +10% sebességgel számolhatunk. Valószínűleg most sokan gondolkodóba esnek, hogy ez így teljesen logikus, akkor miért kellett erőltetni az eddigi formulát? A kérdésre egy másik kérdés a válasz: mire akarjuk használni a GPU-t? Az AMD mérnökei anno nem véletlenül hozták létre az 5 ALU-s architektúrát, mert a válasz a kérdésre egyértelműen az volt, hogy grafikára. Ebben az esetben megfelelő kihasználtság mellett (a driverek már nagyon régóta jók) kevesebb tranzisztorból meg lehet úszni ugyanannyi végrehajtó egységet, hiszen ötből négy csak alapműveletekkel foglalkozik. De mi van akkor, ha már a GPGPU felhasználás felé kacsintgatunk? Az esetek nagy részében a chip egy igen komoly része kihasználatlan maradna. Miért lépett az AMD arra az útra, amin az nVidia már majdnem eltaknyolt egyszer? A gamer magyarázat az lehetne a kérdésre, hogy most, hogy van DirectCompute és OpenCL, egyre több dolgot fog átvenni a GPU a CPU válláról, nem árt az, ha minél jobban képes teljesíteni az adott feladatot. Valószínűleg ez is szerepet játszott a döntésben, de talán még fontosabb az a tény, hogy a HPC piacról az nVidia Teslái igen szép szeletet hasítottak ki. A GF100 is Teslaként tombol igazán, sok extrát kapott, ami a játékosoknak teljesen felesleges. Az AMD most felvette a kesztyűt, ezt bizonyítja az is, hogy a memóriavezérlő ECC támogatást kapott (a belső cache-ek még nem védettek), és a 4 ALU-s (VLIW4) architektúra a jobb kihasználtság mellett magasabb teljesítményt is nyújt 64 bites lebegőpontos számok esetén, mert a 32 biteshez képest nem az ötödére esik vissza a feldolgozási sebesség, csak a negyedére.

Ami még érdekes lehet, hogy a Caymanban „csak” 1536 ALU (vagy shader, kinek hogy tetszik) található mikor már a Cypressben is 1600 volt. A fentiek miatt ez nem probléma, a jobb ütemezés biztosítja a jobb kihasználtságot, és egy kicsit az órejelet is megemelték. Pár hónapja még olyan pletykákat olvashattunk, hogy 1920 shader lesz a 6900-asokban. A források már valószínűleg tudták, hogy 24 tömbben lesznek a shaderek, de azt nem, hogy architektúra váltás lesz. 24*16*4=1536, míg 24*16*5=1920.

Hozzászólások

Nem vagy bejelentkezve, a hozzászóláshoz regisztrálj vagy lépj be!

Eddigi hozzászólások:

  • 165.
    2011. 03. 02. 20:08
    Hoppsza - 165 HSz , ez nem semmi megint
  • 164.
    2011. 02. 03. 18:23
    550W a konnektorból mért fogyasztás ez egyértelmű...VX 550-em lazán viszi a ma kapható legtöbbet fogyasztó vga-t,a mi nem más, mint egy HD 4870 X2, lassan 1 éve...röhögve vinné bármelyik tesztelt kártyát...csak, h tiszta legyen a dolog...
  • 163.
    2010. 12. 30. 13:27
    Szó mi szó a 6990 csúcskártya lesz. Én kb a 6970 fölé saccolom 60%-al alapon, és persze saját felelősségre rommá lehet majd tuningolni (mert ugye csak az oemek paráznak a nagy fogyasztástól). És ezzel máris véghezvitte a küldetését, mert a 28nm-es chipek eljöttéig egy diszkrét kártyának sem lesz esélye befogni. Csupán ennyi a cél, a hírnév...
  • 162.
    2010. 12. 30. 00:04

    Igen ,és éppen ezért lesz nagyon alkalmazás függö, és eltérő a teljesitmény ,a kölönböző mértékben terhelő cimeknél.
  • 161.
    2010. 12. 29. 23:53
    Az egyik nagyobbra (teljesítményre), a másik arányosan kisebbre (ráadásul ez folyamatosan változik terhelés függvényében), az csak a crossfire nem működése esetén lesz előny, hogy az egyik GPU-t jobban terhelheti a kártya mint az alap 6970-et.
  • 160.
    2010. 12. 29. 23:50
    Ezt még csak találgatjuk, de a duplázás az lehetetlen lesz szerintem, bármenyire is a CFX-re fejlesztett az AMD.Ha abból indulunk ki menyivel gyorsabb a félkész 6970,ha 70? az 5870 től és annyit feltételezünk az 5970<*>6990 viszonylatban is, + az ott már megszünő GPU-kénti 1GB memória limitet, akkor nagyjából az jön ki amit irtam is korábban.De biztos vagyok benne ,hogy Te is olvastad odaát a 6990-be beépitendő, két asszimetrikus, csipről szóló feltevéseket, melyekből az elsődleges jóval nagyobb teljesitményre lesz képes a power tune okán mint egy sima 6970?-es.
  • 159.
    2010. 12. 29. 23:39
    Oda ahova az Nv tervez,és ahonnan a nagy haszna van, ahol a Teslák, és a Quadro-k aratnak, ott nem játszik a kétchipes megoldás. Ennyi ennek az egésznek a titka. Egyébként a Cayman sem lett olyan kicsi. Ha azt nézzük hogy az 5970-esen 4Mrd tranzisztor van, az 580-ason meg 3Mrd, akkor az a teljesítmény/magméret grafikon sem feltétlen az AMD oldalára billentené a mérleget. 6990-ben pedig 5,6 milliárd tranzisztor lesz, de lesz dupla olyan gyors mint a GF110?
  • 158.
    2010. 12. 29. 23:29
    Hozzáértők, elemzők, szerint a játékos piacra gyártott, és eladott VGA-kon nincs nagy haszon ,sőt alig van valami.Mondjuk ez az AMD rendszeres negyedéves pénzügyi beszámoloiból szépen ki is tünik.Nyereség a professzionális picra értékesitett termékekből képződik.Ez meg az Nvidia pénzügyi eredményein látszik.
  • 157.
    2010. 12. 29. 23:23
    már nem azért de végfelhasználónak nem teljesen tökmind1 a magméret?
    Ha egyszer a kisebb magméretű kártya is ugyanúgy melegedik, fogyaszt, teljesít, akkor nem tökmind1? Az előállítás meg azért nem jó érv, mert így is úgy is fillérekből állítják elő ezeket a kártyákat és 10szeres áron adják el őket.

    Itt javítsatok ki ha tévedek:
    Legyen addot A és B chip. Mindkettő ugyanannyit fogyaszt, mondjuk 300 Wattot. A kétszer akkora, mint B. Ekkor A-t könnyebb lehűteni, hisz kétszer akkora felületen ad le ugyanannyi hőenergiát, kétszer akkora felületen érintkezik a hűtővel. Ez lehet nagy hülyeség, de szerintem van ráció abban amit mondok
  • 156.
    2010. 12. 29. 23:02
    Mindketten , más okból, és céllal ugyan ,de jelentős összegeket tolnak a fejlesztésbe.
  • 155.
    2010. 12. 29. 22:52
    Ezzel nem azt akartam írni, hogy az NVidia nem fektet sok munkát, és pénzt a fejlesztésbe, csak más utakon jár mint az ATI
  • 154.
    2010. 12. 29. 22:49
    Kiskoller !

    Tegye az NVidia 1 nyákra a 2 Fermit, és mehet az összehasonlítás . Teljesen más utat jár az ATI, és az NVidia . Az NVidia már jói deje nagy monolitikus chip-eket csinál, és így növeli a teljesítményt. Hát így szerintem nem nehéz . Ez olyan, mintha az autóiparban úgy érnének el nagyobb teljesítményt, hogy egyre nagyobb motorokat tesznek az autókba. Nem nagy kihívás szerintem. Az ATI inkább az adott magméretből kihozható legnagyobb teljesítményt tartja szem előtt. Biztos hogy az ATI nagyon nagy energiát fektet a fejlesztésekbe. Nézd csak meg, a HD69**-es szériát, az HD58**-ashoz viszonyítva ! Kevesebb árnyaló, mégis nagyobb teljesítmény. De úgy is számolhatjuk a teljesítményt, hogy a nagy teszt végén kapott össz-teljesítmény értékét, minden kártyánál elosztjuk a magmérettel. HD6970 vs. GTX580 Egyből más lenne a kislány fekvése igaz ?!
  • 153.
    2010. 12. 29. 22:24
    No de gery ez több mint egy napos hir,.. valami frissebbet..?
  • 152.
    2010. 12. 29. 21:53
    ezt olvasátok ha annyira érdekel a 6990 és a 595 csatája! [LINK]
  • 151.
    2010. 12. 29. 21:48
    Ez ugynigy igaz a GF100 és klonjaira, is mindkét gyártót szivatta vele a TSMC.
  • 150.
    2010. 12. 29. 21:36
    - Teljesítményt miért ne hasonlítgassunk? Ugyanúgy 2 chip vs. 2 chip, és én máris okosabb lettem józsef m.-nek hála.
    - Kétlem hogy a GTX595 valaha is napvilágot fog látni.
    - Az AMD pont ugyanannyira szenved a fogyasztástól, mint a riválisa.
    - Következő gyártástechnológia messze van még, pár hsz-el feljebb pont ezt feszegettük.
  • 149.
    2010. 12. 29. 21:27
    A kényszermegoldást azért mondtam, mivel elméletileg 32 nanóra tervezték az egész HD9***-es szériát, csak mivel törölték , azért mondtam a "kényszert", mivel gondolom nem 40 nanóra tervezte anno az AMD. Ezért van gonba most a 300 Wattal
  • 148.
    2010. 12. 29. 20:26
    Az AMD-nek ez nem kényszer megoldás hanem az eredeti elképzelése.Már elég régen a két GPU-s modell az aktuális architektura csucskártyája, mint ahogy jelenleg is van ,az 5970-es képében, akár AMD ,akár abszolut értelemben.
  • 147.
    2010. 12. 29. 20:10
    Nekem van egy olyan megérzésem, hogy a 6990 azért késik ( lett később kiadva ), mert a gyártás folyamán, leválogatják azokat a tökéletes chip-eket, melyek a minél kisebb alap-feszen viszik a alap frekit. Szerintem így ( is ) tudják berugdosni a 300Wat-os határ alá.

    Más
    A GTX580 SLI-t meg ne hasonlítgassuk már a HD6990-el össze, mivel:
    1. Még ki sem jött a 6990
    2. A GTX580 SLI 2db kártya, a 6990 meg 1db lesz ( még ha 2db chip is van rajta )
    3. Majd a GTX595 -el kell összehasonlítani, de ez kétlem hogy manapság kijön, mivel a ATI-nak is húzós lesz összehozni a 300Watt miatt, nemhogy még az NVidia-nak.
    4. Az NVidia akkor fogja kihozni a GTX595-öt, ha a TSMC átáll 28 nanométerre, addig biztos hogy nem
    5. Ezért nem vennék 6990-et sem, mivel szerintem ez az AMD-nek egy kényszermegoldás, a GTX580 miatt, és a 300Wat-os limit miatt nem fogja tudni kifutni magát. El sem tudom képzelni milyen, és hány tápcsati lesz rajta, ha már a GTX460-asokra is 6+8 ast raknak ( lásd. Galaxi GTX460 cikk ), az meg igen csak egy középkategóriás 1 Chip-es kártya. Úgyhogy aki csúcs teljesítményre vágyik, várjon még jó pár hónapot, a 28 nanométeres HD6995-re ( lehet hogy ez lesz a neve ), vagy a GTX595-re
  • 146.
    2010. 12. 29. 19:20
    igen azért egy 5870-t én se most cserélnék le
  • 145.
    2010. 12. 29. 18:37
    Sülni azért ne süljön .., mondjuk csak a kiváncsiság hajt, mert mint vétel a 6990 indiferens számomra.Viszont ha jóárasitja a kisebb tesókat, a 2 giga memória miatt érdekelne az eyefinityhez, valamelyikük.
  • 144.
    2010. 12. 29. 18:31
    nah majd meglátjuk, mi sűl ki ebből.
  • 143.
    2010. 12. 29. 18:06
    Már korábban is irtam erről ,miszerint ezt a chipet /69xx/ solóban, direkt beáldozták a későbbi dual beépités lehetősége érdekében, van róla leirás ahol a takarékos modot tesztelik melyben jóval 200W alá csökken a fogyasztása, a teljesitménye pedig nem romlik számottevően/6950/.Azon kivül más trükk is lesz benne de erről nyilván olvastál a másik oldalon
  • 142.
    2010. 12. 29. 17:52
    Ennek mondjuk én örülök a legjobban, hisz 6850 CF-et tervezek magamnak. (Eleinte 5770 volt a tervben, de engem is meglepett a 6os széria CF-e) Ellenben kétlem, hogy a 6990 a 6950 CF teljesítményét hozná, hisz sokkal többet fogyaszt annál, inkább a 6870 CF teljesítménye várható, Így még mindig kétséges, hogy sikerül-e az amit mondtál.
  • 141.
    2010. 12. 29. 17:40
    Változott a véleményük November 9, 2010 óta és ott az SLI itt meg az AMD CF a téma:
    I have to admit I was a little surprised by the excellent performance scaling we see on the R6950. Where the single card is a little so-so to position, we can surely recommend going the CrossfireX route. Granted, two cards will set you back a chunk load of money at roughly 550 EUR, but the performance gained here is truly amazing.

    ATI's, or I should say AMDs driver team has done a tremendous job ever since the series 5000 release to get games supported in multi-GPU mode. Last week they announced that every week a new Application Profile Patch will be released, so if a new game is out, within a week you'll have support for it (at least according to AMD). It's that kind of dedication we like to see very much.

    Now make no mistake, once you pass a single GPU configuration there's bound to be some sort of issue at one frame in time. A game that is not properly multi-GPU supported or some weird anomalies. This happens period, it's the choice you make with multi-GPU setups. Stretching it even further with 3 or 4 GPUs and things typically get way more complicated than fun. keep that in mind, always.

    That said, we have had no issues whatsoever with the titles tested today. And sure, AMD makes sure to check up on sites like Guru3D to make sure our test-suite is well supported in their drivers. But the overall experience was pretty darn good. In fact ever since the 6800 releases a while ago we feel that AMD is making tremendous steps with their multi-GPU support, and today's article is a testimony to that.
    Radeon HD 6850 CrossfireX What you gain with a setup like this is truly massive gaming performance, any game at any resolution at up-to 8xAA will runs smooth as heck, it's that simple. Where this setup might really help though is of course Eyefinity. Multiple monitor setups can be a huge strain on the GPU as they need to poop out more pixels of course.

    Overall we very much liked what we tested. The performance is really good, the R6950 in CrossfireX for whatever reason just seems to make so more sense then the one single card. Two cards close to each other in your chassis under heavy stress produce a lot, seriously a lot of noise, keep that in mind.

    Massive thanks go out to Gigabyte for shipping out the 2nd R6950. The Gigabyte card is tagged under SKU code GV-R695D5-2GD and can be spotted in the stores at roughly 269 EUR. An excellent product which we had no issues with whatsoever.

    That said, what you have seen in terms of performance today will likely also be very similar to the upcoming Antilles release from AMD, a card that for now we'll name Radeon HD 6990, and that surly promises a lot.


    By: Hilbert Hagedoorn | Edited by Eddie | Published: December 16, 2010
  • 140.
    2010. 12. 29. 17:35
    itt van még egy példa:

    GTX580 SLI: 65 FPS

    HD5970: 34 FPS

    Ez majdnem dupla akkora teljesítmény. Jelen helyzetben ugyan csak FullHD felbontás volt, de ahogy látod ezen felbontáson is rendesen le voltak terhelve a GPU-k, így megint csak láthattuk az 580 SLI teljesítményét. Hacsak nem fog a felsőkategóriában is duplázni az AMD, nem fogja kis hiján sem befogni 1 HD6990 a GTX 580-at. Ez viszont azért lenne isteni csoda, mert a HD5970 és a HD6990 ugyanazon csíkszélességen készült, és a HD5970 is fogyasztás gondokkal küzdött (Innen ered a hatalmas tuningpotenciálja, amivel lazán elérhetjük a 400W-os fogyasztást is) Ergo az egyetlen lehetőséget arra, hogy teljesítménybeli növekedést észleljünk, az az architektúra megváltoztatása adhatja.
  • 139.
    2010. 12. 29. 17:22
    Furcsa, hogy pont a guru3D grafikonját mutatod, hisz ők pont azonos vleményen vannak velem. De hogy ne csak a levegőbe beszéljek, itt van 2 grafikonjuk. Mind2 EZEN a linken megtalálható:
    itt nem látszik jelentős növekedés a +1db gtx580 hatására, 62ről 90 fps, ez +50%.
    Itt viszont ha emgnézzük az utolsó helyet, a bizonyos 2560x1600-at, itt 24ről 42re növekedett, ami 75% növekedés. Ahogy mondtam, ahol _számít_ a plussz teljesítmény, pl itt, ahol csak 24 FPS-t hozott össze az 1 kártya, ott nagy mértékü növekedés tapasztalható.
    A CPU limitre érv:
    idézem a Guru3D-től:
    "This article is not different, with the one exception that we have so much graphics horsepower under the hood that we far more quickly run into a CPU bottleneck (the state where the GPUs are waiting on the CPU to provide data). Though that might seem bothersome, it really is luxury problem to have."
  • 138.
    2010. 12. 29. 17:06
    Van valahol de most nem találom, a proci limitre, meg ennyit:



    A nagyobb felbontás pedig rendre a Radeonok terepe
  • 137.
    2010. 12. 29. 16:47
    1. FullHD felbontást mutatsz. Ekkora felbontáson CPU-limit van, nem vitás
    2. Összteljesítményt mutatni értelmetlen, hisz ilyenkor fogsz 20 játékot, amiből 17 1db GTX580on vígan elfut 60 FPS-el, így az SLI ha +100% ha +1%-ok mutat, irreveláns.
    Ahogy a teszteket olvasgattam, a GTX580 SLI ott domborít igazán, ahol a GTX580 már kevés, pl Crysis Warhead 2560as felbontás, DX10, Enth beállítás, 4x AA, esetleg Metro, ugyancsak 2560as felbontás, DX11, 2xAA. Ahol a GTX580 egyedül vagy 100 FPS-t produkál, ott egyrészt fölösleges a plussz kakaó, másrészt CPU limit van. Egyedül a nagy felbontásokon, vagy több monitoron, vagy 3D-ben van értelme az SLInek, ugyanis azok a helyzetek, amikor a GPU extrém módon van terhelve, így nem alakul ki CPU limit.
  • 136.
    2010. 12. 29. 16:33
    Kevés hiján a GTX 580SLI teljesitményénnel:



    Igy teljesit egy 5970-hez képest! Ez se tul sok!
  • 135.
    2010. 12. 29. 16:23
    Mindenki a 6990-től várja a megváltást. GTX580 SLI teljesítménnyel, azért ez még egy AMD fantól is erős túlzás. Egyszerűen 300W adott és kész. Akárhogy csűrik csavarják ezt az architektúrát, ezen a csíkszélességen ne várj megváltás
  • 134.
    2010. 12. 28. 17:17
    No most meg leszek kövezve

    Ha felébrednek biztos!
    Egyébként meg olyan mindegy hogy akarták optimalizálni, addigra kijön a 6990-es és tehetik a kirakatba minden mesterkedésüket, kishiján egy SLI GTX-580 teljesitménnyel várható.
  • 133.
    2010. 12. 28. 17:10
    1.
    A Crysis 2 lehet hogy nem azért késik, mert a GTX5..-ra optimalizálják, hanem mert lehet hogy már futtattak rajtuk egy-két ( persze az ATI-n is ) béta tesztet ( ha márciusra ígérték, gondolom már van működő része a proginak ), és olyan sz.r eredményeket kapott az ATI-hoz képest, hogy így nem merik kiadni ( No most meg leszek kövezve )

    2.
    A 6950-6970 módolással kapcsolatban, pedig az a véleményem, hogy amíg normális sebességen elfutnak rajta az új játékok ( min. 30fps ), addig nem b.sztatnám. Aztán kb. 1-1.5 év múlva, mikor már felét sem éri a kártya, de garancia még van rá, és a tesztekből úgy látnám hogy van értelem 6970-nek módolni ( 22fps helyett 30-al megy a Crysis 3 ) akkor talán hozzányúlnék.
  • 132.
    2010. 12. 27. 22:19
    A korai, első steppinges GPU-k esetében ez szinte mindig igy volt.
    A GPU-z nem méri az SP számot ,hanem gyártói adatbázisból dolgozik.
  • 131.
    2010. 12. 27. 22:16
    amd: Ha maradt volna a VLIW5, akkor 1920 shader lenne, az 1600-at egyszerűen azért írja ki a gpu-z, mert még nem támogatta a 0.4.9-es verzió a 69xx-eket.

    Azért ne felejtsük el, hogy tuning során a 6950-es kártyák általában jóval alacsonyabb (a 6970 és 6950 közötti referenciaértéknek kb. megfelelő) órajelet tudtak elérni, sőt, a 6970 órajeleit is volt, ahol nehezen haladták meg. Ettől függetlenül tuti nem jön rosszul a +ajándék shader.
  • 130.
    amd
    2010. 12. 27. 20:28
    Az egy fázisnyi eltérést visszavonom, mert közben a 6800-as széria járt az eszemben, ahol ez az eltérés előfordul.

    6900-as szériánál nem tudom a referencia NYÁK közötti különbséget. Ránézésre ugyanolyanok a tápellátás alkatrészei, de vannak eltérések ezen a részen: pár plusz ellenállás a 6950 feszültségszabályozó IC környékén. Egyéb ellenállások is más áramköröket zárnak.
  • 129.
    2010. 12. 27. 20:14
    Akárki is ad ki 6950 tuning verziót, engem azzal fog megnyerni ha izom ramokat tesz rá, mert a 6970 ramlimitesnek tűnik egy kicsit. A többit meg úgyis lehet biosbuzerálással módosítani mint kiderült...
    A két kártya panelje egyébként totál ugyanolyannak tűnik, sőt még a tápellátás is megegyezik leszámítva néhány ellenállást a 6950-en. Szóval az eszetlen tuninggal is inkább a tápunkat veszélyeztetjük, mint magát a videókártyát közvetlenül.
  • 128.
    amd
    2010. 12. 27. 20:02
    Most már itt is olvasható róla egy cikk.

    Nem tartalmaz 1600-at, akkor tartalmazna, ha maradtak volna az eredeti architekúránál (VLIW5). Így ott nem lenne mit aktiválni.

    A 6+6 pcie táp csatlakozó viszont nem tud specifikáción belül annyi kakaót szolgáltatni, amennyi szükséges, ez benne van a tesztben (videokártyáknál mindig csak a kártya fogyasztását mérik).
    Ez tényleg jó kérdés, mennyire egészséges. De nem is a tápnak (ha megfelelő minőségű), hanem a kártya áramköreinek. Ám egy referencia modellnek elvileg szinte ugyanaz a NYÁK az alapja mint egy nagyobb modellnek, leszámítva az egy fázist, amit nem minden 6950 kap meg a referencia modellek között - természetesen.
    Úgy néz ki, ha a PowerTune nem kap emelést, akkor a két hattűs specifikációján belül tud teljesíteni. De ez is egy "extrémebb" esetben lett letesztelve. Normál játék, nos az megint egy kérdés.
  • 127.
    2010. 12. 27. 19:56
    A 2x6 tűs csatlakozó csak annyit tesz, hogy korlátozza a kártya ellátását. Ezzel csak 6970 gyári beállításait lehet elérni ha Catalytba +20%ra rakja ez ember a power control-t. A 8tűs ahhoz kell a 6970nek, hogy lehessen arra további +20%ot rakni, de belegondolva 6970es, hogy teljesítményre lehet húzni a 6950-et hát az már önmagába elég szép tuning.
  • 126.
    2010. 12. 27. 19:51
    Nekem teljesen más jár az eszemben, ezzel kapcsolatban ami nagyon sok mindent megmagyárázna a kártya (igaz kártya) piacra dobása előtti herce-hurcából!?

    Más: lelki szemeim előtt látom a giga és az anusz egyedi megoldásait 6+8 tüs tápcsatival, egyedi hütéssel és tuning RAM-okkal!
  • 125.
    2010. 12. 27. 19:50
    Örülök ezeknek a teszteknek, de úgy sem veszek ennyiért videokártyát. Sajnos az én kategóriám valahol a 35-40E magyar forintnál meg is áll.
  • 124.
    2010. 12. 27. 19:37
    józsef m. Csak nem arra gondolsz, hogy azért lehet most látszólag ilyen jó eséllyel aktiválgatni, mert a chip fizikailag 1600SP-t tartalmaz?
  • 123.
    2010. 12. 27. 19:31
    Grat!
  • 122.
    2010. 12. 27. 19:19
    Lecseréltem a Bios-t 6970esre a Giga kártyán és simán működik most eresztem rá a 3d mark 11et... GPU-z szerint 1536 shader 84,5Gtex/s fillrate nyami...
  • 121.
    2010. 12. 27. 19:09
    Nem igazán értelek.
  • 120.
    2010. 12. 27. 18:33
    Arra azért kiváncsi lennék mit szól ehhez hosszu távon, a 2X6 tüs csatlakozó?
    A másik gondolat ami erről az egészről eszembe jut/ reszelés, tiltás, driver nincs még,késés kapkodás/ ennél is eretnekebb, és az előzetes eredeti 6970-es SP. számmal kapcsolatos
  • 119.
    2010. 12. 27. 17:27
    Most olvastam végig. Durva, még V-mod is elérhető! Csak az a baj, hogy ez tuti garanciavesztéses... Kár egyébként, hogy a memóriáról nem ír semmit! Azon valószínű többet lehetne nyerni...
  • 118.
    2010. 12. 27. 17:18
    Kösz! Akiknek nem sikerült nyilván nem büszkélkednek vele annyira... De még így is tetszik! Ha lenne bennük fesszabályzási lehetőség is az maga lenne a kánaán. Sajnos úgy tűnik ez lesz a legnehezebben megkerülhető antituning korlátozás, bár később nem ref modelleknél, még talán az is lehet!
  • 117.
    2010. 12. 27. 17:07
    Bocs a linkelésért, de tessék: http://www.techpowerup.com/articles/overclocking/vidcard/159
    Eddig 100%-os siker - a beküldött eredmények alapján, de kérdés, hogy hányan álltak neki és nem sikerült...
  • 116.
    2010. 12. 27. 16:48
    Ezt jó hallani! Ezek szerint hamarosan ellepik a használt piacot a tesztelten hack-elhető kártyák!
  • 115.
    amd
    2010. 12. 27. 16:31
    Most néztem a komolyabban a témával foglalkozó lapok fórumaiban már vannak erre indított részek. Leírásokkal.

    Egy cikket is találtam már, ami kimondottan ezzel foglalkozik.
    Úgy néz ki, hogy egyelőre csak bios szinten vannak a shader tiltások a kártyákon, ezért lehet bios módosítással oldani.

    Garanciákat nem olvastam mostanában videokártyákra vonatkozóan. De, az sem mindegy milyen programmal és hogyan nyúlsz hozzá, többek között az órajelekhez sem. De még a ventillátor szabályozásának saját kézbe vétele is csak a garancia pontos átolvasása után javasolt.
    Ráadásul mindez még gyártó függő is, meg kontinens.
  • 114.
    2010. 12. 27. 15:36
    Na meg gondolon a garancia se..., elég meredek dolog egy pár napos 80-ezres kártyánál!
  • 113.
    amd
    2010. 12. 27. 15:31
    Kb úgy mint régen a 9500-ból 9700, vagy melyik volt. Amit bios cserével lehetett elérni.
    Most hogy két bios van ez fájdalom mentesen végrehajtható, bár a siker nem garantált.
  • 112.
    2010. 12. 27. 15:18
    Valamiféle BIOS mod-lenne ..vagy csak ismétlődik az 5850-5870 esete,ahol is simán felhuzták vállalkozó kedvü userek az 50-est a 70-es órajeleire, esetenként még felé is.
  • 111.
    2010. 12. 27. 15:14
    Drukkoljatok légyszi, hogy ne fagyjon le a seggem miközben leszigetelem az ablakot!
  • 110.
    2010. 12. 27. 15:13
    amd Láttál már ilyet valahol? Érdekelne a dolog!
  • 109.
    2010. 12. 27. 15:12
    A GTX560 a 6870 ellenfele lesz. Specifikációi alapján kb ugyanolyan teljesítménnyel, de jóval nagyobb fogyasztással. Ár teljesítmény aránya valószínű kedvező lesz (átlag 3-8e Ft-al a 6870 alatt). Már kissé én is várom, mert remélhetőleg árversenyt indít a középkategóriában, bár még mindig úgy tűnik, hogy a 6950-es mindent üt.
  • 108.
    amd
    2010. 12. 27. 15:10
    Most, hogy helyből két bios található a kártyákon, elkezdték a 6950-et 6970-re alakítani házilag.
  • 107.
    2010. 12. 27. 14:55
    Egyrészt, de mintha NV-nél is olvastam volna valami más gyártó nevét, de bevallom arra már nem emlékszem.

    1-2 éves késés szerintem is majdhogynem lehetetlen, tekintve hogy elvileg már megkapták az első mintát mindkét oldalon. 2011 Q4, '12 Q1-re szerintem mindenképp ideérnek, ha nem előbb.
  • 106.
    2010. 12. 27. 14:50
    A két év rettentő sok lenne,de nem nagyon van mit tenni ellene .A TSMC gyártókapacitását egyenlőre egyikük se nélkülözheti.Bár az AMD előtt meg lenne a lehetőség a saját gyártásra,én kevéssé tartom valószinünek,hogy a GF szükös kapacitásait egy kihaló félben lévő területen apróznák el, főleg most, ugy asztali mint, mobil szegmesben ,az uj platformok tömreggyártásának beinditása idején.
  • 105.
    2010. 12. 27. 14:42
    szívesen megvárnám a grafikuskártya vásárlással a 28nm-t, hisz akkor igazi teljesítménynövekedésnek lehetünk szemtanúi, de ki tudja hogy nem csúsznak-e még egy-két évet vele...
  • 104.
    2010. 12. 27. 14:35
    A Global Fu.-ra gondolsz?
  • 103.
    2010. 12. 27. 14:29
    Elviekben már mindkét gyártó idén ősz körül megkapta az első 28nm-es GPU "prototípusokat", és ahogy én tudom a gyártás sem a TSMC kezében lesz, legalábbis az egyik oldalon "biztos", hogy nem.
  • 102.
    2010. 12. 27. 12:52
    Az utobbi időben már szinte gyanusan összhangban vannak. Az 560 előreláthatólag valahova a 6870 környékére érkezik ,és ára is annak megfelelően lesz belőve ,erre mérget veszek.
  • 101.
    2010. 12. 27. 12:43
    mondjuk az pont jó lenne, de kíváncsi vagyok hogy az nvidia oldaláról, hogy fog teljesíteni a gtx 560 és hogy mennyibe fog fájni.
  • 100.
    2010. 12. 27. 12:14
    Bár állítólag a következő év közepén jönnek a 28nm-es versenyzők, de tekintettel, hogy a gyártás még mindig a TSMC-nél van, kissé szkeptikus vagyok a zökkenőmentes starttal kapcsolatban.
  • 99.
    2010. 12. 27. 12:07
    A mostani árakat figyelembe véve a 6950-es lehet a befutód. Valószínű lemegy 70 alá az ára az ünnepek múltával.
  • 98.
    2010. 12. 27. 11:31
    megfogadom tanácsod. megvárom az új modelleket
  • 97.
    2010. 12. 27. 10:34
    Erre a januári árak ismeretében lehet mondani valamit is.Mivel most elég hektikus az árképzés és ráadásul januárban uj modellek érkezése várható mindkét oldalon ,ami jelentősen befolyásolni fogja a teljes felsőház mostani árképzését.
  • 96.
    Imo
    2010. 12. 27. 10:25
    vki segíthetne. januárban lesz egy kis pénzem max. 70k. és nem tudom, hogy melyik vga-t éri meg vásárolni. nvidia vagy ati. ár teljesítményben érdekelne a legjobb.
    pls vki segítsen.
  • 95.
    2010. 12. 26. 23:27
    Leírom képletesen is. Ha az amd nem működik együtt az nv-vel energiatakarékosságért, az olyan mintha a futóversenyen NEM adna az ellenfél egy motort hogy azzal előre slisszolj. Viszont az intel c fordító esetében az a helyzet, hogy direkt elgáncolod a másik versenyzőt, aki szétkenődik az aszfalton, és úgy nyersz...
  • 94.
    2010. 12. 26. 23:23
    Joachim21: "Az a furcsa, hogy ha AMD csinálja ezt akkor az érthető, minden más esetben felháborító csalás. Lásd az intel fordító protokolja kapcsán milyen felháborodás volt, mikor kiderült h az intel fordítója nem az AMD-re optimalizál."

    Ez marhaság... hogy működjön együtt egy amd driver egy intel/ nv driverrel? Kb nem megoldható...
    Az intel fordítónál meg arról volt szó hogy nem optimalizálták, amd-re, hanem direkt anti-optimalizálták. Ott volt az összes amd prociban az sse,sse2,sse3 is, az intel c meg direkt nem használja ezeket ha amd procin fut a lefordított kód. Nagy különbség van a nem lehet megcsinálni, és a direkt úgy csinálták és arra fordítottak munkaidőt hogy rosszabb legyen között (mert ha nem csinálnak vele semmit ugyanúgy hagyják mint intelen, akkor amd-n is menne)...
  • 93.
    2010. 12. 26. 23:12
    hát szerintem kapcsol be és nézzél szét. Sokkal szembetűnőbb mint a nyomi élsimítás.
  • 92.
    2010. 12. 26. 21:50
    vki mongya már el nekem h ez a Antiscrope, v h is kell leírni (asszem ezt rövidítik AF-nek) ez mit takar, mire is jó? és mit csinál a megjelenítendő képpel?
  • 91.
    2010. 12. 26. 21:38
    Az nVidia és az AMD (jelenleg még ATI) is szépen képviselteti magát a piacon az új kártyákkal csak azért volna ebbe egy szépséghiba.
    Amennyiben a TSMC tartja az előrejelzéseit akkor 2011 Q2-ig átáll mind a két gyártó a 28nm-re aminek következtében megjelennek Q2 de legkésőbb Q3-ig az új generációs kártyáik.
    AMD részéről a déli szigetek az nVidia részéről pedig a (szabad fordítás) gázpedált kódnevű kártyái megjelenésére lehet számítani.
    Bár nagy a csen de pár ázsiai honlapon már fellelhető egy két információ morzsa a specifikációról de erre nem térek ki mivel ezek még igen csak megkérdőjelezhetőek.
    Minden esetre akinek nem létfontosságú az új kártya vásárlása annak érdemes megvárnia.
    Ki tudja lehet, hogy a CES idején kiszivárog pár tényleges információ is...
  • 90.
    2010. 12. 26. 09:04
    offtpic: fx.dx igen, a jegy nekem is megvan már (a pontot azért raktam a nevedbe mert kül. smiley-t rak helyébe)
  • 89.
    2010. 12. 26. 08:15
    @kiskoller
    Jösz a koncertre júniusban? (Már megvan a jegyem. A chicagói megjelent dvd-n, rákeresel a Youtub-ra feltettem 3 részletet...Bexarás)
    [LINK]
    [LINK]
    [LINK]
  • 88.
    2010. 12. 26. 00:35
    Karácsony van - Hétfőig bírjátok már ki



    A rendőrt elküldik a közlekedési-áldozat családjához, hogy diszkréten
    tudassa velük a halálesetet.
    A rendőr becsönget és kijön a feleség. Kérdi a rendőr: Ön özvegy Vargáné?
    Igen én, én vagyok - de nem özvegy.
    Fogadjunk! ...mondja a rendőr.
  • 87.
    2010. 12. 25. 23:32
    Azért szállt ki, mert az Intel beszopatta. Hiába, az inkorrekt piaci magatartás terén az Intel mellett mindenki más csak statiszta lehet... Soha nem fogják abbahagyni, akárhány per lesz belőle erre mérget veszek!
    Az arm<->x86 csata meg tényleg sok érdekes fordulatot hozhat még.
  • 86.
    2010. 12. 25. 23:28
    Tényleg off:az emberek kettős mércéjén sem tudok csak úgy átsiklani. ezzel ugye azért Te is azt akartad érzékeltetni,hogy pillanatnyi pozicioit nem termékei minőségének köszönheti döntően. /off
  • 85.
    2010. 12. 25. 23:26
    Önszántából kiszállt a chipset üzletágból az Nv. Megunta és abbamaradt a fejlesztés. Nembaj az hogy vita van, aki elolvassa sokat tanulhat belőle. Annyit mindenképpen, hogy egyik cég sem különb a másiknál ha a szabad versenyről alkotott filozófiájukat vizsgáljuk. /nem akarok itt most párhuzamot vonni a CUDA és Physx vs. X86 hozzáférhetőségével kapcsolatban/. Nv-nek sem lesz ez baj végül, Tegra2-vel halálra keresik most magukat, aztán meglátjuk mit kezd egymással az ARM bagázs és az X86 duopólium a jövőben.
  • 84.
    2010. 12. 25. 23:15
    Joachim, AMD CPU--->AMD GPU. Olyan logikus, hogy azt már csak el sem lehet képzelni. Ez nem csalás, Az AMD nemhiába vette meg az Atit és már nem Atinak hívják. Ilyen egyszerű, az Intel csinálja a saját grafikus dolgát az NV meg most marad szingliként. De ahogy mondta az előttem szóló, ott is volt próbálkozás elég szépen NV chipsetes alaplappal, csak abba is maradt.
  • 83.
    2010. 12. 25. 23:14
    Nem, ott az volt a felháborodás, hogy ugyanaz a Phenom II-es Core2-esnek álcázva instant 30%-ot gyorsult. Egyébként más téma...
  • 82.
    2010. 12. 25. 23:10
    OFF:
    Az a furcsa, hogy ha AMD csinálja ezt akkor az érthető, minden más esetben felháborító csalás. Lásd az intel fordító protokolja kapcsán milyen felháborodás volt, mikor kiderült h az intel fordítója nem az AMD-re optimalizál. Én csak ezeket nem értem. Nem tudok eligazodni, hogy egy csalás mikor csalás, és mikor jó dolog. Ha az intel letiltja a SB IGP-jét ha más VGA-t észlel, az szemétség, ha az AMD drivere letilt bizonyos funkciókat más gyártó komponenseinek észlelése után az érthető. Azon kívül, hogy nekem ezzel az egész platformosodással bajom van, az emberek kettős mércéjén sem tudok csak úgy átsiklani. Egyébként ennek lehet a Magyarság őszinte jólelkűsége az oka, a gyengébben való segíteni akarás ösztönös felszínre törése lehet a jelenség magyarázata.
  • 81.
    2010. 12. 25. 22:36
    Joachim21 Most ha arra gondolsz, hogy az a nagyon gonosz dolog AMD oldalról, hogy az APU-k mellé párosított Radeon-okhoz hibrid CF támogatást nyújt, és megengedi, hogy kihasználatlanság esetén integráltról menjen a monitor, akkor csak sajnálni tudlak. Egyébként sem lehet megvalósítani ilyesmit heterogén rendszerben. A másik dolog meg, hogy az NV is megcsinálta annak idején ezt NV chipset+NV vga párosítás esetén. Teljesen érthető dolog, hogy egyik cég sem szopik azzal, hogy vegyes driver-támogatást készítsen mindenhez, a konkurencia termékeinek kedvezve, és igen, az Intel sem teszi majd lehetővé (mobil fronton már most sem)... Ez a platformosodás természetes velejárója, és csak azért mert az NV-nek már nem nyílik erre lehetősége, még nem lesz a többi gyártó gonoszabb.
  • 80.
    2010. 12. 25. 21:42
    fxfx: Ez a támogatás a jövőben fog megvalósúlni, pl ahogy Joachim is írta, energia-gazd, stb. (Off: jó a képed, egyik kedvenc albumom)
  • 79.
    2010. 12. 25. 21:14
    Ma nem, de jövőre amik jönnek catalystok már tartalmazni fognak olyan energiagazdálkodási beállításokat, amik csakis egységes AMD rendszer esetén lesznek elérhetőek. Aztán szépen lassan jönnek majd a további szívatások. Ahogy az intelnek lesz egy normális IGP-je, ők is meglépik ugyanezt. Már most lehetett hallani, hogy ha az SB IGP-je más VGA-t észlel, lekapcsol a videódekódoló részegységgel együtt, aztán úgy néz ki az Intel mégis csak tárgyal az Nv-vel az Optimusról, mert szüksége van olyan laptopokra, amikben van egy ütős IGP. De csak idő kérdése, hogy mindkét szartúró cég elkezdjen megakadályozni mindenki mást, hogy a rendszereikhez komponenseket adjanak el.
  • 78.
    2010. 12. 25. 20:44
    Egx kis off:3 d mark dx11-be jöjjön már át valaki
  • 77.
    2010. 12. 25. 20:41
    "...de ha csak simán Intel mellé veszel AMD GPU-t, akkor rengeteg lehetőségtől elesel."
    Ezt nem értem, mert a komolyabb gépünk itthon Intel+ATI.
    Mitől estem el? Driver-támogatás? Ingyen játék?
    A másik gépem AMD-CPU-s, ha írsz valami meggyőzőt, máris átteszem a VGA-t!
  • 76.
    2010. 12. 25. 18:18
    5830-ról eleve hülyeség váltani, várd meg a 28nm-es 660-at. Egyébkéánt akinek új kártya kell, Hd3-tól visszafelé, az pont megtalálja a GTX 460 személyében amire szüksége van 50K környékén. Ha már piaci elemzésből indulunk ki, akkor ne a jelenlegi generációt, vagy az egyel ezelőttit vegyük már alapnak, hogy arról minek váltsAK, ez pont olyan mint SB-re váltani nahelemről, teljes hülyeség, ha pénzed van úgyis megteszed, de ha számít a pénz és józanul átgondolod nem sokat nyersz. Van GTX460-ból is 3 féle, alatta GTS 450, ezalatt meg gyakorlatilag lassan megszűnik a VGA piac az IGP-knek hála, minek fejlesszen oda az Nv?

    Fx
    AMD pont ezt erőlteti a platformosodásával. AMD CPU, AMD GPU, AMD chipset, de ha csak simán Intel mellé veszel AMD GPU-t, akkor rengeteg lehetőségtől elesel. Most ki a tróger akkor, az Nv aki jól csinálja a dolgokat, és próbál a vevői kedvében járni és így talpon maradni amíg még lehet, vagy az AMD, aki inkább kiszorítja az ellenfeleit a piacról, és ad valamit amit ők terméktámogatásnak hívnak?
  • 75.
    2010. 12. 25. 12:17
    Nekem a 6950 39-41 fokon megy üres járatban. Jó kis kártya ez szerintem aki 470-et akar(t) venni annak lehetséges alternatíva, mert árban nincs olyan nagy árkülönbség de teljesítményben már van és ez nőni fog ha végre normális driver lesz hozzá... Az NV meg lehet gyorsabb pár fps-el magasról teszek rá melyik gyorsabb 2-4 fps különbség észrevehetetlen.
  • 74.
    2010. 12. 25. 11:39
    igen gery, ebben igazad van, csak az NV eddig nem igazán tett le az asztalra megint normális kártyát. több mint fél éve van a gtx460 és ennyi. Megállt az élet. Radeonból teljesen van jó alternatíva a 25-70 ezres árkategóriába, de NV-nek nincs. És minden vitatkozást félre téve, a normális kártyán azt értem, hogy most ami kijött szupi két karija, az 570 meg 580 néven, ami tényleg hű de jó, csak szerintem nem sokan állnak érte sorban, sőt, itt is felteheti a kezét az, akinek ilyen van, vagy lesz. Normális kártyát kellene csinálni, ami megfizethető, ez a trónért harcolás nagyon jó, csak nekünk ebből aztán semmi hasznunk sincs. Az 50 ezres kategóriába kéne már alkotni, vagy az alatt, nem a 150 ezresbe. Mert most tulajdonképpen ha most cserélném az 5830-as karimat, mi jönne szóba csere viszonylatban. GTX460? Most azért a plusz valahány százalékért nem éri meg. Csak 6870 lenne a befutó. De NV-ből valahogy nem bírok válogatni, pedig nem vagyok ellene. (a gtx470 jó lenne, csak már szerintem nem sokáig lehet azt sem kapni.)
  • 73.
    2010. 12. 25. 11:15
    Aztán vissza jön a régi rendszer hogy az ati nagyon erős kártyákat csinál de a játékok nem mennek rajta. Az NY meg szar kártyákat csinál de csak a driver viszi őket! Régen ez volt!
    Most előszőr látom azt az nvidián hogy vissza vesz a hatalmas arcábol és normális árakat rak a kártyáira!
  • 72.
    2010. 12. 25. 11:12
    Azért ez nem ilyen egyszerű, mivel egyik cég sem akar csődbe menni. Márpedig a jó hírnév felettébb fontos számukra hiszen ez a kiadott játékaik eladási mennyiségét is érinti. Ezért nem gondolom, hogy szándékosan csinálnak ilyeneket. Kivétel biztos van, de elenyésző a száma. Másrészt ha néhány fejlesztő nem kapna ilyen támogatást akkor lehet, hogy soha nem készülne el a játék pénz hiányában. Pont ezeknél a játékoknál tudom elképzelni ennek lehetőségét, hogy valamilyen módon korlátozhatják a másikat, hiszen annyira megvannak szorulva anyagilag, hogy beadják a derekukat egy ilyen kérésnek is.
  • 71.
    2010. 12. 25. 11:04
    Azt a több pénzt meg veled fizetteti meg.

    Az lenne ám a szép, ha az egyik játék az nV kártyán futna normálisan, a másik meg az ATI-n, aztán lehetne egyszerre 2 kártyát venni a gépbe.
    Sőt, a játékprg felismeri a hw-t és, ha ellenségeset talál, el sem indul. Tiszta menyország lenne!
  • 70.
    2010. 12. 25. 08:05
    Ha az Nv többet fizet a játékfejlesztőknek, akkor még egy érv hogy GeForce-ot kell venni.
  • 69.
    2010. 12. 25. 03:38
    Azta Q jó sok időt elp**sölhettél mire az adatoka megszerezted hozzá kivenni betenni driver game elindit pfff


    Gratula hozzá türelmed az van
  • 68.
    2010. 12. 25. 01:14
    Az egésszel csak az a baj, hogy az ágazat gyakorlatilag teljesen védtelen az ilyesfajta etikátlan piaci verseny-ellenes magatartással szemben. Tegyük föl, hogy az egyik gyártó lepénzeli valamelyik játékfejlesztő stúdiót, hogy a konkurencia termékeit hátrányosan kezelje a program. Tudunk is asszem ilyen esetről... Mit tehet a konkurencia? Semmit, max megpróbál többet fizetni... Mert perelni biztos, hogy nincs értelme. Egy elhúzódó per mind a három résztvevő munkáját hátráltatja, és ráadásul legalább másfél-két évig tart. Mire döntés születik már a játék, és az adott videókártya generáció is elavult lesz. Ami méginkább ellene szól, hogy egy esetleges elmarasztaló ítélet annyira káros a piac egészére nézve, hogy még a sértett cégnek is jobb, ha nem következik be... Mert mi is történne ilyenkor? A két bűnös cég azaz a játékstúdió, és a vesztegető videókártya gyártó cég pénzbírságot kap valószínűleg. A videókártya gyártó cég nevetve zsebből kifizeti a bírságot, míg a játékfejlesztő iroda mögül kihátrálnak a kiadók, mondva (lehet jogosan is), hogy nekik semmi közük ehhez, és a fejesztőiroda önmagában jó eséllyel csődbe megy a bírságtól. Mivel az eladásokat jobban segíti még egy gyengén optimalizált játék is, mint a semmilyen, így ez a piac minden résztvevőjének egyértelmű szívás...
  • 67.
    2010. 12. 24. 13:33
    Nem egészen volt így mert az AMD kezdte el pénzelni őket de valamin összevesztek és így jött az nV pénze a képbe. Lehet, hogy az nV többet fizetett? Kitudja? De azt, hogy azért tolták el a megjelenést, hogy a gtx 500-at megvárja ezt akkora hülyeségnek tartom, hogy az már fáj. Mi haszna lenne belőle ha már régen megjelent az említett kártya. Neki pont az lett volna a jó ha ma érkezik ez a játék a kártya mellé.

    Ugyan úgy említhetted volna a másik oldalról a Battleforge-t vagy az AP-t is, azokat például az AMD pénzelte. Az AP ma is nagyjából az AMD kártyáké míg a Bettleban bokszzsákká minősültek a Radeonok. Másik oldalról ott van a Crysis ami nV támogatású játék de átlagosan a Radeonok jobban teljesítenek benne. Ezek a keresztbe veréseknek semmi más jelentőségük nincs mint annyi, hogy közben szépen, fokozatosan változnak az felépítések és ami eddig szép és jó volt most már kezd hátránnyá változni a jövőben. Másrészt a driver is szokott ilyen szűk keresztmetszet lenni. Valahol bennmarad egy korlátozó tényező és akkor megindul a mutogatás a másik gyártó irányába, hogy csalnak. Pedig csak meg kellene találni a hibát a driverben. Lásd Crysis megjelenése után megjelent Radeon drivereket. Botrányos volt minden szempontból az említett játékra nézve. Most is van egy ilyen játék a Just Cause 2 személyében amiben a minimum fps botrányos a megjelenése óta. Mondhatjuk azt is, hogy nagy ívben ejtenek rá. Már régen beperelték volna egymást ilyen szempontból ha ez bebizonyosodna. Csak mind két gyártó tudja, hogy ők ugyan ezt csinálják a saját támogatású játékaiknál is, másrészt tudják ők is, hogy hol hibáztak mind hardverileg mint szoftverileg.
  • 66.
    2010. 12. 24. 12:14
    Tudjátok minden viccnek fele igaz. NV pénzeli a Crysis 2 fejlesztőit, ez nyilvánvaló. Ugyanígy az AMD is pénzeli őket. Amelyik több pénzt tud leperkálni nekik, attól függ, hogy az AMD vagy az Nvidia kártyáin megy-e majd jobban a játék. Mondja egy szembetűnő példát? Borderlands. Ott aztán látszik, hogy NV adott pénzt nekik rendesen.
  • 65.
    2010. 12. 24. 11:27
    Crysis-ban a radeon jobbat szokott vinni nv-nél kiváncsi leszek h a 2-vel hogy boldogulnak majd. Én kamunak tartom azt hírt h 2millió dollárt fizetett volna az nvidia optimalizálásért.habár ha marketing szempontból nézzük logikus lenne de amint a hírben is le van írva ez csak pletyka(nem megerősített)
  • 64.
    2010. 12. 24. 11:17
    #41:Miért láttál már élőben ilyen kártyát? Gondolhatod hogy akik tesztelik kamuznak ha azt hozzák ki hogy melegszik és ráadásul hangos. Nincs ezen mit szégyellni ha valaki 100k+t költ VGA-ra az nagy ívben leszarja, vagy vár és vesz egy jobb hűtésű darabot.
    Tipikus fanboy megnyilvánulás
  • 63.
    2010. 12. 24. 11:11
    hol van még az....
  • 62.
    2010. 12. 24. 11:10
    Itt a fő "probléma" az, hogy majd a sok fan, meg egyik oldalra elfogult emberke arra fogja verni a nyálát, hogy Crysis 2 tesztet nézd meg, és hogy mennyivel überf***ább az NVIDIA, miközben valószínűleg megint nem hardver szinten keletkezik majd a legnagyobb előny... Persze hajrá, engem nem zavar igazából, na meg gondolom csak a nagyon NV fanok fogják ezt beírni minden AMD-s hírhez. (azt sem mondtam hogy ez a másik oldalról nem fordulhat elő)

    Az meg, hogy csak az AMD-sek szerint rossz, hát elég nyilvánvaló, hogy ha neked jobb, akkor nem fogsz panaszkodni, kivéve ha más szemszögből is átlátod kicsit a helyzetet. Végeredményben persze egyáltalán nem meglepő... pénz beszél.
  • 61.
    2010. 12. 24. 11:09
    Hát még mindig nem igazán éri meg befektetnem egy 6970es-be, mert csak minimálisan jobb az én kis 4870 és 4890 crossfire-ömnél ( 11519 pont vantage gpu extreme 1920x1080 )... Várom a 7970est, remélem az már 28nm és +30-40% is meglesz teljesítménytöbbletben.
  • 60.
    2010. 12. 24. 11:08
    A tesztelt alanyok is eltér(het)nek, ennek oka fejtett ki vitát
  • 59.
    2010. 12. 24. 11:05
    Ahogy nézem elég nagy az eltérés a PH-s teszthez képest. Ott a 6950 inkább a gtx570-el van parriban a 6970 meg kb 10% lassabb a gtx580-tól. (ahogy olvasom ez azért lehet mert ők 8xaa-val nézték ami szerintem reális hiszen csúcs kártyákról beszélünk)
  • 58.
    2010. 12. 24. 10:58
    Ez az optimalizáoció is csak az AMD-sek szerint rossz.
    Az NV pénzel 1 népszerünek igérkező játékot, hogy a kártyái jobban teljesitsenek. Következmény: nv tulajok nyertek +x fps-t, ami nem kerult nekik semmibe(max késett a játék...),
    nv meg magának csinált jó marketinget. AMD fanok hozzászólásai alapján az nv egy k*csög, *** és ***, mert jót csinál magának, meg a fanjainak? Na jöhetnek az olstások a commentemre, felkészültem lelkileg.
    :
    $
  • 57.
    2010. 12. 24. 09:12
    innen megtugyátok milye igazábol az nvidia: [LINK]

    sok tesztelő majd ezzel a játékal fogja nézni a kát márka sebességkülömbségét! Így mindig az nvidia lesz a tesztek elején!
  • 56.
    2010. 12. 24. 02:15
    Itt egy kis infó a tesztben szereplő egyik játékról, hogyan is van GF-re optimalizálva, és miért nem került bele a PH-s tesztbe.
    [LINK]
  • 55.
    2010. 12. 24. 00:59
    Azt nem értem, hogy ha ilyen nyilvánvaló hibák vannak az architektúrában és jóval többet lehet belőle kinyerni, akkor az csak valami árkartell vagy valami megegyezés lehet... Nem tudom elképzelni, hogy a több milliót kereső mérnök nem veszik észre tervezéskor...
  • 54.
    2010. 12. 24. 00:03
    Most láttam itthon 6950-est kb 76e-től, és 6970-est kb 100e-től. Ennyiért már ilyen driverekkel is versenyképes (bár azért nagyon remélem gyorsul még).
    6950 már most jó vétel, akárhogy is nézzük!
  • 53.
    2010. 12. 23. 23:13
    Svindler: Ilyen teszt lesz a 6000-es Radeonokkal és 500-as GForce-okkal is? Érdekes lenne.
  • 52.
    2010. 12. 23. 22:24
    carraroxt - 2010-12-23 20:43:38 +1
  • 51.
    2010. 12. 23. 20:43
    Csak néhány pontban tévedtél:
    1. Az 5970-es 40nm-en késül, és csak azért nem gyorsabb gyárilag, hogy beleférjen a 300W-ba. De mint köztudott igencsak tuningbarát, mind mag, mind ramórajelen.
    2. A 6970 nem csúcskártya, és nem is annak lett tervezve. Az a 6990 lesz jövő év elején.
    3. Mivel egyik oldalon sem volt gyártástechnológiai váltás így egyik gyártónak sem volt lehetősége, hogy lényegesen felülmúlja az előző generációs termékét sebességben. 480 vs 580 ~ 17%, 5870 vs 6970 ~ 21%.
    4. 2 db 460-as nem parti az 580 ellen, ne még a 6970/570 páros ellen sem nyerő. Ha az SLI kompatibilis lapot, és a nagyobb fogyasztást, rögtön kiderül, hogy mégsem olyan fasza!
    5. Egy raktárürítés alatt álló termék ár/teljesítmény arányát nem illik frissen debütált, még nem stabilizálódott árazású termékekhez mérni.
  • 50.
    2010. 12. 23. 20:35
    Jajj ugyan már, fiúk! Hagyjatok már fel az egymás nézeteinek állandó kényszerű megváltoztatásának módszereivel! Minden jó tud lenni, ha a jó oldalról közelíted meg. Valamint minden rossz tud lenni, ha rossz oldalról közelíted meg. Egy valami vitathatatlan: olyan még sosem volt, hogy az emberek megegyezzenek. Már az őskorban is így volt ez. Neked ez mért nem tetszik, mikor szerintem igenis jó? Ami neked szimpatikus, az nem jó! -Szerintem az a jó, amit én preferálok!
  • 49.
    2010. 12. 23. 20:26
    "Egy új csúcsmodelltől minimum az előző teljesítményének +50%-át várom el (inkább 100-at)"

    És ilyet mikor tapasztaltál utoljára az elmúlt 20 év során?
  • 48.
    2010. 12. 23. 20:22
    Mint látható, fantasztikusan dobják a gyártók piacra a semmit:
    1. még mindig az 5970 a "király" , ha készülne belőle "Rev2.0" - értsd: 40nm-en gyártanák, olyan gyors memóriával és órajeleken, mint az újakat, még gyorsabb volna az architektúrája ellenére. Egy új csúcsmodelltől minimum az előző teljesítményének +50%-át várom el (inkább 100-at). Ettől messze vannak.
    2. még mindig gyorsabb a két db 'felső' kategória belépő szintű (460) kártya, mint a 'csúcs' - olcsóbban, ráadásul nem kell egyszerre megvenni, emellett az értékvesztése elhanyagolható hosszabb távon is.
    3. kiszámolható, hogy a 460 árát alapul véve bizony siralmas a 'csúcs' ár/érték mutatója, nincs értelme megvenni.
  • 47.
    2010. 12. 23. 20:14
    LOL, a Jahr mosogató pedig azért csak 2x hatékonyabb az előző Jahrhoz képest, hogy egyet vesz kettőt kap akciókban lehessen még értékesíteni.
  • 46.
    2010. 12. 23. 20:10
    Hat persze hogy nem mind reszelt
    Nekem eleg ha csak EGY reszelt van 100+ k-s "csucskategias" VGA eseteben 2 hettel 2011 elott ,maris megvan (megmarad rola a velemenyem)
  • 45.
    2010. 12. 23. 20:01
    Igen, az 500-asok akkor jöttek ki, de a Fermi architektúra már jóval korábban, és azon nem változtattak semmit.
  • 44.
    2010. 12. 23. 19:58
    szeretem mikor mindenki minden hülyességet kommentel
    egyébként.. nekem a tesztekből a 480 -> 570 = 6970 -> 580 = 5970
    sorrend jön le...
    így aztán a 6970-et fogyasztásba talán az 570-et kéne viszonyítani, nem az 580 hoz.. pár %-al jobb a 6970, cserébe a max tdp-je vagy 30W-al több.. bár a grafikonról pont hiányzik az 570..
    egyébként...
    carraroxt volt fél éve a konkurenciának csiszolni a drivereket??
    én ha jól tudom az 580-570es kártyák az elmult 2 hétben jöttek kb ki.. (pontos dátumra már nem emlékszem)


    Az 570 sztem most best buy lehet tekintve, hogy egy szinten áll/ pár % lassabb a 6970-nél, cserébe viszont ha valakinek fontos a cuda / physics / 3d vision (esetleg) annak megéri.. vennék én is ha lenne zsetta


    mod.: de az amd sem váltott most architektúrát.. egyébként is azért kell idő a mezei "új gpu"-knak is hogy drivert kapjanak
  • 43.
    2010. 12. 23. 19:52
    Közel sem mind reszelt "erisön".

    A "blablblablblabla" fanboykodásoddal pedig csak magadat írod le.
  • 42.
    2010. 12. 23. 19:50
    Ja es ezek mind reszelt erisönök [LINK] hat igen! ez a nagy AMD szamomra most sem okozott csalodast
  • 41.
    2010. 12. 23. 19:47
    BLA-BLA-BLA BLA-BLA-BLA BLA-BLA-BLA meg ugy melegszik mint a 480!
    marmint a 6970
  • 40.
    2010. 12. 23. 19:45
    Nézegetve a teszteket ha sok pénzem lenne most gtx580-at vennék, de remekül elvegetálok a 6850-es kártyámmal.
  • 39.
    2010. 12. 23. 19:40
    Most számolgattam utána, mennyi is az annyi. Az órajel, és shader különbségből a 6970-nek 1,2x kellene gyorsabbnak lennie a 6950-nél. A valós teljesítménytöbblete viszont alig 12-13%. Kezdek tartani tőle, hogy stratégiai döntés van a dolgok mögött az 5970 védelmében.
  • 38.
    2010. 12. 23. 19:40
    "ASUS HD6850 és HD6870" -as alcím, alatta a 6950 és a 6970-es képe

  • 37.
    2010. 12. 23. 19:34
    DeathAdder

    Akkor kiolvasom neked a számokat, lehet, hogy a grafikonokat nem látod jól:

    GTX580 - 550W
    HD6970 - 516W

    És egy összehasonlítás 1W-ra eső teljesítmény alapján, hogy ne mond, hogy almát hasonlít a körtével, aki egy erősebb kártya fogyasztását méri egy gyengébbéhez:

    http://www.techpowerup.com/reviews/HIS/Radeon_HD_6970/30.html

    Összegezve, az ATI kártyák még mindig hatékonyabbak, mint az nVidia kártyák.

    A melegedés igazából nem annyira releváns, hiszen ez a teljesítmény mellett a hűtésen múlik. Gyorsabb ventillátor -> alacsonyabb hőmérséklet, magasabb zajszint, a szabályozón múlik, hogy melyik rosszat választja. 98 és 99 C közt egyébként sem hatalmas a különbség, mindkettő botrányos eredmény.
  • 36.
    2010. 12. 23. 19:33
    Kicsit én is csalódtam benne, de ha jobban belegondolunk az elégedetlenség leginkább két okra vezethető vissza:
    1: Szimplán túlmisztifikáltuk a generációváltást (lévén a gyártástechnológia csak maradt).
    2: A 6970 nem igazán jól skálázódik a kistestvéréhez képest.
    De szerintem fikázásra sincs semmi ok. A tesztekből jól látszik, hogy a 6970 teljesítményben, fogyasztásban és árban is az 570-es és az 580-as közé ékelődött, mindezt úgy hogy alig egy hete van a piacon, míg az ellenfelének már több mint fél éve volt tökéletesíteni a drivereit. Mindezek ellenére én még mindig inkább a 6950-et venném. Egyébként inkább örülni kéne a történteknek, mert most mind ár/teljesítmény, mind fogyasztás/teljesítmény tekintetében nagyon kiegyenlített a mezőny, ami könnyen árversenyhez vezethet.
    PH-s teszteredmények:

  • 35.
    2010. 12. 23. 19:17
    Jó teszt lett, gratulálok!

    Ha jól éreztem, pár embert kisebb csalódottság környékezett meg, amiért a HD6970 nem lett gyorsabb a HD5970-nél. Abban megnyugtathatok mindenkit, hogy driverekben lesz javulás mindkét oldalon, és a HD6970 oda fog érni a GTX580 mellé, a HD6950 pedig a GTX570 mellé. HD6990 pedig a GTX595-tel lesz egy súlycsoportban. Régen láttunk már az Nvidiától két GPU-s csúcskártyát, épp ideje lenne már!
  • 34.
    2010. 12. 23. 19:07
    Mivan????
    nem hiszek en semmit sem!

    Egy nagyokos itt beszolt hogy sokat zabal az uj NV meg melegszik!
    Mar bocs de ez pont forditva van!

    Szoval mielott beszolnal nezzel szet hogy mia helyzet!
  • 33.
    2010. 12. 23. 19:07
    Én is biztos voltam benne, vagy max még annyi lehet, hogy sz*r a mérő, esetleg a monitor is be volt dugva. A 80+ -os táp kapcsán durván 80%-al számoltam, így jó 440W-ot fogyaszthatott a gép. Ekkora terheléssel pedig a TX650-nek röhögve boldogulnia kell, az újraindulásokat valami más miatt csinálhatta a konfig.
  • 32.
    2010. 12. 23. 18:53
    _DIEGO_ és mások

    Bár nem én írtam a tesztet, abban biztos vagyok, hogy a konnektorból felvett értékeket mutaták.

    Mivel nem ismert a táp pontos terhelése (mekkora áram folyik 3.3, 5, 12, -5, -12 volton) ezért a táp hatásfoka sem isert (a 80+ azt jelenti, hogy néhány jellegzetes terhelés mellett jobban teljesít, mint 80, 85...). Ennek megfelelően nem lehet a táp besorolásából és a konnektorból felvett teljesítményből következtetni a konfig táp nélküli fogyasztására.

    Egyébként pedig a _DIEGO_ által felvetettvmatematika-példa megoldása ~687W, de miért kell ezt megkérdezni? Mennyi ezen a fórumon a belépési IQ küszöb?!
  • 31.
    2010. 12. 23. 18:24
    Persze, énis azt mondom, hogy akkor egy 750-es táp kellene alá, viszont azt se szaba feledni, hogy a furmark teszt alatt mért fogyasztást nem éred el játékok alatt, se átlagfelhasználás esetén. Így lehet elég egy erős 650-es.
  • 30.
    2010. 12. 23. 18:22


    550W azzal lehet terheli a tápot kimeneti szekunder oldalon - az a 80%-a a teljes fogyasztásnak , nemde ?
    Mennyi a táp teljes fogyasztása, ha az 550W a 80%-a a 100% -nak ?
  • 29.
    Imo
    2010. 12. 23. 18:13
    szerintem a legtöbb játék tesztben az nvidia odatette magát. ami nagyon jó. az ati új kártyái nem lett olyan nagy szám mint amire behirdették. az tény volt hogy az nvida 400-as szériái félkész termék, ami mostanra lett kész új névvel (500-asok). eddig jól haladunk, csak árakat kellene szépen realizálni és minden jó lesz.
  • 28.
    2010. 12. 23. 17:58
    Ezt nem értem, az 550W nem a konnektorból mért fogyasztás? A táp hatásfoka mondjuk 80%, akkor a gép egy jó 440W-ot kért. Játék alatt még ennyi sem kell, egy tuningolt i7 és egy gtx480 olyan 400W-ot eszik játékok alatt.
    Szerk.: A TX650-nek bőségesen elégnek kell lennie a maga 52A-es 12V-os ágával (624W).
  • 27.
    2010. 12. 23. 17:57
    DeathAdder

    Te komolyan azt gondolod, hogy egy fogyasztás-teszen az a kártya szerepel jól, amelyik több wattot ér el?!

    Azoktól, akik ennyire gyatrák, vissza kellene venni a számítógépet...
  • 26.
    2010. 12. 23. 17:49
    az atinak nem kell fika nev
    Eleg mar az a SZo, hogy ATI RADEON
    VAgy AMD, az meg rosszabb
  • 25.
    2010. 12. 23. 17:44
    psylocke: csak annyit tudunk, hogy 2011 első negyedév

    Heroes27: miért lenne húzott a kártya? Igazából a HX650 is necces lehet, mi megnéztük TX650-nel és akkor már a legerősebb kártyák képesek voltak néha egy resetet okozni. Igaz, az a tápunk már öregszik, de én így is inkább fölé terveznék, ne feledd, hogy a Furmarkos tesztben a proci nincs komoly terhelésnek kitéve.
  • 24.
    2010. 12. 23. 17:42
    DeathAdder: jaja grillforce? akk most mi is az ati fika neve?
    Utolsó Táblázat: na és ha most kivesszük azokat a táblázatokat amiben az Ati-k jól teljesítettek...
  • 23.
    2010. 12. 23. 17:40
    EZ a cikk most kicsit "ATI-s cikk" lett.
    Szerintem az nVidia ismét jobb mint az ATI. És ne feledjük,hogy jön a 2-magos nV kari(GTX590)...
    Ettől függetlenül nekem tökéletesen megfelel az 5770-em
  • 22.
    2010. 12. 23. 17:36
    TROLLOK VOLTAK!!

    Nem tud valaki valamit 6300as kártyákról vagy még kisebbekről? csak uvd3 kéne egy e-s proc mellé (kis htpc, az atom+ion viszont nem jön be)
  • 21.
    2010. 12. 23. 17:35
    Nekem csalodas a ket kartya. A 6970-et az 580 ellenfelekent vartam volna. Az 5xxx-bol nyert lendulet elfogyott. Jolenne ha a tmsc nem keverne a szart, korlatozva ezzel a gyartokat.
  • 20.
    2010. 12. 23. 17:31
    Szerintem tegyél még vagy 10 kérdőjelet, meg rakj be nagy képeket betűkről a mégnagyobb betűméret miatt!
  • 19.
    2010. 12. 23. 17:28
    Fogyasztas??? homerseklet????
    Abban az AMD-k lettek a szarabbak MÁÁ NEM AZÉÉÉ!!!!
  • 18.
    2010. 12. 23. 17:18
    Meg pont azt néztem, a legnagyobb teljes fogyasztás, 550W. De ez most húzott kaeival, vagy alapórajeles? Nem mindegy, mert ezek szerint Corsair HX650-es táp alatt nem érdemes venni pl a GTX580 alá. Igaz i7 mellett van.
  • 17.
    2010. 12. 23. 17:16
    Jó a teszt !

    Fogyasztás és hőmérséklet miatt NVIDIA karit biztos nem veszek
  • 16.
    2010. 12. 23. 17:02
    Köszönöm a teszteket. Így a kettő együtt már kellemes. Viszont nem értelek, hogy miért lett tré. Nem rossz kártya ez csak nem azt hozta amit sokan vártak tőle. Mondom ezt úgy, hogy egy kicsit inkább nV párti vagyok. Én úgy gondolom, hogy a 6970 most is erősebb egy kicsivel az 570-nél és ez a driverek hibáját javítva még fog javulni. Nem rossz ez csak nem hozta azt amit a fanatikusok vártak tőle. Igaz, így sem fogja beérni az 580-at mert túl nagy a különbség közöttük. Engem leginkább az döbbentett meg, hogy belepakoltak plusz tranzisztorokat és ettől mennyire megugrott a fogyasztása terhelésen. Ha még egyszer ennyit hozzátesznek tranyoból mint most, akkor le is körözték volna az nV kártyáit fogyasztásban és ennek következtében fűtésben is odatette magát a 6970.
  • 15.
    2010. 12. 23. 16:59
    A felső grafikon nekünk felhasználóknak érdekesebb, mert lesz*rjuk, hogy azért megy gyorsabban a játék mert jobban kedveli az adott márkát, vagy mert erősebb hardverileg. Azzal nincs kisegítve a felhasználó, hogy ha nem ATI vagy nvidia logo lenne a játék elején, akkor jobban futna. Viszont a második grafikon pont azokat a helyzeteket mutatja be, ahol tényleg számít az adott kártyák közötti különbség, mert azokban a játékokban sokkal többet ér +pár FPS. Így mindkét grafikon elég jól tükrözi a jelenlegi helyzetet, akinek viszont két nagyon hasonló között kell dönteni (pl.: 6970 vagy GTX570 / 157% vs 157%), annak érdemes megnézni egyesével, hogy azokban a játékokban, amivel használni akarja, melyik teljesít jobban.
  • 14.
    2010. 12. 23. 16:48
    Így van Zoli - Hatalmas gratula Svindlernek és a tesztbrigádnak!

    És ha nézzük a többletfogyasztást... az lenne ideális, ha belehetne állítani az azonos fogyasztás mellett melyik a kedvezőbb teljesítményű ! Beállítani egy megkötött maximum fogyasztást , az fölé ne tudjon menni egy kártya sem azonos kategóriákon belül persze ...

  • 13.
    2010. 12. 23. 16:38
    Hát a 6970 elég tré lett...
  • 12.
    2010. 12. 23. 16:37
    Mekkora felbontasban mentek a tesztek?
  • 11.
    2010. 12. 23. 16:27
    "Fogtuk az összesítést, és kivettünk belőle minden olyan játékot, amiben még a leggyengébb ma tesztelt VGA is 60 fps felett teljesít..."
    Ezt abszolút korrekt dolognak tartom. Ki a francot érdekel, hogy a Settlers 2-ben az 580 +20%-al veri a 6970-et? 1500fps vagy 1200fps? Így kellene csinálni minden tesztet. Nem azért estek ki a játékok, mert nVidiások, hanem egyszerűen mert nem hajtják meg a kártyákat. Hatalmas gratula Svindlernek és a tesztbrigádnak!
  • 10.
    2010. 12. 23. 16:15
    Ebből a tesztből is hiányolom az ár/teljesítmény táblázatot, legközelebb rakjátok bele, köszi.
  • 9.
    2010. 12. 23. 16:11
    na nem is olyan rosszak ezek a kártyák (a konkurensekhez képest) ha nem játszanak velük azokon a játékokon (általában az AAA címek felén) amit nvidiára optimalizálnak... Ez így nekem nem túl meggyőző, az AMD akárhogy is szépítjük bakot lőtt... Most minden kategóriában bukott, a csúcs kategóriában ahol CSAK a teljesítmény számít NEM az ÁR, ott lassú a konkurenshez képest, a középkategóriában (6850/70) meg ár/teljesítmény arányban bukott(470-et és 460-at olcsóbban kaphatunk mint a konkurenst). Ezen nincs mit szépíteni. Ha valaki meg jön azzal h majd lesz 6990 két GPU-val 580 ellen, annak annyit h lesz két GPU-s csúcs nvidia (mint tudjuk) és valszeg rommá fogja verni az ellenfelét, úgy, hogy még fogyasztásra sem lesz sokkal több (sőt!!!) mint a konkurens mert nem lesznek rákényszerítve az órajelek egekbe tornászására, ellentétben az AMD-vel...
  • 8.
    2010. 12. 23. 15:59
    Na igen, az árazását elnézve sem feltétlenül a 570GTX volna az ellenfele, a 6970-nek mert jelenleg jóval drágább nála, igaz az 580GTX-nél viszon jóval olcsóbb. A HD6950-teljesítmény, szemponjából a 470GTX, és az 570GTX között van, de ár szemponjából inkább az 570-eshez van közelebb. Kizárólag Ipon-os árakat nézve. Ezeket figyelembe véve az a véleményem, hogy eggyik kártya sem éri meg az árát jelenleg, 2GB memória ide vagy oda.
    Várom a 6950/1GB-os verzióját, és az árcsökkentéseket.
  • 7.
    2010. 12. 23. 15:47
    Srácok, a HD6970 nem a GTX580 riválisa? Miért a GTX570-el viszonyítja mindenki?
    Bocsi ha hülyeséget kérdezek, kezdek belekavarodni ebbe a számozásos szarságba...
  • 6.
    2010. 12. 23. 15:41
    Gratula a cikkhez!
    Szerintem nagyon jó ötlet volt a második táblázat. Ha Neked/Nektek nem nagy munka, akkor mindig így kéne csinálni, azaz lássuk mind2 táblázatot.

    Számomra viszont picit csalódás az új Radeon. Én jóval erősebb teljesítményt vártam volna a 6970-től, bár igaz, az nV is sokat gyorsult a drivereknek köszönhetően.
  • 5.
    2010. 12. 23. 15:23
    Heroes27:
    Még szép. Azon lepődtem volna meg ha az 5970 dupla GPU-ját verte volna oda a 6970 szimpla GPUval.
  • 4.
    2010. 12. 23. 15:16
    kiskoller, heroes27: nem vehetem ki, de ennyi erővel rakhatnék be olyanokat is mint a BattleForge és akkor az AMD-nek lenne happyness, csak épp úgy gondolom nem játszanak elegen vele ahhoz, hogy foglalkozzunk vele. A HAWX-ból még biztos ki lehet hozni tartalékokat driverből, mert nincs meg a várható sebességnövekedés még, ne feledjétek, hogy az első drivere ez az új kártyáknak.

    Nem véletlenül került oda a második diagram, a Far Cry nem egy mai darab, a Hawxnál még várható javulás, a Borderlands nVidia játszótér, ott szerintem nem lesz változás, a CoD-ok motorja viszont kezd rémesen elavult lenni, és kb. bármi elég a játék futtatásához. Már van pár kiszemeltünk, hogy mikkel frissítsük a játéklistát, csak sajnos még a legtöbb nem jelent meg

    Mindenesetre ezeknél a játékoknál sokkal fontosabb lesz, hogy mit nyújtanak az új kártyák pl Dragon Age 2-ben, Crysis 2-ben, FEAR 3-ban, TDU2-ben, stb. Még lehet, hogy a CiV 5-öt is bevesszük, de manapság kevés az a játék, ami tényleg terhel.

    Szóval a helyén kezelni a dolgokat kb. azt jelenti, hogy ha kivennénk a tesztből az nV-nek kedvező részeket és megpakolnánk olyanokkal mint a BattleForge akkor meg más lenne a kép, ezért sosem szabad elfelejteni, hogy ha van pár játék a tesztben ami az egyik oldalnak kedvez, akkor az meglátszik az összesítésen is. Pár %-os eltérésre pont ezért nem érdemes adni, azt 1-1 játék is megváltoztathatja, márpedig még az első diagramon sincs 10% különbség a 6970 és a GTX570 között (egymáshoz képest, nem a gtx460-hoz).
  • 3.
    2010. 12. 23. 15:03
    ennyi erővel az alsó táblázat se mérvadó..
  • 2.
    2010. 12. 23. 15:00
    Tulajdonképpen az alsó táblázat hozza a reális különbséget, ez egy piros pont SV,
    de az összesített táblázat meg a valűság, mert az életben meg nem bírod azokat a játékokat kivenni, amik NV-ek. Vagyis léteznek, ugyanígy fognak szerepelni. Viszont azért az a közel 25% teljesítménykülönbség az 5870<-->GTX480 között szerintem erős túlzás. Meg az hogy eredetileg a most kiadott csúcs AMD 6970 még a gtx480-at sem eszi meg reggelire, de nem hogy reggelire, de gyengébb is kicsivel, az már tényleg oltári szuper. Sajnos sok az NV szponzorált game, és ezért kapunk ilyen eredményeket, holott tényleg ez nagyon megtévesztő, ami mutatja is az az alatti táblázatban.

    Kajak ott tartunk, hogy 5970 a legjobb vétel már 1 éve
  • 1.
    2010. 12. 23. 14:57
    utolsó oldal: elírtad, gtx595 helyett 495.
    Érdekes volt a módosított öszteljesítmény grafikon, sztem az nem mérvadó, hogy 60 fps felett hogy teljesít egy kártya, így érdemesebb a másoik graifkon alapján dönteni