Kosár

A kosár jelenleg üres

Bejelentkezés &
Regisztráció

Jelenleg nincs belépve.

Válassza ki az oldal nyelvét

TERMÉKEINK

iPon FÓRUM

iPon Cikkek

GTX680 – Játékra tervezve

  • Dátum | 2012.03.30 10:01
  • Szerző | Svindler
  • Csoport | MEGJELENÍTÉS

Pár hónapos késéssel befutott az nVidia új zászlóshajója a kikötőbe, legalábbis a játékosokéba. Már a pletykák alapján kezdett elég érdekessé válni a Kepler architektúra első fizikai formába öntött asztali változata, a GK104-es GPU, rengeteg kérdés foglalkoztatott minket a megjelenés előtt. Hol van a GK100-as? Ez lenne az abszolút csúcs? Hogyhogy kisebb, mint az AMD Tahiti-je? Mi ez a rengeteg shader, elindult a Kepler a Radeonok útján? Nem ehhez szoktunk. Ahogy végigvesszük majd az új GPU változásait, azt is látni fogjuk, hogy az sem teljesen tiszta, minek az utódja a GTX680-as. A neve alapján persze egyértelműnek tűnik a válasz, hiszen könnyű egyből rávágni, hogy „hát a GTX580-nak!” Az igazság azonban ennél árnyaltabb, mert ahogy a GPU neve is mutatja, elég szoros rokonságban áll GF104/114 duóval. A következő pár oldalon ki is derül majd, hogy miért is.

A Kepler architektúra az alapjait teljes egészében az előző generációs Fermiből vette át, a változások egy magas szintű blokkdiagramon nem is látszanak, így kezdjünk az alapoktól építkezni, míg el nem készül a GK104-esünk. A cél a Fermi újratervezésénél az volt, hogy olyan GPU-k készüljenek majd az új architektúrával, amik utolérik, sőt lehagyják majd az AMD GPU-k energiahatékonyságát. A konkurens cég termékei ugyanis jó ideje élen járnak ezen a fronton, kevesebb tranzisztorból hoztak jó teljesítményt, alacsonyabb fogyasztás mellett. Az új architektúra már egymagában nagy szerepet játszik a Radeonok behozásában, de a cél érdekében szükség volt még a szoftver fejlesztésére is, immár az nVidiánál is minden a teljesítmény/Watt-ról szól.

Ez a blokk diagram még összenyomva is óriási lett...
Ez a blokk diagram még összenyomva is óriási lett...

Akárcsak a Ferminél, a Kepler alap építőköve is a Streaming Multiprocessor (SM), amit az nVidia itt már SMX-nek hív, az X helyére mindenki kitalálhat valami hangzatos jelzőt. Az SMX tartalmazza a geometriai feladatok egy részéért felelős Polymorph motort, a CUDA magokat (amik tulajdonképpen a végrehajtó egységek vagy régebbi terminológiával élve a shaderek), a textúrázókat, az ütemezőket és a mindezeket kiszolgáló átmeneti tárakat, cache-eket. A kódok futtatása úgy történik az nVidia GPU-inál, hogy a több ezer szálat úgynevezett warpokra bontják, ezek az alap egységei a végrehajtásnak és egy warpban 32 szál található. Grafikus feladatoknál ez például azt jelenti, hogy 32 pixelen dolgozik egyszerre egy CUDA magokból álló tömb. Mekkora azonban egy ilyen tömb? A logikus válasz első blikkre talán az lenne, hogy természetesen 32 CUDA magos, hiszen ennyi kell ahhoz, hogy egy órajel alatt végezzenek a 32 pixel egy-egy komponensével. A GF104 esetében azonban egy kis trükköt vetett be az nVidia, aminek köszönhetően 16 CUDA mag dolgozhatott egy warpon. A megoldás lényege abban rejlett, hogy a shaderek órajelét megemelték a GPU órajelének a duplájára, így amit az ütemező kért, az számára a következő órajelben már készen is volt. Az elgondolás nem rossz, és a gyakorlatban működött is, a mérnökök azonban a helytakarékosság helyett inkább az alacsonyabb fogyasztást választották ezúttal. Nemes egyszerűséggel megduplázták a CUDA magok számát, így már ténylegesen 32 végrehajtó egység dolgozhat egy warpon. Hogy ez miért volt jó azt talán az alábbi ábra segít megérteni.



Az új CUDA magok némileg egyszerűsödtek, kevesebb tranzisztorból is kijönnek, így két új CUDA mag méretben az előző generációs egy szem magnál csak 80%-kal foglal több helyet, miközben azonos órajelen ez a kettő már alapból 10%-kal kevesebb energiával is beéri, ami például annak is köszönhető, hogy a végrehajtó futószalag hosszát is csökkenteni lehetett, mert nem kellett olyan nagy órajelre felkészíteni a CUDA magokat. A fogyasztás ráadásul egyenesen arányos az órajellel, így azzal, hogy nem kell az órajelet a duplájára emelni, további 50% energia spórolható meg. A végeredmény a mostani GPU-ban az eredeti fogyasztás 45%-a ugyanannak a feladatnak az elvégzésére és ez óriási előrelépés.

Hozzászólások

Nem vagy bejelentkezve, a hozzászóláshoz regisztrálj vagy lépj be!

Eddigi hozzászólások:

  • 61.
    2012. 04. 10. 10:05
    Erre is volt példa, bár utólag, programozói hibának állították be.
  • 60.
    2012. 04. 10. 09:32
    @Dav2879: Igen az optimalizálás helyett sokszor inkább pont az a jellemző, hogy direkt magas erőforrás igényesre csinálják meg a játékot, hogy vedd meg a drága vasat alá. Anno volt is ilyen hír, hogy olyan fölösleges plussz geometriákat számoltattak ki a rendszerrel némely játékban, amit az életben nem fogsz látni.
  • 59.
    2012. 04. 09. 21:01
    Még ha 120-ért meg lehetne kapni..
  • 58.
    2012. 04. 09. 14:09
    OFF - Ebben már csak az a szánalmas hogy hiába veszem meg a legójabb Ati/Nvidia csodát 120 pénzért és papíron meg szintetikus tesztekben 3D mark alatt nyálcsorgató demokat láthatunk ha utána játékok alatt a kártyánk képességeinek átlagban csak 40% át láthatjuk hála annak hogy nincs az a cég aki többlet pénzt és többlet éveket szánna egy még egy csúcsjáték PC-s optimalizálására, nem úgy mint ahogy az konzolokon szokás ott a hardver átlagban 90-99% ban van kihasználva. Ezért is vettem PS3 at: 55 rugót kóstált, alig nagyobb mint egy gofri sütő, blu ray - 3D blu ray, 3D futtathatók a játékok 250gb vinyó a filmekhez zenékhez stb. és reccenés mentesen szaladgálnak a játékok minimális bugokkal de ha vannak olyanok is azokat villámgyorsan javítják. Az már más kérdés hogy pl. a legújabb játékok mint a Battlefield 3 amire sokat vártam, ugyan már csak 30 képkocka limittel, alacsonyabb felbontásban(1280x600?vagy valami olyasmi) és a PC verzióval szemben alacsonyabb felbontású textúrákkal és gyengébb részletességű fény árnyékokkal futnak + a 64 online játékos helyett csak 24 ellen lehet nyomulni, de ha a játékélmény és a pénztárca is fontos akkor a Pécémbe több pénzt már biztosan nem ölök!
  • 57.
    2012. 04. 03. 09:34
    Utána olvastam.

    Eddig egy konkrét panasz volt, melynek okán korai lenne bármilyen általánosítás.
    Igaz itthon még nincs túl sok felhasználó, mivel elég lassan csordogálnak a kész termékek, de már hazai fórumon is találkozni velük. Eddig nem az a jellemző amit az a cikk közöl.
  • 56.
    2012. 04. 03. 09:12
    józsef m.

    Minden jogod megvan, hogy akár egy hozzászólást is törölj ha akarsz.
    De egy valami azért problémás ezzel az áprilisi tréfával kapcsán.
    Még pedig...
    Ha utána nézel észre fogod venni, hogy már márciusban voltak hírek TDR problémáról de akkor még a meghajtóprogramban fellelhető hibákra gondoltak...AKKOR...

    De tudod mit.
    Legyen igazad biztos én néztem el és a későbbiekben nem fogják ismét elismerni, hogy valamit nagyon elrontottak...
  • 55.
    2012. 04. 03. 07:05
    Töröltem, mert ez egy április elsejei tréfa volt, amit még nem vettek le az oldalról, ha jobban megnézted volna legalul a forrásnál volt rá csupán kis utalás.

    Forrás: nvidia.com, hoc.hu

    Felesleges a pánikkeltés, és az ördög falra festése is!
  • 54.
    2012. 04. 03. 03:19
    Komoly Hiba...
  • 53.
    2012. 04. 02. 07:43
    Ahogy mondtuk is elég kiegyensulyozatlan, van ahol a 7870 is elveri:

  • 52.
    2012. 04. 02. 07:19
    Régen jó volt a tom\'s hardware. Mára az egyik legszarabb lett... És pont azt linkelted Abszolút fals adatok vannak benne...

    itt pl tesztelték 5760x1080ban is : Hardwareheaven
  • 51.
    2012. 04. 02. 00:04
    Rendben, de honnan szedted ezeket?
    Nem arról van szó, hogy nem hiszem el, de illik linkelni is az általad itt prezentált számadatok hitelességét alátámasztó tesztek képsorait v. a cikket.
    Amúgy amit én írtam megtalálható itt.
    Ebből a videóból - néhány kivétellel <amikkel amúgy sem játszom [Dirt3, BF3], meg amik nem érdekelnek [szintetikus tesztek]> jól látható, hogy fogy el 2560x1600 körül a kraft a zöldekből, míg az ATI jóval kiegyensúlyozottabb, stabilabb teljesítményszintet ad, jobban képes megtartani a kraftot a nagy felbontásokon.

    És hogy nem sokan játszanak ilyen felbontáson?

    Hát szerintem aki ilyen kártyát vesz, azért azok között akad néhány emberke..., aki bátorkodik hozzá megvenni a megfelelő megjelenítőt.
    Azon meg ne tépelődjünk már, hogy sz@ros full hd-ban egyik 100 fps-t hoz, a másik meg 80-at v. 120-at.
    Hacsak nem profi játékos vagy - ahol ez számíthat - nem tök mindegy?
  • 50.
    2012. 04. 01. 18:32
    trombexx - 2560x1600 , full szűrőkkel - Crysis 7970 ; metro 7970 ; dirt 3 680 ; total war 680 ; batman 680 ; portal2 680 ; starcraft2 680 ; skyrim 680 ; civilization 680 ; avp 7970 ; battleforge 7970 ; crysis2 680 ; dragon age 680 ;
    hard reset 680
  • 49.
    2012. 04. 01. 17:30
    Ezek szerint a zöldeknél április 1-je van, khm...
    Mióta is?
  • 48.
    2012. 04. 01. 17:16
    2012. április 01
  • 47.
    2012. 04. 01. 17:15
    BF3 10 percig volt a gépemen, mellesleg egy példa nem példa, amikor kapásból nyolcat lehetne hozni ellene.
    Mondam én, hogy olcsó húsnak híg a leve és pont.
    És ezt milyennek tartod?
  • 46.
    2012. 04. 01. 11:45
    trombexx - mintha bf3 alatt pl jobb lenne még az übernek számító 5760x1080-ban is... Én is nézegettem teszteket, de annyira fej-fej mellett vannak, hogy hihetetlen. Ami nem rossz, 256bittől, meg 220W-tól...
  • 45.
    2012. 03. 31. 20:54
    Naja. Sokak szerint megérett az ipari bontásra .
    Persze beszélhetünk 5760X1080-ról is, de ez egy másik szorzat.
    Apropó, mikor nagy egy szorzat?
    Ha a két tényezője EGYSZERRE nagy.
    A berácsozott ablakú világ mondjuk Rilke Párduc c. versében tetszett, de amúgy. ami tetszik:
    képpontsűrűség, színdinamika, láthatósági szög .
    Szurkolok én a TFT-nek, meg van is, és mivel a CRT "élőhalott" nyilván beérik majd egyszer a panelek is azt a fajta képi hűséget, de az még nem most van vagy ha a mostban is van TFT-ből olyan kategória, nem azon az áron van, amennyit meg is ér, vagy megadnék érte.
    Azért vannak határok is.
  • 44.
    2012. 03. 31. 20:37
    Igen, vagy ipari. Profi cucc.
  • 43.
    2012. 03. 31. 20:33
    Orvosi felbontást sejtet?
    Hmmm
  • 42.
    2012. 03. 31. 20:10
    Igen. Orvosi.
  • 41.
    2012. 03. 31. 19:53
    Hogyne érteném. Én nem a nagy többség vagyok. (Ebből a szempontból, legalább is ).
    Én már a Q3 megjelenésekor 1600x1200-ban toltam mindent (17 collon!), és akkor még hol voltak a TFT-k, meg widescreen...
    És hogy a felbontásra is utaljak, a konfigomban a Diamond Pro név egyesek számára talán sejtet valamit.
  • 40.
    2012. 03. 31. 19:20
    "hanyas felbontással jáccol te szemét"

    Ameddig a nagytöbbség full hd és azalatt játszik,addig jó ez igy is,ha meg kell plusz kakaó akkor ott van a radeon.

    !!!remélem érted a viccet!!!
  • 39.
    2012. 03. 31. 19:14
    Simba: "Jó kártya mindenben lenyomja a riválist, sőt még árban is." MINDENBEN?
    Csak egy Shith lovag beszél végletekben.
    Talán észre kéne venni azt is, hogy a tesztek 1920x1080-ban lettek mérve.
    Ilyen kártyáknál ilyen "micimackó"-felbontást használni, pff....
    Olvastam én 7970 vs 680 tesztet, hozzájuk illő felbontásban (2560x1600-ban), nos az NV csöppnyi előnye a legtöbb játékban úgy mállik el, hogy öröm nézni, higgyétek el!
    És még annyi: 7970-em van és nem "micimackó"-felbontásban játszom, hanem felette. Vannak persze örvendetes lépések zöld vonalon a 680-nal kapcs. (pl. fogyasztás, ár), de a 2 GB mem. egyértelműen kevés lehet egy csúcskártyán a csúcsbeállításokhoz (felbontás is ide értendő), továbbá a piros architektúra bizonyos vonásainak "koppintása" sem szimpi, összességében elmondhatom, hogy nyilván nem érdemes váltanom.
    + 30% EGYÉRTELMŰ játékok alatti előny lenne az, ami már megérné, de ilyesmiről nyilván szó sincs.
    Érdekes lépés viszont az NV-től a "játékkártya" felé történő speckózás bizonyos részek "kikukázásával". A jövő kétségtelenül erre mutat, így ez nem volt rossz lépés, de majd meglátjuk, mit hoz az AMD válasza...
  • 38.
    2012. 03. 31. 19:02
    A prof. piacra ettől nagyobb előrelépést ígértek, valami nagyon durva cuccot akarnak kihozni. Dupla pontosság mellett azonos fogyasztásból majdnem 3x akkora teljesítményt akarnak: [LINK]
    Ezzel a felépítéssel nem fog menni a dolog, így biztos, hogy a GK100 valami teljesen más lesz. Szerintem nem is szempont, hogy lehozható legyen asztali VGA-nak.

    Ami még érdekes lenne, hogy mit mutatna ennek a GPU-nak egy felhizlalt változata, ami karcolja a 300W-ot visszafogott órajellel.
  • 37.
    2012. 03. 31. 18:49
    bf3 pls
  • 36.
    2012. 03. 31. 11:54
    Már tesztelték, és a módosított vrm körrel ellátott kártyák 1300MHz fölé mentek. Memóriájuk is 7200MHz környékére. Ott fogyasztott a kártya 240W-ot, szénné húzva. Nem rossz ez!
  • 35.
    2012. 03. 31. 11:52
    Az eddigi információk szerint az inkább a professzionális területre lesz optimalizálva.
  • 34.
    2012. 03. 31. 11:06
    nemeth04- nálad mi számít "hivatalos" tesztnek?

    Kíváncsi leszek a GK100-asra Mert a többinél azért már sejthető, hogy milyen lesz a lassulás mértéke lefelé (670-60-50).

    Az biztos, hogy van még tartalék a kártyában ahogy az AMD-kben is, és ha elkezdenek jönni gyári OC-val is, még lehet leeshet az állunk. (Mondjuk érdekes lesz majd ez az nvidiás oc a turbó miatt)

    Jó cikk lett világos és érthető! Grat!
  • 33.
    2012. 03. 31. 08:36
    nagyon jó lett a kártya, de várjuk ki végét majd ha mindkét oldalon teljes lesz a paletta akkor indul az igazi verseny. jelenleg szerintem aki eddig gyártó specifikus volt egyenlőre az is marad. az igazi verseny akkor kezdődik ha mind két gyártó modelljeinek meg lesz a hivatalos teszt eredményei, és utána kezdenek a felhasználok válogatni a kártyák között.
  • 32.
    2012. 03. 30. 23:37
    A 6970-hez képest brutális a 7970 sebességének a növekedése (60%) elégé széééép. Bár szerintem 1 6850/70 vagy 7850/70 szintű kártya bőven elég ati oldalon, nv oldalon 560ti vagy sima 560 is a mostani játékokra és jövőre is, eléggé áll a teljesítmény igénye a játékoknak manapság. Igaz lehet valaki szereti nézni hogy 60fps helyett 130fps-e van
  • 31.
    2012. 03. 30. 23:02
    GTX680 – Játékra tervezve

    Nah , még hogy NV már nem a játékokra fejleszt talán körülnéztek , hogy belőlük sokkalta több van - kell a geme kari naná és jó lett... grat

    Fogyasztás : IGEN a valós fogyasztást illene megadni , ha sokat jáccik az a gyerek akkor magasabb a fogyasztás ... ezt már Juliska néni is megállapította és kirántotta konnektorból a dugót .
  • 30.
    2012. 03. 30. 20:58
    Szerintem meg az egész gép a lényeg, egyébként pont én javasoltam a konnektoros mérőt, már korábban is, akár úgy is hogy az egész teszt alatti fogyasztást rögzíteni, és abból egy átlagot számolni.
  • 29.
    2012. 03. 30. 20:15
    féligmeddig off:

    @Józsi: épp ezért írtam, hogy az lenne a mérvadó, ha a tesztekhez a hozzájuk kapcsolódó fogyasztás adatok lennének belinkelve. (Amúgy nem hiszem, hogy komoly plusz terhet jelentene eggyel több adatot rögzíteni tesztenként, ma már vannak egyszerű fogyasztásmérő ketyerék is, amikkel pik-pakk lehet egy időszakra eső átlagfogyasztást mérni). De hogy még pofátlanabb legyek, lehetne ezt még fokozni: az igazi az lenne, ha a rendszer helyett direktbe a kártya lenne mérve, akár egy speciálisan erre a célra kialakított "slot-toldóval", amit bedugsz jelen esetben a PCI-Express slotba, majd a kártyát pedig ebbe, ez a kis toldó pedig méri az átmenő fogyasztást (nem emlékszem már hol futottam bele ebbe az ötlebe, de határozottan kivitelezhetőnek tartom, akár még CPU-mérő "tokot" is lehetne készíteni).
  • 28.
    2012. 03. 30. 19:52
    Ha nem tudok rajta tojást sütni , akkor nem kell .
  • 27.
    2012. 03. 30. 19:50
    Itt már hardveres megkerülhetetlen védelem van.

    Zodiac, a fogyasztási adatok akkor mondnának valamit, ha mondjuk egy több előre beállított alkalmazás lefutása alatti teljes fogyasztást mérnének (legalább 1 óra vegyesen, film ,játék böngésző, szerkesztés). Ez állna a legközelebb a majdani vevőnél jelentkező valós fogyasztáshoz.
    Pl. pont itt a 680nál melyiket irják be? az alapórajelest vagy a turbóst? Mindkettő megtévesztő.
  • 26.
    2012. 03. 30. 19:35
    A teszt tetszik, de a FurMark-ot én sem értem. Kb. köztudott, hogy legalább 3 generáció óta felkészítik a kártyák drivereit a FurMark kivédésére, így a FurMark alatt mért fogyasztási adatok max azt reprezentálják, hogy az adott gyártó épp mennyire félti tőle a termékeit.
  • 25.
    2012. 03. 30. 19:11
    @józsi:

    Aki elolvassa a cikket, az sem kap semmi reális képet a fogyasztásról, lévén pont annak tesztnek nincs meg a teljesítmény rangsora. Ha nagyon kukacos akarok lenni, az lenne az igazán korrekt, ha minden egyes teszthez lenne egy fogyasztás diagram is (főleg, ha ennyire hangsúlyozva van az elemzésben).

    A csupán képnézegetőket pedig pont jól félre lehet vezetni ilyenekkel.

    No offense, csak szerintem ez egy fölösleges öngól, pláne, ha mindenütt hasonló eredményekről beszélhetnénk (feltételezem nem szándékos mismásolásról van szó).
  • 24.
    2012. 03. 30. 18:56
    Jó kártya mindenben lenyomja a riválist, sőt még árban is.
  • 23.
    2012. 03. 30. 18:18
    Hát a cikkből nem ez jön le, annak aki elolvassa. A csupán képnézegetőket meg nem is igazán érdekli.
  • 22.
    2012. 03. 30. 17:33
    Azt meg tudja valaki mondani, hogy miért kellett Furmarkos fogyasztás mellé (alá) a 3DMark-os pontszámokat prezentálni, mikor külön ki is lett emelve előtte, hogy "a FurMark alatt a GTX680 berendezkedik minimál 3D-s GPU órajelre", miközben "a 3DMarkok alatt fullosan dübörög a Turbo". Ez több, mint megtévesztő szvsz, ugyanis a diagramból kb. az jön le, hogy a GTX680 jóval kevesebbet eszik, és mellette teljesítményben jól odaver a konkurenciának. Kövezzetek meg, de tényleg nem értem, hogy ez miért jó.

    Szerk: +1 a diagramoknak.
  • 21.
    2012. 03. 30. 16:38
    Köszi, értem.
  • 20.
    2012. 03. 30. 16:03
    srmark: Skyrim-es képhiba javítva, köszi az észrevételt.

    MZperX75: Azonos órajelen a HD7970 erősebb, elég kb. 1 GHz-en járatni ahhoz, hogy párban legyen a GTX680-nal. Azt pedig mindegyik HD7970 bírja

    józsef.m: A HD7950-est végigteszteltem mindkét driverrel és mérési hibán belül voltak az eredmények, sehol nem éreztem egetrengető változást. A HD7970 a 8.955-tel ment végig, mert direkt azt teszteltem utoljára (beleírtam a konfig leírásba).

    Örülök, hogy a diagramban lévő apró változás ennyi embernek tetszik, egy kedves barátom is rágta a fülem miatta, hogy kezdjek vele valamit, majd némi kísérletezés után ez tűnt a legjobb alternatívának. Marad amíg nem lesz még jobb
  • 19.
    2012. 03. 30. 15:47
    Nem tetszik ez a játék irány. Pont ott vettek el ahol nekem szükség van rá. A játékokban is látszik, hogy érzi. AvsP, Metro. Egy egy komoly effekt, ami erős shared memory teljesítményt kér, és máris a Radeon az élen. Most akkor mégsem arra fejlődünk, amit az Nvidia a Fermivel megkezdett, vagy ez csak elterelés?
    A statikus dependency check is érdekes. Nincs baj vele, mert lehet tudni, hogy mikor lesz az adat valid már a fordításkor, de remélem az NVIDIA nem akar VLIW-et.
    A Stalkert miért használjátok? Köztudott, hogy a benchmark day 0 kódot használ. Azóta a játék már rengeteg patchet kapott. Ha mértek, akkor a játékot mérjétek, mert a benchmark kódja már öreg.
  • 18.
    2012. 03. 30. 15:12
    Plusz hozzá jön az újabb, és tegyük hozzá egyre drágább, gyártástechnológia, fűszerezve a szűkös limitált kapacitással, ami rövid távon nem is fog bővülni. Ez sem teszi lehetővé a túlzott árversenyt.
  • 17.
    2012. 03. 30. 15:08
    sanyix: tévedsz, nem így működik, nem a mohóságról van szó. Nagyon sokszor a sok kicsi sokra megy nem működik, mert ez nem kifli kenyér, amit mindenki vesz...Ki van ez számolva. Pl. adott egy termék aminek bekerülési költsége 110, és 150 ért dobod piacra, és ekkor el tudsz belőle adni 1000-et, a profitod 40*1000. Ha csökkented 140-re az árát, lehet hogy 1100 at adsz el (1100*30), 130-ra csökkentve még mindig csak 1300-at adsz el (1300*20 ekkor már lefelezted a profitot, miközben még 20% al sem csökkentetted az árat), mert alapvetően aki meg AKARJA venni a terméket, akinek kell az kicsenget 150 et-is.

    Most akkor számolj utána mi is éri meg jobban. Azt szimplán felejtsd el, hogy ha valami 10%-20%-al olcsóbb vagy ilyen árkategóriában, akkor az hirtelen 2-3 szor annyian veszik. Nem.

    Vagyis, minden egyes árcsökkentés sokkal többet csökkent a profiton, mint maga az árcsökkentés mértéke, akár el is tüntetheti a profitot.
  • 16.
    2012. 03. 30. 14:53
    Ebben a kategóriában mindegyik kapzsi. Nem ezek vannak szánva a fő kategóriába. Így az áruk is elrugaszkodik a többitől ezzel is jelezve, hogy ők a legjobbak. Az árakat meg mindig is a teljesítményük alapján szokták belőni amelyet majd a piac megtesz idővel. Ez alól csak a HD 4800-as volt kivétel amely alapvetően piaci részesedés megszerzése miatt volt fontos. Mint utólag kiderült nem is nagyon volt nyereség rajta pedig sokkal többet adtak el belőle mint a konkurens termékeiből. Viszont piacot szerzett azáltal, hogy nagyon elterjedt. Így a játékok fejlesztői is jobban igyekeztek optimalizálni az ilyen felépítésű kártyákra a fejlesztéseiket.
  • 15.
    2012. 03. 30. 14:40
    @gery84: ne is álmodj teljesítményen aluli árról. Ezek kapzsik nem értik a sok kicsi többre megy elvét. pontosan az azonos teljesítményű radeon árára fogják belőni az összes nvidiát is...
  • 14.
    2012. 03. 30. 14:01
    Nekem a firefox-al es Comodo-val is a skyrim teszt helyett a Stalker-est tolti.
    Valakinel ugyanez?
  • 13.
    2012. 03. 30. 13:00
    ŐŐ mondjuk én is mondani akartam, ezek a diagrammok valami eszméletlen jól néznek ki, modern és jól átláthatóak. Grat a csapatnak!
  • 12.
    2012. 03. 30. 12:17
    [off]megkövetem magam:
    mindig hisztiztem hogy a diagramok enm átláthatóak ..... stb!
    ezek a diagrammok isteniek, könyörgöm így használjátok tovább!
    istenek vagytok
    köszönöm a cikket is!
    jó hétvégét!
    [off]
  • 11.
    2012. 03. 30. 12:15
    Érdekes néhány dolog, pl. a Heaven eredmény, és a 3DMark 11 ,ezt nem tudom hogy sikerült így összehozni.
    Egy kérdés, a 7970 újra lett mérve vagy az maradt a régi driveres eredményeivel?
    Driverek: Catalyst 12.2, Catalyst 8.955 (HD7800), GeForce 296.10, GeForce 301.10 (GTX680)
  • 10.
    2012. 03. 30. 12:12
    A GTX670ti teljesítményét belövi a 7950-hez viszont árban a 7870 árulja egyből 2db vga-t kicsinál. Mivel 670 előállítása ugyan annyi mint a 7870-es.

    Ha csak nem jön még jobban lebutított GK104-es.
  • 9.
    2012. 03. 30. 12:08
    MZperX75: nekem 1125/1800 volt a max OC de ez feszemelés nélkül alapórajelen! nagyon jól bírják és ezeknél egy kis OC ténylegesen dob a teljesítményen!
  • 8.
    2012. 03. 30. 12:00
    Azonos órajelen kíváncsi lennék az eredményre,ahogy nézem azért 7970-es jól bírja a tunningot.
    Kis kolega A PH-ról HD7970 GPU:925@1300Mhz OC Memó:1980Mhz Gyári ,nem moddolt 100% proci venti használat mellett! 73-76 Fok.

    GTX:1006Mhz turbó 1050Mhz.
  • 7.
    2012. 03. 30. 11:54
    "Ez egy óriási változás az nVidia részéről, behozták az egyetlen igazi hátrányukat az AMD-hez képest."

    Egyenlőre csak 1 db kártyájuk van 6xx-sorozatból(csak asztali)
    Sajnos a piacon lévő kártyái telj/fogyasztásban egyenlőre köszöni viszonyban sincsenek sajnos AMD közép-felső és középkategóriás (HD7770) kártyáihoz.
    Kíváncsian várjuk a többit 670-660-650-640 kártyákat,ha ez így folytatódik akkor szép lesz 6XX-sorozat.
    Nagyon hajaznak AMD-re,kicsit szokatlan előre(vagy visszalépés) az Nvidiától.
  • 6.
    2012. 03. 30. 11:50
    Semmi különbség nincs a 680 és a 7970 között, maximum a Lost Planetben van egy ici pici difi, a többi meg észrevehetetlen.
  • 5.
    2012. 03. 30. 11:49
    250$ alatt az nvidia 40nm -es kártyákkal fog harcolni, egy darabig, mert a GK104-es chipet fogja több kártyába bele tenni, jól megnyirbálva.
  • 4.
    2012. 03. 30. 11:43
    jó teszt, szép munka!
    az igazság az h kijelentette az AMD h nem fog árat csökkenteni mert az hatással lenne a 7950,7870...ésatöbbi kártya áraira amiknek ugye még nincs ellenfelük 600-as szériából. ezért nem fogja a 7970 árát sem változtatni amíg nem lesz teljes az nvidia kínálata is, amúgy sincs mint ahogy látszik is nagy különbség a 2 kártya között itt már a szimpátia sokat eldönt, tehát nem fog 0-ra esni a kereslet a 7970-el szemben!
  • 3.
    2012. 03. 30. 11:35
    Ha jól látom a játékteszteknél a Stalker mérési adatai kétszer kerültek ki, a Skyrimé lemaradt.
  • 2.
    2012. 03. 30. 11:14
    Jó teszt, csak jobb lenne már a processzort egy korszerűbbre cserélni.
  • 1.
    2012. 03. 30. 11:05
    Jó teszt!
    Elismerés az Nvidiának jó kártyát épített.
    Viszont árba jobban alá mehetett volna a 7970-nek.
    A BF3-at hiányoltam a teszből, tudom hogy ott is a 680 vitte a pálmát csak a többi kártya teljesítményére voltam kíváncsi.