Kosár

A kosár jelenleg üres

Bejelentkezés &
Regisztráció

Jelenleg nincs belépve.

Válassza ki az oldal nyelvét

TERMÉKEINK

iPon FÓRUM

iPon Cikkek

Radeon R9 Fury X – Visszavágó

  • Dátum | 2015.07.07 07:07
  • Szerző | Svindler
  • Csoport | MEGJELENÍTÉS

Emlékszik még valaki az ATI Rage Fury MAXX-ra? 1999-ben az a kártya volt az ATI kínálat csúcsa, két grafikus chippel a hátán. Manapság már egy belépőszintű okostelefon is elszégyellné magát, ha csak olyan gyors lenne, mint a Fury MAXX, pedig annak a teljesítménye 16 évvel ezelőtt még nagyon is jó volt. Mindössze egy valami szúrta az oldalát, de az nagyon, hogy a konkurencia akkoriban mutatta be az első GeForce-ot, ami nem igazán hagyott sok esélyt az ellenfeleinek. Persze az ATI nem is ekkor élte a virágkorát, a megújulás a Radeonok képében jött, amik ha nem is mindig voltak gyorsabbak az aktuális GeForce-oknál, legalább a tudásuk mindig a toppon volt. A cég innovatív fejlesztései aztán az AMD-nél folytatódtak, és a HD2900XT bukása után, ami behozta a VLIW5 architektúrát, a vezető mérnökök úgy döntöttek ideje stratégiát váltani. Nem kell az elsőségre törekedni, inkább kisebb, de a méretükhöz mérten gyors chipekre kéne fókuszálni. Ennek köszönhetjük az egykori slágertermék, a HD4850 születését is, ami talán még mindig ott van néhány PC-ben. Azóta azonban nagyot fordult a világ. A konkurenciánál jóval fejlettebb Graphics Core Next architektúra bemutatása után az AMD még egy ideig tartotta magát ahhoz, hogy nem gyárt óriás chipeket, de a 28 nanométeres gyártástechnológia elnyújtott élettartama miatt végül kénytelen volt beszállni a versenybe. Az nVidia TITAN-jai ugyanis veszettül gyorsak voltak, és a Maxwell architektúra bemutatása óta komoly problémái vannak az AMD-nek.


Bár olyan botrányai nem voltak, mint az nVidiának a GTX970-nel, de eladásokban lemaradt, a plusz tudást pedig, amit a GCN nyújtott, alig használta ki valami. A mérnökök valószínűleg várták a csíkszélesség váltást, mint a messiást, de be kellett látniuk, hogy az nem holnap lesz, így életre kelt a B terv. E szerint igazi szörnyeteget kell építeni, ami feszegeti a jelenlegi gyártástechnológia határait, és kisajtol belőle mindent, amit csak lehetséges. Ez a fenevad lenne a Fiji, a maga 8,9 milliárd tranzisztorával, és közel 600 négyzetmilliméteres méretével. A GM200-hoz képest tehát bő 10%-kal több tranzisztort sikerült bepréselni ugyanakkora helyre, és ha jók az információink, akkor ez azt jelenti, hogy mind a két cég kimaxolta a TSMC lehetőségeit, ennél nagyobb chipeket rendelni sem tudnának. A Fiji tehát a GCN kínálat csúcsa, ami a legfrissebb variánsra épül, és brutális mennyiségű, 4096 shadert tartalmaz.


Az AMD bemutatójának hála azt is tudjuk, hogy bár még csak a Fury X jelent meg, igazából négy termékben is helyet kap majd az új GPU. Elsőként az X nélküli Fury jelenik meg pár hét múlva, amiben valószínűleg letiltanak néhány shader blokkot, és csökkentett árral küldik harcba. Aztán valamikor ősszel befut majd egy két GPU-s kártya is, amire az AMD szerényen csak úgy hivatkozik, hogy a világ leggyorsabb kártyája. Nos, ha az Nvidia nem villant egy duálchipes megoldást, akkor ez a megállapítás valószínűleg helyes lesz. Az igazi meglepetés azonban nem ez az erőmű, hanem egy mini PC, ami vízhűtést használva tart kordában viszonylag kis helyen egy erős processzort és két Fijit. Igazi kis gamer álomPC lesz az AMD aprósága, ha egyszer megjelenik. A cég egyébként már többször bebizonyította, hogy imád elsőként alkalmazni új technológiákat, és bizony a Fiji sem panaszkodhat, lesz mire büszkének lennie, csak lehet, hogy az nem a teljesítménye lesz. Na de ne rohanjunk ennyire előre, foglalkozzunk egy kicsit azzal, hogy mire is képes az AMD csúcsvasa.

Hozzászólások

Nem vagy bejelentkezve, a hozzászóláshoz regisztrálj vagy lépj be!

Eddigi hozzászólások:

  • 165.
    2015. 08. 28. 08:32
    tudomásom szerint az említett kártya ami nem használta az élsimítást az az Ambient Occlusion-t se használja. Legalábbis battlefield 4-ben akárhogy kapcsolgatom, semmi különbség nem látszik, egyszerűen semmi. Mármint az fps csökkenésen kívül
  • 164.
    2015. 07. 20. 23:24
    UE3-nál mindig is problémás volt az élsimítás, gondolom ez sem kivétel.
  • 163.
    2015. 07. 20. 23:13
    Mondjuk így nem nehéz: "Batman alatt a GTX980 Ti Full HD-s felbontáson a jelenlegi driverrel valószínűleg lemond az élsimításról, akármit is csinálunk, ezért a túl jó eredmények, egyébként valahol a Titan környékén kéne lennie.", és akkor még kérdéses, hogy megint milyen "trükköket" vet be a nagy ződ!
  • 162.
    2015. 07. 10. 09:05
    Az ilyen véleménnyel vigyázz, mert egyszer csak azt látod, hogy az itteniek előveszik a duplacsövű puskát és azt mondják, hogy "Nem szeressük mink a te félédet errefelé, fijú!!!"
    [LINK]
  • 161.
    2015. 07. 10. 07:16
    Ha jól tudom akkor ezek Ref kártyák ugye?
    Nemtudom volt-e erről szó már, nem szeretnék végigolvasni 150 kommentet(aminek a fele gondolom rendkívül emelkedett ).
    Csak annyit akarok kihozni az egészből hogy ha jól tudom a Fury X-nek nem lesznek custom build kártyái más gyártóktól.
    Külföldi oldalakon meg már kint van az Asus, MSI,Zotac saját 980Ti-re ami akár 20%-ot is rádob a refre ha nagyon feszegetik(ilyenkor még elviselhető tartományban van a hőmérséklet és a fogyasztás is). Ennek fejében nem nagyon tetszik amit a Fury X produkál.
    Vártam hogy mit tud kihozni az AMD és az új technológiától nem is rossz.

    Kiváncsi vagyok melyik Egyetem Marketing szakán tanítják hogy kell ilyen igényesen magunk alól kivágni a fát....
  • 160.
    2015. 07. 09. 23:49

    Talán hozott +1 átlag fps-t, de ebben sem vagyok 100% biztos:

    https://www.youtube.com/watch?v=tdGAcxxQ98I

    https://www.youtube.com/watch?v=0WUE9DE-Gl8
  • 159.
    2015. 07. 09. 20:18
    de lehet az sem, mert akkor már túl öreg lesz a kártya, majd a jövőbeli kártyákon
  • 158.
    2015. 07. 09. 19:53
    Az az évre vonatkozik, 15, mert 2015. 16-os majd 2016-ban lesz. Semmi köze a főverzió számhoz.
  • 157.
    2015. 07. 09. 18:05
    Ez még nem számít "újnak", mert maradt a 15. Majd a 16.x
  • 156.
    2015. 07. 09. 15:06
    főleg, hogy atti szerint ha megjön az új driver, akkor jelentős gyorsulás lesz. lássuk az eredményeket!
  • 155.
    2015. 07. 09. 14:52
    Na akkor most akinek van ilyenje, az tesztelje újra a most érkezett 15.7-es driverrel is.
    Legalább 1-2 játékot.
  • 154.
    2015. 07. 09. 12:56
    Huh, igen, azt én sem nagyon bírom, ahogy ír. Többször is el kell olvasnom, hogy értelmezni tudjam.
    De ha már nem bír tagolni, akkor legalább ne írna összetett mondatokat
  • 153.
    2015. 07. 09. 12:43
    Vagy elkapták a nyelvtannácik és eltörték az ujjait, mert nem bírták tovább nézni, amit művel.
  • 152.
    2015. 07. 09. 11:08
    Szerintem először ban-t kapott, aztán meg agyvérzést, hogy már egy hete nem tud hozzászólni egy AMDs cikkhez sem
  • 151.
    2015. 07. 09. 10:51
    lehet titokban vett egy nv kártyát, csak nem meri bevallani
  • 150.
    2015. 07. 09. 07:24
    Lehet seppukut hajtott végre, mint a szamurájok ha elbukott a császáruk, bár még ők sem voltak olyan lojálisak, mint ati az AMDhez
  • 149.
    2015. 07. 09. 04:52
    Valamelyik gyártó meg a jó bevált olcsó GTX670 óta használt megoldás teszi rá:

    Erre is sokan mondják ref. megoldásnak, pedig a GTX760, GTX660-on is alkalmazták.

    Itt az msi megoldása 1 nyákot tervezett és arra rakta 980 vagy 970 GPU-ját, még is sokan ref. modellnek hitték.:

    Amit linkeltél meg tudtommal az nv csak párat készített a cicergés ellen, 980 nyákos példányok. De ilyen megoldás Mo. nem kapott.

    Tudtommal azokat a kártyákat nevezik referencia modellnek amiket az nvidia készít, mindenestül. (hűtő, nyák.)

    De az biztos hogy az nv a 970 szabad kezet adott a gyártóknak, abba hogy egyedi nyák és hűtőt építhessenek hozzá.
  • 148.
    2015. 07. 09. 02:53
    Bár ha megnézed az nVidia oldalát, egy ilyen képet látsz rajta, de valójában nem létezik referencia kártya (ezt magától az nVidiától tudjuk). A linkeden is ezt írják alatta:

    This very special NVIDIA GeForce GTX 970 is the only one of its kind designed by our in-house VGA Guru Gibbo making this the worlds ONLY genuine reference 970 available in the world. Gibbo's design request were very specific, genuine NVIDIA 970 cooler, yes the crazy expensive one just like the 980 cooler and a NVIDIA BGA Board using all original NVIDIA components with absolute zero cost down in the design. (itt érdemes megjegyezni, hogy abban nincs igazuk, hogy egyedüliként csináltak jobb nyákos cuccot, vannak gyártók akiktől lehet venni 970-est a minőségi 980-as nyákon)

    Egyébként ez az egész csevej abból indult ki, hogy kivételezésnek számít-e, ha nem gyári a hűtő, aztán valahogy itt kötöttünk ki.
  • 147.
    2015. 07. 09. 02:07
    Még mindig nem talált ide atti kolléga? Wtf?!
  • 146.
    2015. 07. 08. 21:06
    Igen, ezek is felfoghatóak referencia hűtős kártyáknak.
    Vállalom a kockázatot: [LINK]
  • 145.
    2015. 07. 08. 20:48
    Az NVidia hivatalosan papíron nem adott referenciát a gyártóknak a 970-hez, viszont igazad van, a gyakorlatban vannak olyan kártyák amikre pont olyan hűtőt raknak mint a korábbi generáció vagy ez a generáció csak más típusok referenciahűtői, itt van 2 is példának, innen az Ipon-ról:
    http://ipon.hu/webshop/product/gainward_3354_bliss_gtx970_4gb_gddr5_pcie______________batman_arkham_knight_kupon/821403
    http://ipon.hu/webshop/product/zotac_zt_90105_10p_gtx970_4gb_gddr5_pcie___________batman_arkham_knight_kupon/861545
  • 144.
    2015. 07. 08. 19:38
    Hogyne lenne a GTX970-nek referencia változata. Az, hogy itthon nem találsz minden boltban, nem azt jelenti, hogy nincs. Korábbi hozzászólásban volt probléma más bolt "reklámozásával" ezért nem linkelek, de google mutat ref GTX970-et.
  • 143.
    2015. 07. 08. 19:24
    A hűtés manapság nem igazán probléma, de ha az lenne, a GTX970-nek pl. _nincs_ is referencia változata, szóval referencia hűtője sincs, de mindennel elketyeg maxon. Radeonnak egy zsúfolt házban lehetnek problémái, de elég sok féle járt már nálunk az utóbbi hónapokban 290-esekből, és azt tapasztaltuk, hogy bármivel elmegy maxon, ami manapság kapható (jelenleg pl. 16 féle 290X van a kínálatunkban és _mindegyik_ egyedi hűtéses)

    Az MMO-s tesztelés nagyon nehéz dió, egy élet is kevés lenne hozzá az a baj, de igazából amit itt kapsz átlagos teljesítményt az jó iránymutató, ha pedig kifejezetten egy MMO érdekel valakit, annak érdemes lehet utánagúglizni. Sajnos a jövőben se fogunk (legalábbis az új kártyás teszteknél biztos nem) MMO-t tesztelni, mert túl sok mindentől függ a teljesítmény, a VGA csak egy ezek közül. Egy kis lag le tudja nyomni az egészet.
  • 142.
    2015. 07. 08. 15:58
    Ha zavar hogy mások a kártyák neten találsz fenn olyan teszteket hogy csak MSI vel van letesztelve mindkét oldal így nincs Oc nem OC probléma a fiúk meg olyan kártyákkal tesztelnek amit kapnak ezért ne hibáztasd őket.
    Multiplayerbe meg nem igazán lehet tesztelni, tesztnek pont az a lényege hogy kizárjunk minden nem a kártyával osszehozható késleltetést a lag meg pont ilyen.
  • 141.
    2015. 07. 08. 15:48
    A cikk íróhoz, és a teszterekhez:
    Tudnátok csinálni olyan játékteszteket is, amiben MMO-k vannak?
    Például ArcheAge, TERA, GuildWars2, Planetside2?
    Mivel ezekkel a játékokkal külön-külön is többen játszanak, mint néhány tesztben szereplő oldal összes játékával. Igazából az számítana, hogy bírják a kártyák pl.: egy 200 vs 200 fős csatát maxon Planetside2-ben, vagy egy Kraken+pvp-t Archeage alatt.
    Tudom, hogy nehéz úgy tesztelni valamit, hogy nem lehet azonos körülményeket létrehozni benne az egyes kártyákhoz, mert lehet, hogy az egyik kártya tesztelése alatt 255-en vannak, a másiknál csak 156-an, és úgy elég fals eredmény születik. De mondjuk úgy, hogy minden kártyával bizonyos időközönként futni egy kört fővárosokban, csatákban többször, és átlagolni az eredményeket?
    Egy új mmo-hoz inkább vesz az ember egy új gépet, mint egy single batman, vagy metro-hoz. Legalábbis úgy vettem észre, hogy ez a tendencia mostanában.

    Várom az R9 fury teszteket is, kíváncsi vagyok a kistestvér ténylegesen mit tud. (papíron 10%-kal lassabb, de tesztekben nincs mindig így)

    És referencia hűtős, és nem ref hűtős kártyákat még ha azonos órajelre is lettek beállítva, nem illik tesztelni, mivel a legtöbb kártya hőmérséklet függvényében állítja a teljesítményét. Ez akár 10% eltérést is jelenthet ugyan olyan kártyánál, azonos órajelen, más hűtéssel!!!

    (saját példa: Radeon 7970 sapphire ref hűtős, ez az enyém volt, és a kollégám Sapphire Vapor-x változata. Mivel neki később jött a gépe többi alkatrésze beraktuk a gépembe, és megcsináltuk vele ugyan azokat a teszteket, mint a referencia kártyával, AZONOS órajeleken, és meglepően jobban teljesített. Ekkor lettem igazán dühös. aztán rájöttünk, hogy eléggé melegszik a kártya, és egy bizonyos hőfok felett, ez 7970-nél 85fok körül volt, visszavett a teljesítményből. Amokor odaállítottuk pár jégakut és egy kisventit a kártya alá, és hűvösebb levegőt kapott a kártya érdekes módon ugyan azt a teljesítményt nyújtotta, mint a vapor-x! )
  • 140.
    2015. 07. 08. 15:41
    Nem érdekel, mekkora csoda a vízhűtés. Ha a konkurencia tud olyan terméket csinálni, ami levegővel is elveri, akkor meg pláne nem.
  • 139.
    2015. 07. 08. 14:51
    Ez csak most tűnt fel nekem, köszi, hogy felhívtad a figyelmemet.
    Kár ezért

    Pár év múlva az 8as szériánál R9 890 lesz az alsó kategóriás, beugró termék
  • 138.
    2015. 07. 08. 14:49
    Sokáig várhatott hogy kijojjon a 7 7 7 7 most képzeld egy honapig nem ir semmit
    Nincs vizhutássel semmi baj csak jo minoségu viz kell rá stabilan tartja vele az 50 fokot nyáron az nem hátrány
    A sikitos pumpát már lecserélték rajta ha lecsavarod a 4 csavart és nem zold a matrica rajta akkor nyertél
    Akinek ez nem tetsuk megvárhatja ezt a vizes Fury X et is


    A HDMI 2 hiányáért lehet morogni ezt aláirom majd nyáron veszel hozzá egy HDMI2 átalakitot
    max az rohato fel hogy ezt nem mellékelik
    Akinek meg nem szimpi a vizes várja meg a Prot 14 én jon ki egy hét mulva és szép custom hutések vannak benne
    Akinek meg nem surgos megvárhatja a Nanot vagy a 380X et is
  • 137.
    2015. 07. 08. 14:23
    Oké, jó nekik. Én helyből nem vennék vízhűtéses cuccot. Ami levegővel már gyári beállításokon sem tud normálisan üzemelni, az nálam elcseszett terméknek számít.

    tomchee (10
    Pont ezért vagyok még csalódottabb.
  • 136.
    2015. 07. 08. 13:56
    Bungie Day!
  • 135.
    2015. 07. 08. 13:42
    Yay, valakinek feltűnt!
  • 134.
    2015. 07. 08. 13:35
    Tényleg
  • 133.
    2015. 07. 08. 13:18
    Csak én vettem észre a cikk publikálásának idejét? ...
  • 132.
    2015. 07. 08. 11:54
    Megint csak el lett tolva az egész. Most nem a 390 a csúcs hanem a fury. Most jól átbasznak mindenkit aki nem ért hozzá. Ugyan az van mint ami a 6870-6970-nél volt.
  • 131.
    2015. 07. 08. 11:52
    Nem csak bizonyos játékokban... A két kártya ugyanis nem ugyanaz, az elsőn 384 bites memóriavezérlő van, az utóbbin meg 256. Ezen kívül a gyártók az órajelekkel is játszanak, és az újabb kártyán nem feltétlenül magasabb, mint a régin.
  • 130.
    2015. 07. 08. 11:23
    Nem ferdítésnek vagy trollkodásnak szántam főleg nem flame-et akartam indítani egyébként én konkrétan a 280 szériáról olvastam hogy bizonyos játékok esetében jobban szerepelt mint a 380.Az megint más kérdés hogy amennyire én tudom a 380 a 285-nek lett az átcímkézett változata de árban hasonló kategória mindhárom.Azt viszont aláírom hogy az fps változás adódhat a játékokból is
  • 129.
    2015. 07. 08. 11:04
    De, ferdítés, mert ha egyszer a 370-et a 265-ből nevezték át, akkor nem következik ebből, hogy a 270-et el kell vernie. Az már az AMD ostobasága, hogy így számozta őket.
    Azt, hogy úgy írta, itt-ott, nem feltétlen úgy kell érteni, hogy több kártyánál, hanem mondjuk 1 kártyánál több játékban...
  • 128.
    2015. 07. 08. 10:58
    kötözködés ON. Közöm 0.

    "Légyszi azért ne ferdíts, amiről beszélsz, vagyis hogy némelyik 200-as gyorsabb a 300-asnál, csak a 370-nél igaz, aminél gyorsabb a 270,"
    Ez nem ferdítés, logikailag teljesen igaz. Van olyan (=némelyik) 200-as termék, amely lassabb, mint a 300-as. Ez tény, te magad is írtad. Az hogy miből lett átalakítva, azt a megállapítás nem közölte. Hol ebben a ferdítés ?

    MOD:
    Közben megnéztem az eredeti kommentet, ő úgy írta, hogy " itt ott".
    Ilyen formában arra utalva, hogy nem csak egy esetben van ilyen.
    Szóval mégiscsak ferdítés, ha csak akkor, ha egy esetben van csak ilyen.
    Ennek ellenőrzését most a lustaság és a közelgő ebéd miatt most mellőzném
  • 127.
    2015. 07. 08. 10:38
    Légyszi azért ne ferdíts, amiről beszélsz, vagyis hogy némelyik 200-as gyorsabb a 300-asnál, csak a 370-nél igaz, aminél gyorsabb a 270, viszont az nem a 270-ből lett átalakítva, hanem a 265-ből. Így nem meglepő, hogy lassabb a 270-nél, a 270x-ről nem is beszélve. Ez a hülye átnevezgetés persze már az AMD marhasága.
    Ami a VGA kérdést illeti: Vagy egy 970-es, vagy egy 390-es (sima változat). Ízlés kérdése, hogy melyiket választod (utóbbiaknak ahogy nézem, csökkent az indulóára).
  • 126.
    2015. 07. 08. 10:37
    nekem nincs problémám, én pont hogy az ipont akarom megóvni egy kis bevételkieséstől, mert vannak akik az ilyen apróbetűs hiányosságok kihasználásából élnek meg. És amúgy megmondanád hogy mi alapján nincs jogom kommentelni? Ami nincs tiltva az oldal szabályzatában vagy BTK/PTK-ban vagy az alaptörvényben (korábban alkotmány) azt szabad itt az oldalon, pont ezért mondtam hogy pontosítani kéne azt a mondatot a szabályzatban ha nem akarnak semmilyen reklámot látni a kommentek között, mert egyszer majd szó szerint jól ráfizetnek a törölgetések miatt.
  • 125.
    2015. 07. 08. 10:30
    "feljelent az információ és szólásszabadság jogtalan korlátozása miatt"

    Persze csak amiután tisztáztad, hogy neked végül is jogodban áll itt minden körülmények között kommentelni (nincs).
  • 124.
    2015. 07. 08. 10:30
    Lehet hogy nincs bent a szabályzatban de már nem 1x láttam hogy iponos emberek töröltek felhasználókat ezért.
    De ez számomra is szokatlan hogy nincs is benne.
    Kérvényezem is.

    Nekem is G1-em van és játékok alatt 1550Mhz-es GPU-van nem megy 58fok fölé.
  • 123.
    2015. 07. 08. 10:30
    Nekem is G1Gaming van, mindenkinek azt ajánlanám, annak van a legjobb hűtése az összes közül, még ebben a 30 fokos hőségben se tudom 60 fok felé nyomni 100% terhelés mellet sem. De Trollente mondta hogy 100 alatt kell maradjon, hát amit linkeltem az alatt maradt (a többi mind felette van pár ezerrel), még mindig csak jobb mint egy 770-es, de biztos érezhetően hangosabb is az a ref venti.
  • 122.
    2015. 07. 08. 10:26
    Ipon szabályzat: 2.Tilos: "2.6 A saját honlapok, aprók öncélú reklámozása."
    Magyarul csak a saját honlapom vagy hirdetésem reklámozása a tilos, ha másét reklámozza az ember akkor nem. Más nincs a szabályzatban ezzel kapcsolatban. Jobb lesz ha átírjátok a hivatalos szabályzatot mielőtt egyszer valaki feljelent az információ és szólásszabadság jogtalan korlátozása miatt. Mert csak úgy nem törölhettek olyasmit ami nincs megtiltva a szabályzatban. Én nem akarok reklámozni semmit, csak miattatok mondom. Én biztos nem örülnék neki ha ilyen miatt kéne egyszer sokat fizetni csak mert egy mondatot pontatlanul írtatok a szabályzatba.
  • 121.
    2015. 07. 08. 10:25
    hát, én a helyében rádobnám azt a 10 est és ha nem is feltétlen a G1 gigabyte ot venném meg, akkor ott a sima, azaz nem gaming verzió. Ez az egy ventillátoros nekem gyanús..
  • 120.
    2015. 07. 08. 10:13
    Célozgatni meg említeni se kell.

    Ginnai se örülne ha nála említenének egy olyan boltot ahol jobb a gariztatás vagy más.
    De nem védem az ipont mert hálálkodást nem nyújtanak a moderek fele.
  • 119.
    2015. 07. 08. 10:05
    nem reklámoztam, se linket, se weboldal nevét, se semmi ehhez hasonlót DIREKT nem említettem.
  • 118.
    2015. 07. 08. 10:02
    Ne reklámozz ezen az oldalon más helyet, szabályzat ismertetése.
    Esetleg privátba mehet, mert arra nem vonatkozik.

    Annyi hogy az AMD sosem akkora profittal játszik mint az nv.
    Cserébe viszont sokat el kellene neki adnia.

    De a mai világba a menő cégek mint ezt csinálják pl. apple, miközben Kínában ugyan azt, a tudó telefont megveszed 70-80k.
  • 117.
    2015. 07. 08. 09:54
    Ha pontosan kerek 100ezer a felső határ akkor ez esetben ezzel kapod a legjobb teljesítményt (99ezer):
    http://ipon.hu/webshop/product/gainward_3354_bliss_gtx970_4gb_gddr5_pcie______________batman_arkham_knight_kupon/821403
  • 116.
    2015. 07. 08. 09:52
    Tiszta sor számomra egyik cég sem különb a másiknál pont ugyanannyira félrevezetnek mindketten.Pl a 970 nekem nem az volt a problémám hogy az utolsó fél giga ram lassabb hanem hogy úgy próbálták elsütni hogy említést se tettek róla.nem érdekel hogy milyen a technológia ha egyszerűen jó és használható csak akkor mindent korrekten mondjanak el. Az emberek nagy része nem troll, ha valami minőség úgy is megveszi. Az amd meg a másik fele úgy adták elő a 300 szériát is hogy az majd megváltja a világot és most csodálkoznak hogy még az amd fanok is csalódottak. Kicsit olyan érzésem van az amd kapcsán most mint amikor megjelent az xbox huan hogy: koszos köröm technológia,meg KUTYA de a célközönségnek nem tudtak mit mutatni .
  • 115.
    2015. 07. 08. 09:49
    Az egyes gyártók a világ különböző pontjain szerelik össze a kártyáikat (legtöbben Kína, de van aki Taiwanon és asszem olyan is aki Európában), amihez a komponenseket megrendelik helybe, nem magát a kártyákat szállítgatják ide-oda... az elég fura megoldás lenne.

    Az nv is lehet adhatná olcsóbban a 980ti-t, de az amd is dirket erre a $650-s árra lőtte be a kártyáját. Ne állítsuk már be állandóan az AMD-t szentnek, az nv-t meg ördögnek...
  • 114.
    2015. 07. 08. 09:31
    A kártya témát nem jó helyen teszed fel, de most még segítek a törlés helyett: [LINK]

    A fury árazása azért maga, mert egy 600mm chip fekszik rajta, azt a chipet a TSMC gyártja Kínába, onnan viszik Dél-Koreába, ahol megkapja a Hynixtől a HBM memóriát, majd vissza küldik Kínába ahol meg össze szerelik, majd utána jön Európába. A HBM memória se valami olcsó.
    A szivattyút már kijavították, csöndesebb verzióra.
    Akár hogy nézzük a Fury árával nem lehet nagyon játszani mert mert drága komponensekből áll.
    Az nv viszont simán megtehetné hogy a GTX980ti árát lejjebb vigyen, de nem fogja mert az egyik legpénzéhesebb cég a piacon.
  • 113.
    2015. 07. 08. 09:23
    Megmondom őszintén én most csalódtam az AMD-ben és meg is érdemlik hogy kicsit pofára essenek.Jelenleg Amd kártyám van és azt tervezem most lecserélni(Asus5750). Direkt vártam a 300 szériát hogy majd szép igényesen bevásárolok és gyakorlatilag kiadták nagy csinnadrattával újra a 200 szériát csak átnevezve és úgy hogy itt ott még a 200 széria az erősebb.A HBM-es kártyákkal szerintem meg ott a szívás hogy hiába lenne a technológia jó ha a hűtés szivattyúja fütyül,nincs normális driver,az ára borzalmasan magas és perpillanat az nvidia hasonló kártyáját (ami hbm-nélküli) alulmúlja. Szerintem ha valaki ekkora pénzt áldoz kártyára az nem fog kompromisszumokat kötni.Egyszóval szerintem az egész szériát az árazással szabták el ami ráadásul úgy volt beharangozva hogy "agresszív"lesz .

    Mindemellett szeretnék tőletek tanácsot kérni.mint említettem kártyát szeretnék venni. Az elvárások:
    -WItcher3,GTA5 zökkenőmentesen fusson
    -Kb 3 évig ne keljen semmilyen kompromisszumot kötnöm a játékokkal
    -Fogyasztás tekintetében maradjon 300 w alatt
    -Amd vagy Nvidia is jöhet
    -ha teszem azt elbírná az occulus rift követelményeit az már csak hab lenne a tortán de ez nem kitétel
    -kb 100000 F alatt kéne maradni

    Ezt a kártyát találtam és erről kérném a véleményeteket illetve ha tudtok jobbat arra is kíváncsi lennék.Arra kérnélek benneteket hogy maradjunk a tényeknél és ne olyan tanácsot adjatok hogy vegyél x márkát mert jobb hanem akkor írjátok oda azt is hogy miben. Ha valaki tud segíteni annak előre is köszi.

    http://ipon.hu/webshop/product/manli_m_ngtx770_5r8hddp_gtx770_2gb_gddr5_pcie/1061239
  • 112.
    2015. 07. 08. 08:58
    Én azért megjegyzem azoknak akik abban reménykednek, hogy dx12 alatt hasítani fog. Lehet, de nem most. A DX12 igazi korszaka még odébb van. Mire igazi programok jönnek hozzá addigra ezek a kártyák alapjában mind kukázva lesznek és a kutya sem néz rájuk. Másrészt arra alapozom ezt a nézetet mert a DX12 specifikációi alapjában még csak most került elfogadásra. Na most a GCN architektúrával ellátott kártyák pedig már egy jó ideje piacon vannak. Szóval az a gond, hogy egy valamikor elkészült kártya nem tudhatja fejlett módon kihasználni egy olyan API tudását amely később jelenik meg. Ezt csak a következő generációs kártyák lesznek képesek kihasználni optimálisan mert ott már úgy tervezhetik a fejlesztéseket amely figyelembe tudja venni a már meglévő DX12 APU sajátosságait, előnyeit és annak hátrányait is.
  • 111.
    2015. 07. 08. 08:56
    dehogynem, én pont a holnap jövő GTX970 emnek örülök AMDt meg sajnálom... dehát kapja össze magát!
  • 110.
    2015. 07. 08. 08:02
    Az nvidia pártiak max annak örülnek, hogy igazuk lesz.
    Másnak nem.
  • 109.
    2015. 07. 08. 07:23
    Ez minden pontosan úgy van ahogy mondtad, én is megerősítem.
  • 108.
    2015. 07. 08. 07:18
    Én magam szeretem mindkét gyártó kártyáit, szal félre ne értsetek, nem akarom védeni az AMD-t, de a NV pártiak most minek örülnek ennyire?
    Elmarad az árverseny gyerekek hahóóó!!! ...
  • 107.
    2015. 07. 08. 03:04
    kiskoller: +1, Ez telitalálat volt!

    Amúgy ilyenkor hol van atti2010 hogy megvédje az amdt? Tán ki lett tiltva?
  • 106.
    2015. 07. 07. 23:10
    Tarrtom azt, amit múltkor mondtam: ilyen árban valaki nem FHD-ra vesz játékot, vagy ha igen, akkor egyszerűen elpazarolja a pénzét.
    Az meg, hogy a jövőben a Fury (X)többet nyer-e a DX12-vel sebességben, mint egy 980 (980ti), majd sajnos csak idővel derül ki. Viszont én így jelenleg biztos nem adnék ki 250e Ft-ot (illetve afelett) egy VGA-ra.
  • 105.
    2015. 07. 07. 23:07
    azért ez elég durva és nem hinném, hogy csak a Furyk miatt van, sokkal inkább a 300-as sorozat miatt
    Elég elképesztő, hogy 2012 márc. óta megnegyedelődött a részvények értéke. Lényegében a HD7xxx sorozat óta folyamatos a lejtmenet, amit láthatóan a Furyk körüli hype egy kicsit megfordított, de az alulteljesítésük meghozta az eredményét. Mégis megérte volna a Fiji GPUt bedobni a 300-as sorozatba is.


    @kiskoller
    ez annyira a fején találta a szöget, hogy nincs rá szó
    +1
  • 104.
    2015. 07. 07. 22:53
    Most mit panaszkodsz? Majd a Zen elken itt mindent és nem lesz semmi probléma.
  • 103.
    2015. 07. 07. 22:05
    Hát pont így... +1
  • 102.
    2015. 07. 07. 22:00
    Jó nagyot esett mikor tavaly bejött a GTX900-as széria...
  • 101.
    2015. 07. 07. 21:47
    Piros szívűek most mondjanak el pár miatyánkot. A sok töketlenkedés meghozta az eredményét. [LINK]
  • 100.
    2015. 07. 07. 21:09
    Ha mint mondod a mának élsz akkor kis felbontáson teljesen mindegy hogy 110 helyett 100 at visz csak a tv úgyis 60 jelenít meg csak SŐT addig a benne levő technologia miatt beállítja 60 fps re és addig pihen a kártya ergo kevesebbet fogyaszt nagy felbontásokon meg jol teljesit a kártya van ahol megveri a titán X et is 4 k ban.
    a vizet sokadszorra mondom el bár úgyis feleslegesen nem tuning miatt tették rá. Emiatt nem is lehet feszt állítani
    Az áramszivárgások 50 fokon teljesen megszűnnek, ergo nem szabadul el neki a fogyasztása.
  • 99.
    2015. 07. 07. 20:56
    Azért van rajta víz (állítólag), hogy alacsony maradjon a maghőmérséklet, így kisebb a szivárgási áram, ami ugye kisebb fogyasztásban nyilvánul meg.
  • 98.
    2015. 07. 07. 20:45
    Ezen jót mosolyogtam Vicces is meg igaz is.
  • 97.
    2015. 07. 07. 20:43
    Visszamenőleg max 4-5-be aminél meg lehet oldani kevés munkával egy patch formájában. A legtöbb játéknál vagy egyáltalán nem lehet technikai okokból megoldani, vagy túl sok munkával járna mert a fél játékot újra kéne írni, vagy csak egyszerűen nem áll érdekében a fejlesztőknek pl. egy amúgy is gyenge grafikájú játéknál.
  • 96.
    2015. 07. 07. 20:39
    Ha a Fury X hozza a GTX980 Ti fogyasztását, ahogy a teszt is mutatja, akkor minek rá az a rák vízhűtés? Pláne, hogy tuningolni sem lehet.
  • 95.
    2015. 07. 07. 20:33
    Ezt igen kimerítő összesítő az amd "jóféle" marketingjéből...fasza
  • 94.
    2015. 07. 07. 19:36
    Az is árnyalja a képet, hogy hiába hasonló áron van a zöld és a piros kártya, a Furyban kb ez a max, nem nagyon huzhatod. A legtöbb 980ti viszont lazán megy 1.4ghz-en, ott meg már a Fury kanyarba sincs. Ha jó képességű kártyát fogsz ki, akkor még 1.5ghz fölé is benézhetsz.
  • 93.
    2015. 07. 07. 18:47
    Öhm. De. Van. Több mint fél éve vagyok fél éve 970 tulaj (MSI), magával a teljesítménnyel nincsen baj, de egyből leesik amikor belefut a maradik fél GB-ba. Két (eseteként 3) monitort hajt, természetesen ebből csak az egyiken megy a játék, de időnként 20-30 fps-t kidob az ablakon. Ami nem feltéltlen kellemes 115e. magyar forintért. 80-ért ez már kevésbé érdekelt volna.

    Mellesleg én csalódtam az AMD-ben, el is akartam adni a 970-em a bemutató előtt. Nem bántam meg. Arra számítottam, hogy legalább a 380X-390 hoz valami újdonságot. A Fury X azonos árú a 980 Ti-vel szemben meg pláne nem éri meg.
    AMD, ez így nem lesz jó. A DX12-vel meg felesleges érvelni, sok júzert nem a jövő, hanem a jelen érdekli.
  • 92.
    2015. 07. 07. 18:31
    Az a baj ezzel, hogy mire kijönnek a DX12-es játékok, szerintem túl sok idő telik el, hogy aki a mának (is) veszi a VGA-t, az a Fury X mellett döntsön. Visszamenőlegesen meg nem tudom, hány játékba tesznek majd DX12 támogatást (ha egyáltalán van erre bármilyen mód).
  • 91.
    2015. 07. 07. 18:26
    Lassúak a Phenom procik, de nem baj, a Bulldozer majd mindent elver. Komoly újítások vannak benne, el fogja kenni az összes i7-et!

    Nem olyan gyors a Bulldozer, de ez a Vista rossz ütemezője miatt van. Majd ha kijön az ütemező patchje, akkor sokat fog gyorsulni.

    Nem gyorsult egyáltalán a Bulldozer a patch után, majd a Windows 7el!

    Nem gyorsult a Windows 7-el, de csak mert a játékokat 2 szálra írják meg. Majd pár év múlva mindegy játék 8 szálon fog futni, és akkor a Bulldozer elkeni az összes i7et! Hosszú távú befektetés!

    Hát, nem lett jó a Bulldozer sehogy se, node majd a Llano APUk, nah azok lesznek ám kemények!

    Jó, nem lett jó a Llano, de csak mert nem igazi Apu, node már Trinity az lesz!

    Nem olyan jó a Trinity, de csak mert a programozók nem tudnak heterogén programozni. Majd amikor megjelennek a nextgen konzolok, benne a fasza Jaguar procikkal, nah akkor lesz ám fasza! Elkeni az összes intel procit!

    Nah, már pár év telt el, és még mindig sehol sincs a várt szoftver, procik piacán AMD labdába se rúg, node GPU-ban még mindig király, jön a GCN!

    Nem úgy sikerült a GCN, ahogy vártuk, de nem baj, jön a Mantle! Nah az majd kihasználja GCN minden erejét!

    Nem vált be a Mantle, kb 3 játék ha használja, de nem baj, jön a HBM memória! Az kell a népnek!

    Jó, itt a Fury a HBM-el, nem nyert semmit a gyermekbetegségek miatt, node nem is DX11-re tervezték! Majd DX12-vel elkeni az összes nvidia kártyát!


    Remélem nem kell tovább részleteznem. I rest my case.
  • 90.
    2015. 07. 07. 17:48
    Hát ezek az értékek Direct x 11 en érvényesek.
    A Furyt meg kifejezetten Direct X 12 őre építették ezért nem tartalmat 128 rop egységet ami Direct x 12 ben nem kell annyira viszont DirectX 11 alatt hátrány.
    Szóval térjünk vissze 3 hét múlva a tesztekre A Proval majd és meg fogtok lepődni.
  • 89.
    2015. 07. 07. 17:05
    Meg közben nézem azt is, hogy pl. itt a Zotac-MSI 980ti vagy 20e-rel olcsóbb, mint varázslóéknál.
  • 88.
    2015. 07. 07. 17:02
    Mivel én épített vízzel hűtöm a CPU-t és a VGA-t nekem az alapár a mérvadó. 980ti -re és Fury X-re is kell vízblokk, tehát az mindkettő esetén plusz költség. Viszont a 980ti+vízblokk kb ugyanannyi mint a Fury X alapára. Itt az Iponon az az Asus még drágább...
  • 87.
    2015. 07. 07. 17:00
    Tény, hogy ha az alapárakat nézzük, akkor olcsóbb a 980ti (varázslóéknál amit találtam legolcsóbb Zotac 255e, Fury X MSI Sapphire stb. 264e), de ha egyforma rendszereket hasonlítunk össze, akkor egy hybrid hűtéses Inno3D 980ti 285e Ft-ba kerül. Oké, értem, a 980ti van léghűtéssel is, minek költsünk pluszba rá, ha nem szükséges, meg sokan tartanak a vízhűtéstől, de szerintem ez hozzátartozik a teljes képhez.
    Más: azért röhej, hogy a VTX3D, Sapphire, Powercolor, MSI és Gigabyte Fury X "variánsai" egységesen 264.370 Ft-ba kerülnek, az ASUS-ét pedig 271.520-ért árulják.
  • 86.
    2015. 07. 07. 16:54
    1 hónap múlva lehet, de az induló ár nagyon magas. Aki azon gondolkodott, hogy 980ti vagy Fury X az szerintem a 980ti mellett dönt. Engem legalábbis nem győzött meg, hogy érdemes lenne Fury X-et vennem. Ha olyan 200 körül lenne az ára azt mondom, hogy jó vétel, de majdnem 265-278 ért...
  • 85.
    2015. 07. 07. 16:50
    1 hónap múlva lejjebb megy szerintem az ára. De nekem mondjuk mindegy, százezret sem adok egy kártyára, nemhogy hármat. De még azt is rohadt soknak tartom amikor 15 ezres videokártyákon nőttem fel
  • 84.
    2015. 07. 07. 16:41
    Elvileg olcsóbb lesz, gyakorlatilag nem az. Itthon sem és külföldön sem. USA-ban egy áron megy a 980ti-vel, itt az Iponon pedig kb 30 ezerrel drágább a Fury X. A varázslónál is 15k val drágább. Én pl vártam, hogy milyen áron lesz a Fury X de ennyiért inkább 980ti a nyerő.
  • 83.
    2015. 07. 07. 16:37
    Jól választottál, nem fogsz benne csalódni, ezt én garantálom neked, tapasztalatból.
  • 82.
    2015. 07. 07. 16:25
    Mivel elvileg olcsóbb lesz mint a GTX980Ti, ezért nem tartom akkora katasztrófának hogy egy kicsit gyengébb nála. Mindig ilyen volt a videokártyapiac, amikor még ezeknél is több szereplő volt (S3,Matrox stb..) hogy többé kevésbé fej fej mellett haladtak. Nem úgy mint ahogy azt egy mezei ember képzeli hogy majd ráver vagy 60fps-t egyik a másikra ugyanazon generációban. A játék optimalizáltságától is függ a teljesítmény, majd patchekkel akár jobban megközelítheti az NVidiát némelyik játéknál, nem mindegy hogy Cuda meg anyám tudja mikre hogy van optimalizálva valami.

    No meg ilyen MSAA meg TXAA-val amik közelebb állnak az NVidiához szép hogy bukik néhány fps-t az AMD, mondjuk soha nem használom egyiket se az NVidia kártyáva sem. Mert különbség csak a teljesítményben látszik, látványban kevésbé.
  • 81.
    2015. 07. 07. 16:24
    Na de hát ez SLI-ben van, úgy nyilván nem próbáltam ki mert nekem csak egy van, de azt nem akasztja meg semmi! AZ utóbbi pár évben amúgy is minden szarul fut SLI-n meg CF-en mert a mai játék-motorokhoz már nem alkalmas, a régi játékok +90%ot is profitálhatnak belőle de az újak jó ha egyáltalán tudják használni de a legtöbb vagy csak kis teljesítménynövekedéssel vagy valamilyen hibával mint pl az a videó is amit belinkeltél. Előzőleg SLI-m volt 2 db GB-GTX560Ti-SOCv2. Ja, és a Mordor sem akasztotta meg érdekes módon a mostani GB-GTX970G1G.-met, hiába húztam annyira a beállításokat hogy kifusson a VRAM-ból! Bár nem 4k-n próbáltam az tény, de akkor is túl volt a 3,5 GB-on. Kiadáskor lehet akadt volna de én csak később próbáltam ki, új driverrel, ami nem véletlen már 15 éve mindig a legtöbb grafikai probléma kulcsa (na meg persze a patchek). Az NVidia azt cáfolta hogy hardveres javítás lesz, az nem lett mivel nem is kellett, szoftveren meg lett oldva, de ha nem hiszed, gyere itt van próbáld ki és meglátod a saját szemeddel a gyakorlatban is az eredményt.
  • 80.
    2015. 07. 07. 15:55
    OFF

    Úgy látom megy a tévelygés. ez a 3,5 gigázás is kapásból hülyeség, mert ott van a maradék is, ezen kívül a vram-gate előtt mindenki lexarta, hogy hány giga, a teljesítményt és az eredményeket nézték - amiben pedig a 970 igen jó. Én SLI-ben hajtok két 970-est (novemberben vettem az elsőt, kézenfekvő volt, hogy mellérakok egy másikat) és 4k monitorom is van, tehát empirikus alapokon tudok nyilatkozni a dologról. A Shadow of Mordor ultrán, antialiasing nélkül (mert mi a túrónak kapcsolod be ekkora pixelsűrűségnél) vajpuhán megy és 3,7 gigát eszik. Arról nem is beszélve, hogy a jobb gyártók custom pcb+zsír hűtős kártyái igen komoly overclock potenciállal rendelkeznek, két kicsit piszkált 970 gond nélkül kihoz 10-15%-kal jobb teljesítményt, mint egy 295X2. Egy darab 970 akkor működőképes 4k-ban, ha mindent mediumra vagy lejjebb raksz, de még akkor is szebb lesz natív nagy felbontáson, mint fullhd-ban a rengeteg csilli-villi szűrővel meg simítással. Először tessék kipróbálni és megtapasztalni, utána lehet elmélkedni róla. A neten található tesztek (tisztelet a kivételnek) is majdnem mindig agyatlanul felpumpálják a grafikai beállításokat, fölöslegesen terhelve a kártyákat és fals, valós felhasználástól elrugaszkodott eredményeket kihozva a közönségnek, akik tapasztalat híján ezt feltétel nélkül elhiszik.

    Aztán még ott van a dx12 is, ami a nyakunkon van és lesz memory stack az újabb játékoknál (tehát az SLI igen szerencsés fordulatot vesz). Most az a helyzet, hogy néhány rosszul optimalizált, teljesítményzabáló játék megfogja az elérhető árú, felső kategóriás videokártyákat 4k felbontáson, max beállításokon, az eljövendő játékok és driverek pedig sokkal jobban lesznek optimalizálva, ezért a most kifogásolt limitek (pl kevés vram) nem lesznek jelen, vagy legalábbis sokkal kevésbé. Azt pedig ki tudja, hogy mikor fognak a játékok 6-8 giga vramot enni, a fejlődés üteme változó.

    Bocs, ON.
  • 79.
    2015. 07. 07. 15:52
    ha már ennyire szóba jött a GTX970, pont ma esett az ára nem is kicsit, így meg is rendeltem egy G1 gamingot, FHD nál nagyobban az életben nem fogok játszani, szóval tökéletes lesz AMD meg kapja össze magát, mert ez így nudli...
  • 78.
    2015. 07. 07. 15:47
    ahogy emlékszem tényleg nem vagy nagy ász

    @cryd
    [LINK]
  • 77.
    2015. 07. 07. 15:29
    A HBM-et bárki használhatja, akár csak a GDDR5-ot. Az AMD segitett implementálni, de a gyártást a Hynix végzi, hulye lenne nem eladni másnak is. Márcsak azért sem mert Samsungék is fejlesztik a magukét, addig a hynix meg piacot szerez.
  • 76.
    2015. 07. 07. 15:14
    Valaki még leírná h Nvidia mikor jelentette be hogy HBM memot fog használni? Hozzám csak annyi jutott el a Pascal bemutatásakor, hogy 3D memóriát fog használni. (NEM, nem ugyan az, mert a HBM-et ADM-ék fejlesztették, és nem hiszem, hogy bele mentek abba, hogy fizessenek érte -főleg AMD-nek-, lehet saját fejlesztés vagy más cég gyártmánya.)
  • 75.
    2015. 07. 07. 15:08
    Huh. Szóval. Írtam hogy nem normális az aki két 970-et rak SLI-be a VRAM miatt. Viszont ha nincs SLI, tehát 1db 970-es van magában akkor 4k-ra már kevés. Ott már nem a VRAM fog limitálni. Tehát FHD felett már a GPU kevés így a vram teljesen mindegy.
  • 74.
    2015. 07. 07. 15:04
    Sourceozok, majdnem 300 fps-sel megy, szóval tudom miről beszélsz. Nem vagyok egy nagy ász, de azért tudok játszani vele.
    multi FPS-eknél, autós játékoknál nem árt, ha van több fps-ed, de TPS-eket és egyéb játékokat lehet 30 fps-sel játszani. Pl. nekem tökéletesen elég Witcher 3-ban a 30-40 közötti fps érték.
    A másik dolog: szerinted akik versenyszinten játszanak FPS-sel, azok 4k-ra vagy az ultra beállításokra izgulnak?
  • 73.
    2015. 07. 07. 14:54
    Én még emlékszem olyan játékokra amikben nagyobbat lehetett ugrani ha több volt az fps, azóta mondjuk sikerült már normális fizikákat írni.

    De a 30 feletti fps az nem fétis, ha pontosan kell célozni akkor nem átlagban, hanem minimumnak kell a 144fps (nomeg a 144hz monitor hozzá).
    Miért is van ez?
    Ha fél képernyőt fordulsz 0,3 sec alatt az kb 150fok/sec, ha közben 30fpsed van, akkor két frame között 5fok lesz az eltérés, az egyiken még az ellentől balra, a következőn már jobbra lesz a célkereszt, esélyed se volt eltalálni.

    Attól hogy te nem vagy elég gyors ahhoz hogy érezzed a különbséget 30fps felett az nem azt jelenti hogy nincs is különbség.
  • 72.
    2015. 07. 07. 14:43
    Jó ez a kártya, csak kár volt a marketinggel elrontani és titan verőnek titulálni. Ez egy kicsit olyan volt megint, mint mikor a Bulldoser architektúra jött ki és mindenféle i7 verőnek titulálták, aztán jött a feketeleves.
  • 71.
    2015. 07. 07. 14:05
    Nem értelek. A Fury X 4 GB rammal ha jól néztem a Crysis 3-on kívül (ott is közel 30) minden játékban 4k-n 30-40 átlag fps-t produkál. Az játszhatatlan lenne? Persze, akinek a 60 fps a fétise, annak biztos.
    Egy a lényeg, majd valami Fury X vagy Fury X CF 4k videót kell nézni, és ha ott is jelentkeznek ilyen hirtelen 30-35 fps esések, mint ezen a videón, akkor lehet azt mondani, hogy kevés a 4 GB memória
  • 70.
    2015. 07. 07. 14:01
    Mint ahogy írtam. Magában kevés lenne. Szóval egy darab. SLI-ben nem éri meg már csak a 4GB(3.5) VRAM miatt sem.

    Persze nem lehet tudni, hogy mikor vette. Még a hiba kiderülése előtt vagy után. nVidia-t sem értem teljesen. Persze nem hazudtak mert 4GB van rajta, de 3.5 után nem ér semmit. Inkább lenne 3.5. Lehetne választani driverben, hogy használhat e 3.5 felett vagy nem és kész. Hiába tudja használni a maradék 500-at ha lesz miatta 20 fps.
  • 69.
    2015. 07. 07. 13:57
    Egyetértek mindkét dologban:
    -az árképzéses felvetésedben (csak azt meg gondolom azért nem tehették meg, mert drága volt az előállítás, és valahol be kell hozni)
    -ha ennyi pénzt rászánnék egy kártyára, én is a 980ti-t választanám, EBBEN a pillanatban
  • 68.
    2015. 07. 07. 13:52
    Nézd meg, szépen tartja a 40-50 fps-t a legtöbb helyen, aztán random módon leugrik 20 fps-re, de van ahol 16-ra is lemegy. Ha sok helyen tartja a 40-50-et, vajon miért vannak helyek, momentumok, ahol 16-20-at produkál? Nézd végig a videót.
  • 67.
    2015. 07. 07. 13:39
    Hát aki elég hülye hogy SLI-be rakjon kettőt.

    Magában kevés lenne ekkora felbontáshoz szóval ott nincs probléma.


    chiller: A Titán teljes értékű chip, a 980 Ti egy vágott Titán, a 980 megint csak egy teljes értékű chip, a 970 pedig egy vágott 980.
  • 66.
    2015. 07. 07. 13:33
    Parancsolj, pl ez a baj vele.
    És mond meg kérlek, mi lett rajta javítva, mert az NV közleményben cáfolta, hogy bármilyen javítást eszközölnének hozzá.
  • 65.
    2015. 07. 07. 13:31
    ja de még mindig jobb mint az AMD ami meg egy eke és mindig földbeáll
  • 64.
    2015. 07. 07. 13:21
    Ez az nVidia dolog valami utánfutó? Csak mert mindenki állandóan húzni akarja.
  • 63.
    2015. 07. 07. 13:21
    Micsoda átbaszás, de te leleplezted őket
  • 62.
    2015. 07. 07. 13:19
    szignifikánsan sosem esnek a kártyák árai, mivel az MSRP adott, csak akkor van igazi árváltozás, ha az nv megvágja az MSRP-t. a gtx970-nek eddig nem volt ár/teljesítményben ellenfele, se nem volt nála újabb modell a kategóriájában, akkor minek essen az ára? megnézed, akkor pl. a Samsung 850 Pro SSD-k árai is lényegében egy 10-15%-os sávban mozognak amióta megjelent.

    @chiller
    már megbocsáss, de ez baromság
  • 61.
    2015. 07. 07. 13:07
    Gratulálok, Te is bedőltél a marketingnek. A GTX970 nem a korábbi x70 kategóriája.

    GTX 480, GTX580 és GTX 680 volt anno a teljes értékű chip, és a GTX 470/570/670 a vágott változat.

    Most a Titan QWERTZ a teljes értékű chip sok-sok pénzért, és a 980 Ti/980 a vágott változat.

    Ha a 4xx sorozatot vennénk irányadónak most is, akkor a TitanX lenne a 480, a 980Ti lenne a 470, a 980 lenne a 465, és bizony a 970 lenne a 460.
  • 60.
    2015. 07. 07. 13:03
    Kíváncsi leszek egy nVidia kártyára HBM memóriával.
  • 59.
    2015. 07. 07. 12:58
    Remélem a gtx 1070 túlszárnyalja a gtx 980 ti-t, mert akkor tuti vétel lesz. Az nvidia úgy láttam, hogy memória téren volt lemaradva eddig, így eszmeletlen gyors kártya lehet.

    Hát igen sajnos nem a kis hazánk pènztárcàjànak szabták az árakat. Amerikában most néztem 25 dollár az átlag órabér és 329 dollár egy gtx 970. 2 nap alatt összelehet dobni egyet.

    Gery84:én 90 ért vettem újonnan az MSI Gaming 4G verziót pont akciós volt és erősen gondolkoztam hogy veszek egy 980 ti-t ezt meg eladom 95èrt, de türelem rózsát terem
  • 58.
    2015. 07. 07. 12:57
    Szerintem ez a HBm szép és jó, de a Fury X azért nem lesz siker, mert ugyanannyiért adják, mint a 980 Ti-t, ami kb. mindenben gyorsabb nála. Nem mindenki foglalkozik azzal, hogy milyen meleg és mennyit fogyaszt. Vki csak megnézi a benchmarkokat és azt látja, hogy ennyi pénzért a 980 Ti jobban teljesít és még húzható is rendesen. Én mindig is AMD párti voltam, de ha a kettő közül kellene választanom, most akkor most az nVidia mellett voksolnék. Jah igen, még valami! Velem elhitették a nagy hype közepette, hogy bealáz mindent és így csalódnom kellett bennük. Kb. ugyanaz a helyzet, mint a Bulldozerrel anno. Ilyen meg olyan nagy teljesítményt ígértek meg stb., aztán mi lett belőle. Mondjuk ez a HBM jó lesz, csak még gyerekcipőben jár. Nem kellett volna ennyire hype-olniuk és kicsit olcsóbban kellene árulniuk és akkor nem lenne baj.
  • 57.
    2015. 07. 07. 12:53
    A stabilitás az nekem is fontos. Nem szeretem ha valami vacakol. Az meg tényleg nem jó hogy kissé divattá vált mostanság idő előtt, befejezetlenül, bugosan kiadni játékokat amik day1 patch nélkül el sem indulnak, és a nagyobb kritikus hibák javítása meg 1-2 hét is lehet. Értem én hogy fontos nekik a pénzügyi könyvelés ez általi manipulálása a befektetők miatt, de hát akkor is. És nem a driver hiányosságokról beszélek, hanem arról ami csak a fejlesztőkön múlik. De mondjuk az ő munkájuk meg a vezetés parancsain múlik. Hát na, még is csak üzlet ez, ami pénzről szól, nem a jószándékú szórakoztatásról.
  • 56.
    2015. 07. 07. 12:51
    Fal: A GTX970 tényleg jó "ár/teljesítmény/fogyasztás" hármasban, én mindenkinek csak ajánlani tudom.
  • 55.
    2015. 07. 07. 12:48
    És nézz utána hogy 1 év alatt a x70 kártya áraik mennyit estek a 970-hez képest!!!!
    Mert amiket írtál indulóárak amik folyton csökkentek, de a 970-es még mindig tartja a 329$, mondjuk engem nem zavar mivel ugyan azért a pénzért el tudom adni amennyiért novemberben vettem.
  • 54.
    2015. 07. 07. 12:40
    egy fél kategóriát tévedsz, a 970 felső-középkategória, a 960 a középkategória és a 950Ti az alsó-középkategória

    az árak meg igazából nem nagyon változtak az utóbbi 5 generációban:
    gtx 470: $349
    gtx 570: $349
    gtx 670: $400
    gtx 770: $399
    gtx 970: $329

    lényegében a gtx 970 az utóbbi évek legolcsóbb kártyája a kategóriájában.
  • 53.
    2015. 07. 07. 12:39
    Tudod ez nem ilyen egyszerű. Így is baromira elkéstek már egy új architektúra fejlesztésével de ezzel most nem csináltak semmit. A 300-as sorozattal csak beégették magukat. A HBM-nek meg mi lett volna ha 1 hónap múlva dobom piacra? Már így is elkéstek vele. Ők is jobban jártak volna szerintem, hogy hoznak egy új architektúrát 28-on és közben úgy novemberben piacra tettem volna ezt a Furyrt. Na igen, A GCN-nek amennyi előnye van annak annyi hátrányával is meg kell birkózni architekturálisan. Márpedig a visszafelé kompatibilitás nem olcsó mulatság és nem könnyű munka. Ráadásul lassítja az új fejlesztési lehetőségeket is. Ez nagyon hasonló mint az AM-es procifoglalatok esete.

    Értsed meg. Nem tehetik meg, hogy nem adják el másoknak. Soha nem térülne meg a fejlesztés de a legnagyobb baj, hogy szabványként sem lehetne akkor jegyezni. Arról nem is beszélve, hogy nem az AMD tulajdona maga a termék, sőt az övé a kisebb hányad a fejlesztésben. Itt nem magról beszélünk hanem memóriáról. Arról nem is beszélve, hogy ugyan megtehette volna a két cég, hogy megtartják sajátnak de akkor nyugodt lehetsz abban is, hogy már régóta a többi cég is csinálta volna a sajátját. Az pedig zsákbamacska mert rengeteg konkurenciával kellene harcolnia a HBM-nek és a veszítenek akkor végük.
  • 52.
    2015. 07. 07. 12:34
    Pont ezért fejlődtek ki az API-k, ezért kevésbe bugosak a ma játékai mint a régiek. Én ezért érzem visszalépésnek a hardverközeli API-kat.

    Engem nem zavar, ha fele olyan gyors a GPU, ha cserébe stabil, és kevés energia átlagos grafikát kreálni, ami által több energia jut a játék egyéb aspektusainak fejlesztésére.
  • 51.
    2015. 07. 07. 12:32
    Engem már csak az frusztrál hogy fűzetésem 3x-át kellene kifűzetni hogy egy felsőkategóriás kártyát tudja venni.
    A kártyák árai eléggé elszálltak, ez annak is köszönhető hogy az AMD nem tud rendes konkurenciát állítani az nv-nek.
    És ezért nincs árháború.
    Ha úgy vesszük egy 970-es egy közép kategóriás kártya 100k kerül.
    a 960-as is 60k kezdődik ami alsó közép kategória.
  • 50.
    2015. 07. 07. 12:13
    Nem voltak hülyék azok az NVIDIA jó pénzt fizet az AMD-nek gondolom a HBM2 miatt. Az emberek meg még fizetnek is azért, hogy bétatesztelhessék a HBM-et. A jelenlegi helyzetet tekintve pedig választásuk nem igen volt.
  • 49.
    2015. 07. 07. 11:52
    Renhoek Én saját magam tapasztaltam, és ki is monitoroztam a memória használatot. De még 1x mondom jött egy új driver ami már nem engedi kifutni a memóriát. Egyszóval már nincs semmi probléma vele fullHD-n.

    szilaattila
    Samsung perelte be, mikor az nv is perelte őket. Pontosan a Tegra tesztek miatt.



    rini
    AMD mindenképp lépni akart mivel jövőre indul az nvidia pascal gpu HBM2 memóriákkal. 16nm gyártással.
    Ezek után nem csodálom hogy az AMD inkább eladja a céget.
    Mondjuk én még mindig azt mondod hogy hülyék voltak, hogy a hynixnek engedték a HBM memóriák gyártását az nv-nek.
  • 48.
    2015. 07. 07. 11:50
    Legfeljebb abban hogy az új konzolok is GCN-esek és egy játék PC-re portolásánál kevesebb munkát kell az adott játék támogatására fordítani az AMD-nek mint az NV-nek. Az már más kérdés hogy a szükséges munkából ki menyit végez el.
  • 47.
    2015. 07. 07. 11:39
    Én meg amondó vagyok, hogy ne tépjétek egymást. Attól nem lesz sem jobb, sem rosszabb. Véleményem szerint az AMD kissé korán lépett ezzel a kártyával arról nem is beszélve, hogy néhány okos matematikus a konkurenciánál jól kiszámolta, hogy mit tudhat ha elkészül a FuryX. Szóval pont oda meg is alkották a saját terméküket és ezzel jól hasba is rúgták őkelmét. Persze, a cikk jól írja, hogy a HBM-é a jövő csak az a gond, hogy még egyenlőre a jelenben vagyunk és én a jelenben akarom kihasználni a kártyák tudását. Majd 1-2 év múlva lehet beszélni a HBM korszakról ténylegesen mert addigra sokat fog fejlődni. és nem 1-2 kártya fogja használni az általa nyújtotta előnyöket. Sőt, szerintem abban is biztosak lehetünk , hogy a konkurencia sem fogja egyből a teljes termékpalettáját HBM-es kártyákkal kitölteni. Egy ideig ez a csúcsmodellek illetve a felső kategória kizárólagossága lesz náluk is.

    Egyébként a kártya hozza a majdnem kötelezőt de csak majdnem. Nem rossz kártya ez. A hibát inkább én is ott látom, hogy 1.4-es csatlakozó egy ilyen kártyán? A másik hiba szerintem az, hogy az emberek 99%-a még mindig nem 4k-ban játszik hanem inkább full HD-ban tolja. Ott pedig egyértelműen eltapossák a konkurencia kártyái. Szóval ez egy 4k célközönség számára kihegyezett kártya lenne 1.4-es csatlakozóval? Brutálisan nagy hiba tőlük.
  • 46.
    2015. 07. 07. 11:37
    "A konkurenciánál jóval fejlettebb Graphics Core Next architektúra...." magyarázza már el valaki, hogy miben is pls.
  • 45.
    2015. 07. 07. 11:34
    Mindenesetre összességében a HBM tényleg gyorsabb mint az eddig használt szokásos 7GHz+256bit vagy nagyobbaknál 384bit sín+memória kombó mert ha az 1GHz+4096bit-et összeszorozzuk akkor végeredményben nagyobb memória sávszélességet kapunk, de valljuk be, korábban míg nem jött ki a pontos paraméter addig legbelül mindenki azt várta (vagy csak én voltam ilyen nagyravágyó? ) hogy a 4096bit-es sín mellett szintén 7GHz marad a memória. Na az tényleg történelmi mértékű teljesítmény növelő áttörés lett volna.

    Ami még előnye hogy többé nem foglal helyet a NYÁK-on a RAM, így kisebb kártyákat lehet csinálni, de ugyanakkor ez hátrány is lehet mert a legtöbbre így kisebb hűtő fog kerülni ami megint visszahozhatja vagy tovább élteti a 80 fok feletti kártyák létezését. Mondjuk jó, lehet nagyobb hűtőt tenni rá mint a NYÁK, nekem is túllóg egy pár centit a GB-GTX970G1G.-n, na de kicsi NYÁK-nál milyen lenne? Egy erős kártyán egy jobb hűtő túllógna vagy 10 cm-t?
  • 44.
    2015. 07. 07. 11:25
    Főleg mikor reset után többé már nem indult el az XP és jöhetett az újratelepítés.
  • 43.
    2015. 07. 07. 11:23
    Uhh erre azt hiszem emlékszem,de nem az Apple jelentette fel, hogy a Tegra K1-et a leggyorsabb tablett SoC-nak hirdették? Aztán végül nem lett belőle semmi, mert a GPU igényes progiknál jócskán beverte az Applenek az akkori csúcs tablettjét
    Hát ez így van természetesen addig bütykölik a beállításokat, meg olyan helyre viszik ahol a legjobban nekik kedveznek, ezért is kéne pontosan odaírni a beállításokat, sőt a map-ot is akár kisbetűvel legalább. Viszont amikor az NV kijelentette hogy a 980 a leggyorsabb meg a Titan X akkor 99%-kban ők is voltak a leggyorsabbak. Persze régebben lehet, hogy csináltak hasonlót nem mondom, hogy az NVIDIA a kisangyal, de jelenleg nekik nincs szükségük ilyen marketing bullshitre.
  • 42.
    2015. 07. 07. 11:17
    Igen, ez nekem is megfordult a fejemben.
  • 41.
    2015. 07. 07. 11:16
    Igen, szerintem visszaköszön majd szépen a kékhalál és reset korszak Szerencsére az SSD-k korában gyors egy reboot...de emlékszem régen mekkora szenvedés volt egy kékhalál után

    Legalább a DX11 ettől megvédett minket, bár nagy erőforráspazarlás mellett.
  • 40.
    2015. 07. 07. 11:15
    Én kicsit félek is a DX12-től, mert az ok hogy jobb teljesítményt hoz a hardverközeli hozzáférés miatt, de a driverek válláról nem csak a munkát veszik le hanem az irányítást is elveszik tőle, ezért nagyobb támogatás kell majd ezentúl a játékfejlesztőktől, és attól tartok hogy a kisebb, alacsony költségvetésű játékoknál ez elmarad és sok hibás vagy instabil kisjáték születhet.

    Igen, az valószínű hogy NV fronton csak a következő generáció fogja támogatni mert hardverfronton is kell egy kis apró picike módosítás, ami a mostaninál nincs még meg, persze minden más DX12-es funkció tökéletesen üzemel majd maxwell-el is. Viszont a Fury X (de csak ez az egy Fury mert a többin már nem az a GPU van) már támogatja ha minden igaz.
  • 39.
    2015. 07. 07. 11:13
    Abban az esetben is inkább arról volt szó, hogy egyes elemeknek nem muszáj mindkét kártya memóriájában jelen lennie, de ettől még sok másiknak igen. Hogy ezen mennyi videomemóriát lehet spórolni, azt egyelőre senki nem tudja, de gondolom az adott játéktól függ a leginkább.
  • 38.
    2015. 07. 07. 11:11
    Hol nézted a memó használatot? Mert sokszor téves eredményt és nyilvánvaló baromságot ad a GTAV-nél...

    Szerintem inkább placebo lehet ez a belassulás FHD-n. Ez a kártya pedig oda való. Ott viszont teszi a dolgát rendesen, 100 Wattal kevesebbért/ nagy tuningpotenciálért.

    Én a DX12-es teljesítményétől sem félnék a Maxwell 2-őknek... ki lett vesézve,hogy mivel a piac 80% nV, egyelőre nem fognak olyan játékok megjelenni amik DX12-ben a nagy sávszélre támaszkodnak async shaderekkel. Illetve ha meg is jelen az speckó lesz (Nitrous) A TIER 2 miatt max kicsit több CPU-t használ a bekötés miatt - de így is sokat fog gyorsulni DX12 alatt a Maxwell is.

    Szóval amíg a kártya élettartama tart, Pascalig, addig ezen sem kell aggódni. 2-3 Async shader egyáltalán nem fekteti még ki A Maxwell 2-őt. FHD felett meg már úgyis elfogy a GPU is, szóval nem kell oda erőltetni. Azon kívül, hogy papíron szarul hangzik a 3.5 GB, minimális problémát okoz, lehet emiatt adnak neki pár tojást... Gyakorlatban viszont meg lehet nézni PH fórum 970/980 részét, utóbbi x ezer hsz-t, sehol nem írnak a 3.5 GB-os lassulásról FHD-n.
    (Egyébként a Neweggen érdemes megnézni a 290/290X-eket, nagyon sokat filóztam eközött és ott tele van connál a blackscreen problémával, általában sokkal több az 1 tojásos mint a 970-eknél.)
  • 37.
    2015. 07. 07. 11:08
    Mi a DX12 esetén beszéltünk arról, hogy összeadódik majd. Nagyon jól tudom, hogy jelenleg nem

    Biztos ami biztos, erre írtam választ: "Nem akarok hülyeséget írni de az nem csak a Pascal GPU-n fog működni?"
  • 36.
    2015. 07. 07. 11:02
    DX12-n még nem tudom mi lesz (annyi biztos hogy eléggé driver-mentesítő cucc lesz, így elvileg a játékok saját maguk kell megoldják a különféle dolgok támogatását, mondhatni rajtuk múlik), de a DX12-n kívül nem adódik össze 2 VGA RAM-ja sem SLI-ben sem CF-ben. Hiába másik képkockát számol a 2 GPU attól ugyanaz az adat van mindkettő RAM-jában. Hogy miért így működik? Mert sajt. Nem tudom. Én magam is tapasztaltam, de az mégfontosabb hogy fizikai tény hogy így van.
  • 35.
    2015. 07. 07. 11:01
    Ezek a gyári mérésekben nem szabad hinni mivel az nvidia is ugyan ezt szokta eljátszani állandón.
    Azért kell megvárni az első független tesztet.
    Különben a samsung megunta az nv. félrevezetett méréseit és feljelentette.

    Különben én külföldi teszteknek sokszor nem hiszek mivel ott teljesen más eredmény jön ki 5-10%-al rosszabban teljesítenek az ottani radeon kártyák, amik számomra inkorrekt , és átélem az AMD helyzetét hogy nem mindenkinek akar teszt példányt adni.
  • 34.
    2015. 07. 07. 10:53
    Ez valóban így van, az emberek inkább csak az NVIDIA-ban csalódtak hogy tévesen tájékoztatta őket. Viszont ha téves tájékoztatásnál tartunk akkor az AMD-nél fura, hogy nem kezdtek el az emberek lázongani, hogy úgy reklámozza a 390x-et, hogy gyorsabb a 980-nál és a Fury X meg a 980 ti-nél. Alapból fura így kijelenteni, hogy általánosan gyorsabb, főleg úgy hogy inkább egy stock 970-el tud versenyezni a 390x egy túlhúzott 980 meg a Fury X-et is beveri sokszor
  • 33.
    2015. 07. 07. 10:52
    Amit én olvastam az alapján nem, hanem SLI és CF esetén is összeadódik a két kártya memóriája.
  • 32.
    2015. 07. 07. 10:35
    Nem akarok hülyeséget írni de az nem csak a Pascal GPU-n fog működni?
    Egy régebbi driverrel a GTA 5-ben állandóan kifutott a 3,5GB-ból. FullHD-n.
    De az új driver már nem engedi hogy 3,5GB fölé mennyen.
  • 31.
    2015. 07. 07. 10:32
    A konzolokon teljesen más architektúra van, mint a videókártyákon, szóval ebből nem fog előnyt kovácsolni.

    A DX12 a mantle alapján készült, de ez nem jelenti azt, hogy a mantlet támogató kártyákon jobban fog futni. A kérdés az, hogy miben közös a mantle-val. Forráskódban nem. Max a filozófiában, az alap elrendezésben, a célokban (hardverközeli legyen az API)
    Ergo olyat egyértelműen kijelenteni, hogy a Furx X többet fog nyerni DX12-vel, mint az Nvidia megoldásai, nos, ez így alaptalan.
  • 30.
    2015. 07. 07. 10:30
    DX12-ben összefog adódni, ezt többször is megerősítették. Nem tudom melyik játékokban észleled egyébként de 2.5 giga felett az én gtx 970-em, max nagyon rossz PC portoknál láttam használni többet. GTA V-ben írja azt hogy 4500MB-ot fog használni 4K-n DSR-el aztán 3000-nél többet még nem használt.
  • 29.
    2015. 07. 07. 10:25
    Feenzor SLI-ben nem adódik össze a memória.
    Egy szóval 2db 970-es ugyan úgy 3,5gb-ot fog enni.

    Meg lehet nézni a HBM előnyét 4k-ban olyan gyors a 4GB memóriája, hogy ott van 980ti 6GB-os és a titán x 12GB-os nyakán, pusztán a sebességéből hogy hamar tele tudja írni és ki is tudja üríteni olyan gyorsan.

    Riddick77 GTX970-em van és tapasztalom a lassulást, még akár FullHD-n is.
  • 28.
    2015. 07. 07. 10:19
    Hát igen, a NANO-ra mindenki nagyon kíváncsi, az X nem is érdekel sok embert hiába az a csúcs.
  • 27.
    2015. 07. 07. 10:14
    Kicsit hosszúra vetted. A hibát az Nvidia ott követte el,hogy nem 3.5GB-osnak adta el a kártyát. Ha,így tesz senki nem sír. Nem hiszem,hogy 4K kell,hogy megegye a kárya a 3.5GB vramot,az újabb játékok már full hd felett,sok effekttel megesznek annyit. Az egyik nagy online boltban látszódik is,hogy miért adnak a tulajok 1-2 pontot /tojást/ csak a GTX970-re mert fullhd felett beszakadhat az fps szám. A linken a tojások /pontozás/ melletti számra kattintva látszik az értékelések angolul. Minden második a VRAM-ot szidja.
    http://www.newegg.com/Product/Product.aspx?Item=N82E16814127832

    Többen is írják a lassulást:
    Cons: -The 3.5GB Vram really what made it a 4.5. It was fine with most games and a few mods but then it couldn't go to the cards limit because it was "Bottlenecked" by the Vram.

    -In GTA V, the Vram will make this card not hit 60 fps on ultra and will sometimes dip into the 20's(with FXAA and AA at 16x)

    Szóval,nem a MAxwell GPU-ban van a hiba,az igencsak ütős lett,hanem a rosszul megnyirbált VRAM kezelésben.

    De,a cikknél maradva,várjuk majd a többi Furry tesztjét is! Főleg, a NANO lesz a szuper érdekes példány.
  • 26.
    2015. 07. 07. 10:11
    Azt én is kipróbáltam pont ugyanúgy direkt hogy lássam mi igaz belőle, hát nekem egyáltalán nem lassult be! Pont ezért hiszek a saját szememnek és nem a cikkeknek! Amit használtam: GB GTX970 G1 Gaming (gyári beállítással), i7-2600K (gyári beállítással), 16GB DDR3-1600. És technikailag az utolsó fél GB-ra az vonatkozik mint amit mondtam, ez tény, ha egyszer valami fizikailag gömb akkor arra nem lehet kockát mondani, mert ez tény és kész. Aki a fizikával vitatkozik az csak a saját hozzá nem értését bizonyítja.
  • 25.
    2015. 07. 07. 10:10
    Annyit még hozzátennék a 4K-hoz, hogy ahol a Fury végre "odab@sz" a maxwellnek, ott leginkább már értelmes FPS sincs (<30).
    Szóval értelme sincs jelenleg a 4K-nak full beállítások mellett egy GPU-val, legyen az akár Fury vagy sem.
    Azt meg mindenki döntse el maga, hogy inkább játszik FHD/fullon vagy 4K de nem fullon.
  • 24.
    2015. 07. 07. 10:09
    Az igen, előbb lett itt teszt róla mint ph-n.
  • 23.
    2015. 07. 07. 10:01
    Általában az új technológiával előbb kihozzák a csúcskártyát aztán majd ha gyűlik a raktárban elég "hibás példány" ami nem hibás csak néhány shader nem működik rajta, na ha ebből már van elég akkor jön a kisebb kártya letiltott shaderekkel, (mert fizikailag ugyanannyi van benne), persze aztán majd terveznek egy kisebb lapkát amiből később megint kijönnek a már alsó kategóriába szánt kártyák. Meg persze néha már az első csúcsmodellen is van néhány letiltott shader, mert mégsem tökéletes a gyártás, de idő után kevés példányszámban sikerül legyártani tökéletesen hibamentes GPU-t, ekkor meg kiadják a csúcskártya feletti mégcsúcsabb kártyát. Az üzlet már csak ilyen. Ez eddig is így működött, régebben még a CPU-knál is, pl gondoljunk csak a 3 magos AMD-kre, túl sok volt a hibás példány aminél nem működött a negyedik mag, így hát 1-et letiltva egy komplett szériát adtak ki belőle. De ettől még minden jól működik, ami nem az le van tiltva és nincs használatban. Végeredményben nem hibás a termék, mert azt kapjuk ami rá van írva.
  • 22.
    2015. 07. 07. 10:01
    Azért nincs a 300-asban Fiji, mert azok átnevezett 200-asok. Az nem új széria.
    A Fiji pedig annyira nem erős, hogy 5-6 termék is skálázható legyen rá a 300-asok felett. Kell valami az alsó szegmensbe is, tök felesleges oda Fiji, mikor a 300-asok tudják ugyanazt.
  • 21.
    2015. 07. 07. 10:01
    Ha 4K-ban akarsz jatszani egy darab 970 de meg 980 is nagyon keveske, szoval ha 4K kell akkor SLI / CrossFire kell, akkor mar nagyon lengyegtelen a 3.5GB. Ha rendesen megnezed a teszteket a 780Ti is ott tart ahol a 970, annak 3GB ramja van. Minden Nvidia gyengul ahogy rakod feljebb a felbontast, ennyi. Az AMD nagyon gyors ramot rak a kartyaiba, az Nvidia nem. Itt latszik a gyengules, viszont ha FullHD-ban jatszol akkor most is boooven eleg a 3.5GB ram. Mellesleg ahogy lejjebb irtak az nem 3.5GB, hanem 4, csak az utolso 500MB fele olyan gyors ennyi.
  • 20.
    2015. 07. 07. 09:59
    Már ne haragudjatok de ez a teszt nem mutatja teljesen a valóságot. Nem ilyen teszt konfigurációval kell ilyen csúcs kártyákat lemérni. Plusz alsó hangon eleve megint nem 100% megy a kártya. Csak annyira emeli fel a GPU-t sebességet amennyire szükséges és élvezhető. De eleve keresztmetszet a CPU is. Félreértés ne essék ez csak egy észrevétel, nem blamálás. Más teszteredményekhez képest 10-20 FPS-sel van lemaradva ez az eredmény amit mértetek.
  • 19.
    2015. 07. 07. 09:54
    Jelenleg Nvidia van a gépemben,de te egyértelműen elfogult vagy. Aki a saját szemének nem hisz,azzal valami gond van. A GTX 970 egy nagyon nagyon jó kártya lenne,ha az utolsó 500 MB videó memória terület miatt nem lassulna be! A IPON-tesztben látszódik,mikor a FarCry4-ben ráfut a kártya az utolsó 500 MB-os memória területre. Sok külföldi emiatt vissza is küldte a kártyát a boltnak ahol vette. FullHD-ban viszont lehet nincs semmi érzékelhető gondja,amíg az adott program VRAM felhasználása 3.5GB alatt marad.
  • 18.
    2015. 07. 07. 09:48
    Nekem volt 290-em is es most egy 970-em van. Egyszerűen az AMD nem tudja hozni amit az NVidia hoz. Ahogy kijön egy játék pittyen a gép, hogy itt van hozzá a driver töltsed lefelé! AMD meg kiad kb fél évente egyet hogy tessék rakd fel ha akarod. Benchmarkokban a sima 290-em bőven verte a 970-em, de játékokban közel nem hozza a szintet. Ezek a Fury X-ek biztos nagyon jó kártyák lesznek, pont ahogy a 290 is, de sajnos drága lesz, többet fogyaszt, jobban melegedik ---&gt; pontosna ezért nem lehet húzni őket túlzottan. Egy 9-es szériás Nvidiát porrá tudsz húzni, míg az amd-t nem igazán. Szóval biztos királyak az AMD-k, de nem hiszem hogy megingatják az NVidiát. Majd ha estetleg software-es részlegen jobban beindulnak, akkor talán, de egyenlőre nem hiszem. Vagy ha egyszer meglátjuk hogy mit tud a Mantle, amit már reklámoznak vagy 2 éve
  • 17.
    FaL
    2015. 07. 07. 09:44
    Egyébként azt lehet tudni, hogy a 300-as sorozat miért nem Fiji GPU-t kapott? Gyártási, technológiai vagy más oka van?
    Számomra (bár nem vagyok cégvezető) de nem érthető, hogy miért ölnek pénzt egy új chip kifejlesztésébe, ha végül csak egy relatív szűk termékkörbe használják, pedig sokkal erősebb a többi házon belüli megoldásnál.

    @ChoSimba
    elfogadom a véleményed, ugyanakkor a végleges megjelenésig, végleges driverekig és főleg a dx12-t teljes mértékben kihasználó programok megjelenéséig én nem vonnék le következtetéseket.
  • 16.
    2015. 07. 07. 09:42
    "DX12-ből minden grafikus megoldás profitálni fog, még az Intel HDxxxx sorozat is, méghozzá arányaiban mindegyik ugyanannyit. Fuss neki még egyszer."
    Ez nem igaz. Még gyártón belül sem. Én jelenleg (nem végleges mantle és dx12 és driverek) úgy látom, hogy a Hawaii többet fog gyorsulni, mint a Tonga (Starswarm teszt by Anandtech), de mindkettő valamivel többet, mint a Maxwell.
    Hogy ez mire lesz elég, az meg abszolút játékfüggő lesz, de ordas változásra nem számítanék sorrendet illetően. FPS szinten persze mindenki jól jár
  • 15.
    2015. 07. 07. 09:39
    Max az utolsó mondatom butaság, ami az AMD drivereire vonatkozik, mivel jelenleg nincs AMD kártyám így csak a cikkek-ből ítélek mint ahogy te is, a többi viszont úgy van ahogy írtam. A bizonyíték meg nem egy Ipon-os meg PH-s cikk ahol sokszor hibásan írnak dolgokat, nem csodálkoznék ha Abu85 cikkein nőttél volna fel, akkor megérteném hogy miért nem értesz a technikai részletekhez amik tények nem pedig megítélés kérdése. Az hogy sok lehúzó vélemény született azoktól akik túl hamar jutottak a kártyához és már meg sincs nekik mire kijött a jó driver, az sem bizonyíték. Az a bizonyíték ami itt van a gépemben, nem vagyok elfogult, a véleményem objektív, a saját tapasztalatomnál számomra nincs jobb bizonyíték. És amint mondtam: A technikai részletek meg egyszerűen tények, nem pedig szubjektív megítélés és korai elégedetlenség kérdése.
  • 14.
    2015. 07. 07. 09:32
    A VLIW5 az tényleg bukás volt: Nagyjából lehet azt mondani hogy azonos memória paraméterek és azonos GPU órajel mellett gyakorlatilag 5-el el kellett osztani egy Radeon kártya shadeit hogy megkapd kb-re a teljesítményét egy NVidia kártya shadereiben számolva. A VLIW4-el is ugyen ez volt a helyzet csak ott meg 4-el kellett osztani.

    Mondjuk a Kepler-Fermihez viszonya is faramuci volt mert a shader órajel a Ferminél duplázva volt (a GPU órajel 2X-ese), míg a Keplernél lefelezték (1:1 arányúra) viszont a shaderek számát megduplázták, így mondhatni egy azonos GPU órajelű de 2X annyi shaderes Kepler kb ugyanannyi teljesítményt adott mint egy azonos GPU órajelű de fele annyi shaderes Fermi.
  • 13.
    2015. 07. 07. 09:30
    Nos a cikk bizonyiték rá, hogy van vele probléma. A tobbi amit irsz, az butaság.
  • 12.
    2015. 07. 07. 09:24
    nem kötözködni akartam, csak ha ránézek egy táblázatra/felsorolásra és azt látom, hogy nv/amd xxxx kártya, mellette meg azt, hogy Asus xxxx akkor egyből az ugrik be, hogy az előbbi ref, az utóbbi nem. Látom fel lett tüntetve, hogy alap órajeleken ment minden, így már teljesen korrekt.
  • 11.
    2015. 07. 07. 09:18
    Mi az a cikk elején hogy botrány volt a GTX970-el? Az a botrány hogy a sok idióta egyenesen azt mondta hogy fél GB nem használható a 4-ből, közben meg egyszerűen annyi hogy arra a fél GB-ra csak fele széles memóriasín esett, de ha egy bármilyen VGA-t veszel amin duplázva van a memória mennyisége a referencia modellhez képest akkor annak nem csak egy nyolcadára hanem az egész memóriára fele olyan széles memóriasín jut, mégse mondták egy olyan kártyára se hogy az egész memóriája használhatatlan. Na de mindegy, akinek van GTX970-e az tudja hogy nincsen vele probléma. Ha volt is, csak szoftveres de az meg javítva lett. Ennyi. Az AMD szoftveres javítás késéseiről meg ne is beszéljünk, a játékok harmada problémázik mikor kijön.
  • 10.
    2015. 07. 07. 09:15
    970-bol nem nagyon van ref modell. A másik meg, abbol tesztelnek, amit kapnak.
  • 9.
    2015. 07. 07. 09:14
    Minden referencia órajeleken ketyegett, úgyhogy ez nem nyert... egyik kártya sem volt OC változat, ahogy a Gainward GTX970-es sem (annál nem vetted figyelembe hogy nem referencia). Mindig jelölni szoktuk ha egy kártya gyári tuningos és nem állítottuk vissza.

    A jövőbeni félreértések elkerülése végett azért odaírtam, hogy referencián járt minden.
  • 8.
    2015. 07. 07. 09:07
    DX12-ből minden grafikus megoldás profitálni fog, még az Intel HDxxxx sorozat is, méghozzá arányaiban mindegyik ugyanannyit. Fuss neki még egyszer.

    A sima Fury mivel lesz jobb megoldás mint a Fury X? Ha 10%-al kevesebb, akkor kb. ott van ahol a ref GTX980, azt meg senki nem vesz, az OC-s 980 meg rá fog verni, mivel a Fury-k úgy látszik nem húzhatóak.

    Ref nv kártyákat összehasonlítani Asus, meg Sapphire megoldásokkal nem ad kifejezetten tiszta képet...szerintem. Így lehet, hogy kb. minden külföldi oldalon a GTX970 ráver 2-5-10%-ot a 290X-re, nálatok meg lemarad 7%-al, talán ref példányt kéne mindenből használni, nem? Vagy akkor mindenből a berhelt változatokat.
  • 7.
    2015. 07. 07. 09:04
    van alapja, a dx12 a mantle "alapján" készült

    átstruktúrálták a sorbanállítást és s szinkron/aszinkron folyamatokat

    http://www.hwsw.hu/hirek/52006/microsoft-directx12-direct3d-forza-xbox-one-grafikus-api.html
    http://prohardver.hu/hir/microsoft_reszletezte_directx_12_uj_funkcio.html
    http://logout.hu/bejegyzes/gbors/amd_vs_nvidia_mit_varhatunk_a_dx12-tol.html


    mivel az MS csinálja a dx12-t és közös APIt akar az xbox-al, ezért az amd felé húznak (nem tetszik/nem tetszik alapon, egyszerűen arra fejlesztenek)
  • 6.
    2015. 07. 07. 09:00
    Majd a HBM, majd az új GCN, majd a FuryX, majd az új driver, majd a DX12.
    Vége. Majd ha hülye leszek.
    Ennyi pénzért tényleg inkább 980ti, de annyit meg nem adok zöldért.
  • 5.
    2015. 07. 07. 08:57
    majd rájössz..eggyesek...
  • 4.
    2015. 07. 07. 08:53
    Miért lódulna meg DX12 alatt?
    Mégis honnan veszed ezt?

    Egyesek itt olyanokat írnak...
  • 3.
    2015. 07. 07. 08:48
    Mindenki tudja hogy dx12-re készült a kártya...Nem is oan rossz hogy 11 alatt iet tud...sokkal kevesebre számitottam.Majd 12 alatt meglódul.Az ár nem vészes,ez dx12 alatt 3 évig kártya lessz...A 7950 amit megjelenéskor vettem még mindig tartja magát (kivétel néhány uborka játék) de már azt is megoldották driverböl,aki meg mást mond nemizgat mert napi szinten használom.
  • 2.
    2015. 07. 07. 08:40
    csalódás. vártam mint a messiást, végén rendeltem egy 980ti-t...
  • 1.
    2015. 07. 07. 08:02
    Hát, egyenlőre szerintem túl van árazva a Fury X, bizonyára majd lejjebb megy. Így pedig csalódás az AMD úgy ahogy van, marad az nvidia nálam...