Kosár

A kosár jelenleg üres

Bejelentkezés &
Regisztráció

Jelenleg nincs belépve.

Válassza ki az oldal nyelvét

TERMÉKEINK

iPon FÓRUM

iPon Cikkek

Radeon R9 285 – GCN evolúció

  • Dátum | 2014.09.12 12:01
  • Szerző | Svindler
  • Csoport | MEGJELENÍTÉS

Az utóbbi években úgy tűnhet, hogy egy kicsit lelassult a fejlődés a grafikus vezérlők piacán, és bizonyos szempontból ez így is van. A TSMC és a többi bérgyártó szenved a kisebb csíkszélességgel dolgozó gyártósorok beindításával, és ennek köszönhetően az AMD és az nVidia kénytelen volt leragadni 28nm-nél. Egy olyan piacon, ahol a végrehajtó egységek számának növelése az egyik legfontosabb és legkönnyebb módja a teljesítmény növelésének, ez elég katasztrófa tud lenni. Gondoljunk bele, bő két és fél éve már annak, hogy megjelent az első 28nm-es csúcskártya (2012 január, HD7970), ami kisebb változtatásokkal, de azóta is velünk van, most épp R9 280X-nek hívják. Ugyanez a kártya jelentette a GCN (Graphics Core Next) architektúra bemutatkozását is, ami tudását tekintve máig vezető szerepet tölt be, de azért már mutatkoznak az öregedés jelei rajta, nem csoda, hogy tavaly átesett némi frissítésen. A nem hivatalosan csak GCN 1.1-nek nevezett változat, ami a Hawaii (R9 290-es széria) és a Bonaire (R7 260-as széria) GPU-k alapjait adja, sok extrát hozott magával: TrueAudio, XDMA motor (CrossFire híd nélküli többkártyás módhoz), fejlettebb Boost szolgáltatás és Adaptive V-sync (vagy Freesync) támogatás. Egyik sem a teljesítmény növelését hozza magával, de mindegyik fontos újítás, amik mellett nem lehet elmenni szó nélkül.

Az egyetlen igen súlyos probléma az, hogy nem az egész Radeon család kapta meg a fejlesztéseket, márpedig fejlesztői szemszögből nézve nem túl előnyös, ha azt látjuk, hogy egy technológiát csak az egyik gyártó támogat, és annak sem az összes kártyája. Remek példa erre a TrueAudio, amire nem ugrott rá a játékpiac, hiszen az R9 270-280-as kártyák nem támogatják, ahogy a Freesync-et sem játékok alatt, így hiába jönnek jövőre a hozzá való monitorok, nem mindenki fogja tudni kihasználni őket. Nincs mese, lépni kellett az AMD-nek, aki kicsit lassan, de azért bemutatta az R9 285-öst, és az alapját adó Tonga GPU-t.


Ha csak az alap specifikációs táblázatból indulunk ki, akkor az R9 285 nem más, mint egy R9 280-as, csak alacsonyabb GPU órajellel, és jóval kisebb memória sávszélességgel, köszönhetően a 384 helyett 256 bites memória adatsínnek. Ez eddig nem igazán előrelépés, sőt, olyan, mintha az AMD rálépett volna a fékre. Hab a tortán, hogy az R9 285 még drágább is, mint a 280, úgyhogy valószínűleg mindenkinek megfordult már a fejében, hogy az AMD-nek vagy elmentek hazulról, vagy több van a felszín alatt, mint amit a fenti táblázat mutat.

Szerencsére az utóbbi helyzet áll fenn, ugyanis a Tonga GPU-val bemutatkozott a GCN architektúra következő iterációja, amit a sajtóban csak GCN 1.2-ként szoktak emlegetni. Ez természetesen szállítja az összes extrát, amit a GCN 1.1, és még rájuk is tesz egy lapáttal.


Kezdjük az elején, mert már a geometriai motor is fejlődött. Akárcsak a Hawaii GPU esetében, itt is négy egységgel találkozhatunk, tehát a Tonga négy háromszöget képes feldolgozni órajelenként. Ez persze önmagában nem lenne újdonság, de az AMD szerint hatékonyabban teszi mindezt, mint a Hawaii, és a tesszelátor is sokat fejlődött. Utóbbinak hála alacsonyabb órajel ide vagy oda, a Tonga komplexebb tesszeláció esetén csúnyán otthagyja a jelenlegi csúcskártyát.


Továbbhaladva a chip belsejében, apró változtatásokat eszközöltek a shader magon. Új utasítások végrehajtására képes, amik között sok 16 bites van, de ez a PC-s játékosokat valószínűleg nem igazán fogja meghatni. Mobil felhasználásnál lehet érdekes a csökkentett precízió, amivel fogyasztáscsökkenés érhető el. Egy táblában (vagy extrém esetben telefonban) ez számíthat, asztali gépek esetében viszont nem nagyon fog senki törődni vele. Valószínűleg ez az AMD következő generációs APU egységei miatt volt fontos.

Ugorva még egy nagyot megérkezünk a ROP egységekhez és a memóriavezérlőhöz. Utóbbinál említettük, hogy jelen esetben 256 bites, ami erősen vissza kéne fogja az új Radeont, mert ennyi erő mellé elkélne a megfelelő sávszélesség. Az AMD azonban bevetett egy kis trükköt, egy új színtömörítési eljárást, ami miatt sokkal hatékonyabbá válik a memória sávszélesség kihasználása. Az AMD állítása szerint akár 40%-ról is beszélhetünk, ami papíron bőven ellensúlyozza a 384 bites adatsín hiányát. Meglátjuk majd mit mutatnak a játéktesztek, mindenesetre a 3DMark Vantage Colorfill tesztjében, amit már régóta a sávszélesség limitál, az R9 285 agyonver minden hasonló súlycsoportban lévő kártyát, szóval nem lehet rossz az AMD megoldása. Sajnos egyébként a nevén felül bővebb információkkal nem szolgáltak a cég illetékesei, így csak tippelni tudunk, hogy hasonlóan a videók kódolásához, az új eljárás is csak a változásokat viszi át a kommunikációnál, az azonos pixeleket nem (és természetesen ez veszteségmentes tömörítés).

Végül, de nem utolsó sorban a multimédiás részleg is fejlődött, aminek már épp ideje volt. Az új UVD motor támogatja az MJPEG videókat (a H.265-ösöket sajnos nem), de ami sokkal fontosabb, a 4K-s filmeket is, méghozzá 5.2-es szinten, ami annyit tesz, hogy a 60fps-es videók sem jelentenek gondot neki. A hardveres enkóder (VCE) is megújult, természetesen ez is a 4K szellemében, bőven kapott annyi plusz erőt, hogy ne okozzon gondot neki egy ilyen felbontású videó valós idejű kódolása.

Röviden ennyi lenne a Tonga GPU és ezzel együtt a GCN 1.2-es architektúra összefoglalása, de valószínűleg feltűnt néhány olvasónknak, hogy a Tonga 700 millióval több tranzisztort tartalmaz, mint elődje, miközben ugyanannyi shadert szállít. Az eddig felsorolt változások nem feltétlenül tesznek ki ennyi tranzisztort (sőt), így az is előfordulhat, hogy a kisebb sávszélesség kompenzációjaként megnövelték itt-ott a gyorsítótárak méretét (mint az nVidia a Maxwell esetében), de erről sajnos nem nyilatkozott az AMD.

Hozzászólások

Nem vagy bejelentkezve, a hozzászóláshoz regisztrálj vagy lépj be!

Eddigi hozzászólások:

  • 48.
    2014. 09. 17. 15:46
    freesync-hez nem kellene új monitor/tv, csak firmware frissítés rá. Nyilván ez nem fog megtörténni, mert a kijelzőgyártók érdeke nem az hogy frissítgetsz, hanem hogy újat vegyél...
  • 47.
    2014. 09. 17. 15:40
    "Ahol nem mi vagyunk, ott az ellenség!"
  • 46.
    2014. 09. 16. 14:31
    Nincs rá semmi szükség, hogy képernyőkép készüljön bármikor visszatudjuk nézni a hozzászólásaidat.
    Ennek megfelelően itt az ideje, hogy egy hosszabb csendes eltávra menj.
    Visszatértedre remélhetőleg sikerül kinőni a moderátorok kioktatását, a fórumozók oltogatását, az AMD folyamatos ócsárlását.

    Amennyiben ez nem sikerül, úgy végleg búcsút mondhatsz az oldaltól.
    Ez pedig vonatkozik minden egyéb fórumozóra is, aki hasonlóan képtelen megérteni a fórumozás alapszabályait!
  • 45.
    2014. 09. 16. 11:32
    Kedves Gery84!

    Ebben a topikban 2x is linkeltek prohardveres cikket. Persze nem gond, jelen esetben, hiszen az AMD-ről szól.

    Nem kellene egy moderátornak érzelmi alapon moderélni. Utoljára mondtam én is.

    Minden hsz-ről képernyő felvétel készül.
  • 44.
    2014. 09. 15. 21:10
    Állítólag (másik oldal hozzáértője szerint) ez a kártya a konzolportokban jobb lesz, mert a PS4 APU GPU részének a felépítését másolja, tehát, hogy az ACE-k jóval több parancslistát tudnak kezelni.
    Valaki aki jobban ért hozzá, megmondaná, hogy akkor a 4 parancslistás mennyivel lesz lassabb várhatóan mint a 64?
  • 43.
    2014. 09. 14. 22:11
    Valóban érdekes. Mint ahogy az is, hogy az általam linkelt tesztben az 1 gigás GeForce-ok (főleg a GTX650Ti) mennyivel jobban szerepelnek magas felbontáson, mint a szintén 1 gigás Radeonok. Kíváncsi vagyok, mi okozza ezt.
  • 42.
    2014. 09. 14. 20:38
    A 7850-es teszt érdekes,ahogyan a nála sokkal erősebb gtx680 2gb vs 4gb eredmények is:
    [LINK]
  • 41.
    2014. 09. 14. 18:15
    Na jó, de a 6400K nem egy kategória az én mobil Celeronommal. Az asztali integrált Radeonok elég erősek ahhoz, hogy profitáljanak a nagyobb sávszélből, míg a kis HD Graphics nem.

    A tesztet nem a 6870 miatt linkeltem, hanem az 1 és 2 GB-os 7770-ek közötti különbség szemléltetésére. De találtam egy jobbat (7850 1 GB vs 7850 2 GB):
    http://www.bit-tech.net/hardware/graphics/2012/11/05/msi-radeon-hd-7850-1gb-review/3
    Az 1920x1080 feletti eredmények magukért beszélnek. Ez is egy 2 éves cikk, de ahogy látszik, már akkor szükséges volt a 2 GB bizonyos helyzetekben.
  • 40.
    2014. 09. 14. 12:14
    http://prohardver.hu/teszt/asus_hd_7770_2_gb_memoriaval/tesztek.html

    Igaz, ez egy több mint 2 éves cikk, de úgy érzem, van relevanciája. Nyilván az újabb játékok több ramot kérnek, de most hirtelen nem találtam frissebb írást. A legalsó diagramon látszik, hogy vannak helyzetek, ahol számít a több VRAM. Ha nem így lenne, akkor bőven elég lenne olcsó, kis kapacitású memóriachipekből kirakni az 512 bitet, és mindenki boldog lenne. Vagy szerinted csak dísznek pakolnak 3-4 giga ramot egyes felsőkategóriás VGA-kra?

    Egyébként igazad van, tényleg nem vagyok otthon, így most legfeljebb csak azt tudnám tesztelni, hogy mennyit dob az Ivy Bridge-es HD Graphics teljesítményén a kétcsatornás memóriakonfiguráció (128 bit) az egycsatornáshoz (64 bit) képest. (amúgy nem sokat)

    Egyébként CoH2-ben tapasztaltam igazán nagy különbséget a HD 7870 és 7970 között. Nem csak a GPU-beli erőfölény volt érezhető (kb 50%-kal nagyobb átlag FPS), de a 7970-nel megszabadultam a random lassulásoktól, akadásoktól is, ami számszerűsítve kb tízszeres minimum FPS értéket jelent. Mint említettem, tényleg nem vagyok otthon, így adatokkal sajnos nem tudom alátámasztani.

    I.Jozsef83:
    Bocsáss meg, de én valahogy mindig abban a hitben éltem, hogy a fórum a vélemények megosztására való. Biztos lenne valami szépség egy olyan világban is, ahol mindenki egyszerre örül mindennek, de hogy értelme nem lenne, az biztos. Meg akkor minek lenne fórum? Be is lehetne zárni. Vagy írja ide mindenki, hogy "jee, új VGA érkezett"? Akkor meg biztos azzal lenne problémád. Lehet, hogy te nem érted azokat, akik ötletelni járnak a fórumra, én viszont az olyanokat nem értem, akik váratlanul felbukkannak, és elkezdik osztani az észt arról, hogy milyen sok az idióta, anélkül, hogy egyáltalán visszaolvasnának, hogy képben legyenek a vitatémát illetően, vagy hogy egyéb, a témában releváns hozzászólást intéznének a cikkhez. Egyetértek abban, hogy az "ebből lesz jövőre CF" típusú hozzászólások gyakorlati haszna nulla, viszont a random oltogatásé is afelé tendál. Elfilozofálhatnánk arról is (de inkább most ne tegyük), hogy az általad kényszeresnek nevezett fórumozók ilyen szintű leoltása mögött mennyi a kényszeres indíttatás.
  • 39.
    2014. 09. 14. 11:38
    Igen,sajnos sokan zsákutcába szaladnak.
    A példám is nem a brutális gtx ellen szólt,hanem arról,hogy csávókám azt hiszi kevés a vga egy nyomorult wacsdogszhoz,közben meg kiderül,hogy 10éves monitoron tolja, valami lehetetlen 1280x1024-es felbontásban, kb 5-6 éves cpu-val ami ezen a felbontáson,ultrán azonnali limitet okoz és ráadásnak a +40gigás játékot egy agyongyilkolt 5400rpm-es hdd-ről szívja,ami már újkorában is lassú volt

    Ezek olyan dolgok, mint régen amikor az én tuningos Gainward hd4850-em 512mega vram-mal gyorsabb volt kollégám 1gigás csigabájt 4850-esénél,mert akkor is 99%-ban a gpu freki számított és nem a méret meg sávszél hozta a +fps-t...

    Természetesen az évek múltán növekedik a vram min. igény,de azért nem úgy,hogy idén már ugyanaz a gpu 2giga vram-mal elvérzik a 3-4gigáshoz képest,mert akkor lecidázom magam.

    ...sőt ennyi erővel, mivel a Titan Z-n már 12giga gddr5 van,így akkor minden amin kevesebb az fos és gyenge a jövő és konzolok miatt.
  • 38.
    2014. 09. 14. 09:44
    Hogy párotoknak mekkora problémája van , ha jön egy frissebb kártya ! Tessék örülni , ezzel nagyobb a választék , van miből válogatni, van lehetőség csemegézni , bújni a teszteket , hogy most akkor a korábbi kártyám lecseréljem-e , azaz megéri-e lecserélni , vagy még mindig elég számára a meglévő . Az új konfigurációt építőknek meg természetesen jól jön egy frissebb kártya !!! Őket NEM érdekli , hogy az előtte lévőnél alig gyorsabb illetve nem érdekli a miértje sem ... megtetszett szimpi megveszi . De akkora segget tud pár ember keríteni egy hírnek , mintha valamelyik 3. 4. VGA gyártó volna , akarna lenni . Észt osztani az megy . Tessék örölni minden új terméknek . Kockulók meg hagyják békén hírtopikot , nem arra kíváncsi senki ki milyen SLI vagy CF konfiggal játszadozik naphosszat . ( Ami eléggé szégyen rájuk nézve ! Mert nincs munkahelye és családi élete . ) Inkább hallgatnának . Nincs olyan hír amihez nem kaffognának oda . Nem is értem ... mintha nonstop figyelnék az oldalakat és más oldalon is osztják az észt. Ennyirán ráérő magasan képzett szakemberek lógnak hírfolyamokon és közben a méregdrága gamer PC -n játszanak . Nem értem ezeket az embereket ... Ráadásul megjelenik egy ütősebb kártya ? húúú , már ezt vártam , ebből lesz SLI vagy épp CF ... Ez is kit érdekel ? De mindent jobban vélni tudnak mint maguk a gyártók , fejlesztő mérnökök . Vitázásra meg van erre megfelelő hely ! Sajnálatos , hogy felesleges írásaikkal teleszemetelnek egy ilyen országosan nézett olvasott oldalt . Szerintem a hír nem azért van , hogy a NAGY Szakértők jobban megmondják a saját hitüket itt !
    Még mindig tartom - kevés a fórum moderátor ... akik a leírt szöveget korrigálják, vagy épp törlik . Nem a sok spam -ra van szüksége az oldalnak.
    Kényszer-ingerük van az íráshoz , mert ŐK jobban tudják , jobban megmondják . Bocsi megint a hosszabb hsz -ért , de ez van - szégyenletes jópár ember viselkedése .

    A TESZT-ért köszi minden olvasó nevében !
  • 37.
    2014. 09. 13. 21:41
    Hú wazzz, tényleg !
  • 36.
    2014. 09. 13. 21:21
    ezzel nem azt akartam mondani,hogy szar a sok vram,de jelenleg még mindig a legtöbb esetben arra jó csak,hogy programokkal ellenőrizhetjük játékok alatt,hogy bizony a 3gigából 2,8-at telepakolt,de semmivel nem több az fps érték, mint ha 1gigás lenne és még az elénk táruló megjelenített kép is ugyanaz...

    az a durva mikor brutális gtx gazdája írja ,hogy szaggat a WD,de én az 5870-el (1giga) 2órán keresztül nyomattam 1080-ban, minden high, élsimítás nélkül és 40 alá nem esett le soha...
  • 35.
    2014. 09. 13. 21:16
    Nem szabad 1 tesztnek hinni.
  • 34.
    2014. 09. 13. 21:05
    pedig 1920x1080,2560x1600,5760x1080-as felbontások fel vannak tüntetve és 30játéknál a különbség max 1-2fps,de a legtöbb esetben 0,xy...ez nem különbség,mert két azonos konfig között is van ennyi szórás.
    A memória kezelés meg sztem azért nem számít,mert ha a gpu ennyit tud,akkor mind1,hogy 2-3-4giga vram figyel rajta és ez látszik az újabb játékok alatt is,5760x1080-ban mért durva ~1fps különbségeken.
  • 33.
    2014. 09. 13. 20:59
    Szerinted mért? Mert el kell adni és a 285 annyit ér erpsebb játékoknál mint égen a hold nappal
  • 32.
    2014. 09. 13. 20:58
    Egyébként az 5760*1080-as különbségeket nem hiszem el. Azon a felbontáson már nagyon is kell a 4GB RAM, sőt!

    Azt tanúsíthatom, hogy a CoH2 alatt elkél a sok VRAM.
  • 31.
    2014. 09. 13. 20:53
    A BF4, és a Watch Dogs pont kimaradt ahol elvérzik a 2GB-od VGA.
    És az új játékokat már a 3-4GB-os vga-ra fogják tervezni.
    Vagy ha az új konzolokról átpártolják akkor még inkább memória zabálók lesznek.
  • 30.
    2014. 09. 13. 20:39
    Saját tapasztalataim szerint eddig a WatchDogs és a Company of Heroes 2 azok a címek, amik meghálálják a 2 GB-nál több VRAM-ot (persze lehet, hogy van több is, viszont én elég válogatós vagyok játékok terén). Ezek nem szerepelnek a táblázatban. Ráadásul úgy tudom, hogy a Radeon és GeForce kártyák memóriakezelése eléggé eltérő (javítson ki valaki, ha tévedek), így a VRAM többlet, vagy hiány is máshogy jön ki rajtuk.

    jedi:
    Én 1920x1080-ban játszom, de az említett címek így is elég szépen kihasználják a 7970-em 3 GB-ját (WatchDogs alatt élsimítással még el is fogy néha - a CoH2 a GPU-Z szerint kb. 2,5 gigát kér).
  • 29.
    2014. 09. 13. 20:38
    Kimaradt a felbontás? Nem tudom lehet én látom rosszul, de ott vannak a felbontások is.
  • 28.
    2014. 09. 13. 20:26
    Csak a legfőbb adat maradt ki a listából, az pedig a FELBONTÁS ! Mert FullHD-ba még csak elég a 2GB, de pl.nekem egy LG 29"-os 21:9-es monitorom van, ami nem 1920x1080-as, hanem 2560x1080-as felbontásban megy ! Ha van olyan játék, ahol teljes részletesség mellett a 2GB már kevés FullHD-be, akkor nálam már biztos hogy kevés lenne ! Ezért van egy 7970-esem 3GB-al !
  • 27.
    2014. 09. 13. 19:25
    szerintem ezt a memória dolgot kicsit túlreagáljátok,ami a méretet illeti:


    (bár ez gtx770 de egy ligában játszanak)
  • 26.
    2014. 09. 13. 18:07
    Na ja, a Tonga GPU időtállóbb a Tahitinél a technológiai fölénye miatt, viszont szerintem a 285 nem időtállóbb a 280-nál, mert a GPU fölénye nem ér annyit, mint a 3 GB memória a 280-on. Persze ha majd lesz 4 GB-os verzió, meg heréletlen 285X, akkor újra elő lehet venni a kérdést.
  • 25.
    2014. 09. 13. 17:37
    Én se kívánom, de Murphy dolgozik.

    Valszeg azért nem vártak mert ez már kész volt, a Tahitit meg már nem gyártják és nem akartak nagyobb raktárkészletet felhalmozni, a TSMC-nél a gyártáskapacitást előre le kell foglalni, nem úgy van hogy csak holnap bejelentik, hogy 2* annyi kell és már készül is. Egyébként a korábbi bejelentésük alapján eredetileg nyárra tervezték a Tahiti váltását.

    A VGA-k memóriájában nagyon sok minden tömörítve van jelen, épp ezen javítottak, így nem csak a sávszélesség igény csökken, de a memória mennyiségének az igénye is, jó az igaz, hogy nem 50%-al, de csökken.

    A 2GB-os modell kihozatalának az a célja, hogy a 280-asok felé tereljék a felhasználókat, hogy könnyebb legyen a raktársöprés. Ez itt nem az időtállóságról szól, hanem a raktár söprésről, de maga a GPU technikai szempontból időtállóbb, de nem volt cél ezt bizonygatni, nem véletlen hogy a herélt verzió jött előbb. Ha a fejlesztésekben lévő kraftot akarták volna demonstrálni, akkor a teljes értékű modellel jöttek volna ki.
  • 24.
    2014. 09. 13. 15:08
    Jobban örülnék, ha nem halna be jövőre a monitorom.

    Aha, ez a 4 GB-os dolog így már világos. Mondjuk szerintem egyszerűbb lett volna várni a 280-ak kisöpréséig, és utána egyszerre kiadni a 2 és 4 GB-os verziókat. Mindegy, ez is egy stratégia.

    A CF dolgot értem, csak azt nem, hogy mi teszi ezt a kártyát így, ebben a 2 GB-os formájában időtállóbbá, mint a 3 GB-os 280(X), vagy a 7950/70.
  • 23.
    2014. 09. 13. 14:29
    Nem arról van szó, hogy mindenki rohanni fog, de ha veszel egy ilyen VGA-t és mondjuk jövőre behal a monitorod, és kénytelen vagy venni egyet, akkor egy ilyen plusz feature-rel többet kapsz a pénzedért. Én is régi DVI-os monitort használok, HDMI meg 3D a TV-n van!

    A CF gondolatod hülyeség. Azért dobták el a csatit, mert a PCI Expresszen gyorsabb a kommunikáció. Ez nem időtállóság kérdése, hanem fejlesztésé, az 1 kártyásoknak mindegy is, valóban, de a többes rendszert használóknak nem. És azért sem mert így az AMD-s iGPU-val is megoldható az összekötés. Lesz majd 4GB-os modell is, azért van most csak 2GB-os mert az 280-asokat ki akarják söpörni, és konkrétan az AMD megtiltotta a 4GB-os modellek piacra küldését.
  • 22.
    2014. 09. 13. 14:27
    Aha, akkor ezen rész fölött biztos átsiklottam, így már ok.
  • 21.
    2014. 09. 13. 12:26
    Persze, majd mindenki rohanni fog a boltba monitort venni, mert megjelent a FreeSync. Nekem például egy darab parlagi FullHD monitorom van, ami még D-Sub csatis. Lecserélhetném HDMI-sre, meg 100 Hz-esre, meg ilyen-olyan 3D-sre, de minek? Semmi pluszt nem nyernék vele. A FreeSync is épp ennyire nem érdekel.

    A CF csatit illetően épp az lett volna a lényeg, hogy tökmindegy, hogy van-e, vagy nincs, nem ettől lesz időtálló egy VGA.

    A memóriával kapcsolatban pedig engem nem a sávszélesség zavar, mert megértem, hogy mindenféle technológiákkal kompenzálni tudnak. A 2 GB viszont csak 2 GB marad, amit ebben a kategóriában egy cseppet kevésnek érzek.
  • 20.
    2014. 09. 13. 11:39
    De használnád te is ha elérhető, elterjedt technológia lenne. A régivel viszont ez nem állna rendelkezésedre. 2-3 év múlva már szinte csak olyan monitort tudnál venni amely mindegyik támogatja a FrreSync-ket. Most még nem. Egyébként nem csak erről van szó hanem az információk alapján maga a GCN struktúrája is megváltozott, plusz dolgokat, támogatásokat kapott. Így a jövőben azok képesek lesznek jobban kihasználni az erőforrásokat. Másrészt éppen ezért is írtam, hogy hiába a jövőállósága ha most nem tudom kihasználni ezeket mert mire igazán használhatóak lennének addigra 1-2 új generáció is itt lesz amelyek biztosan jobban kezelik majd ezeket.
  • 19.
    2014. 09. 13. 11:34
    Rini, honnan tudod, hogy mondjuk nem két tömb van-e letiltva benne, azért 5 milliárd tranzisztorba befér ez az. GCN-ek még jó ideig támogatottak lesznek, úgyhogy nem kell aggódni, csak ennek picit más a felépítése, látom a cikk elejét elolvastad!

    Mit képtelenség kihasználni? Mantle képes játék van már a piacon, True Audio támogatású is van és mindkettőből jönnek még bőven. Az meg hogy pl a hardveres megatextúrúzást nem használják, az nem az AMD hibája, mert jelenleg csak ők gyártanak olyan hardvert amivel ez megoldható, és csak arra nem fejlesztenek, de majd jön a Broadwell ami már képes lesz rá, na az Intelt meg aztán nem fogja érdekelni, hogy van még olyan a piacon aki nem támogatja, odatolja a lét, ha nem működik így jártál.

    AusWolf, FreeSync amit senki sem használ? Komolyan h...e vagy, NINCS MÉG MONITOR A PIACON!!! Év végére ígérték az elsőket.

    Mitől jövőtállóbb? Olvasd el a cikk első oldalát.

    "Vagy a híd nélküli CF-től, ami az egykártyás rendszerek tulajdonosainak szintén mindegy?" Ezen olyan jót röhögtem, az SLI csatlakozó meglétét más kártyákon is nagyon élvezik az egykártyás rendszer használói!

    Kár, hogy nem foglalkozott itt a tesztelő a tuninggal, mert abból elég világosan látszódott volna, hogy a memória sávszélesség szinte semennyire sem korlátozza ezt a GPU-t. Máshol volt teszt, tessék utánanézni, elég neki a 256 bit.
  • 18.
    2014. 09. 13. 11:14
    Mitől jövőállóbb ez, mint a Tahiti? A FreeSync támogatástól, amit szerintem senki sem használ? Vagy a híd nélküli CF-től, ami az egykártyás rendszerek tulajdonosainak szintén mindegy? Mondjon akárki akármit, én még mindig csak egy 2 gigás, butított, túlárazott Tahitit látok a 285-ben.
  • 17.
    2014. 09. 13. 10:29
    Ez igaz de az akkor téged se zavarjon, hogy ezért a többi kártyának is gyorsulnia kell ugyan ilyen arányban. Persze ha az AMD driverirói is így gondolják és nem csak erre a kártyára optimalizálnak. Ez viszont szemét húzás lenne a többi kártya tulajdonosával szemben.

    Annyi biztos, hogy jelenleg nem elég vonzó de ez főleg az ára miatt van. Igazából csak annyiban jobb, hogy talán jövőállóbb kártya mint az elődje. Viszont itt van egy kis probléma. Mire kitudom használni a jövőállóságát addigra régen a kukában lesz a helye mert egy újabb generáció kopogtat az ablakon. Szóval nekem leginkább ez a bajom a sok új tudással, újítással. Képtelenség még egy ideig kihasználni.
  • 16.
    2014. 09. 12. 23:09
    Az senkit se zavarjon, hogy egyrészt az első driverrel történtek a mérések, később a meghajtók finomodásával ez gyorsulni fog még, azt se szabad szem elől téveszteni, hogy azért van egyenlőre 2GB-os modell csak a piacon, mert az AMD el akarja adni a 280-asokat, amint kisöprik a raktárakat (október közepe-vége, miután a Tahitit már nem gyártják egy ideje), jönnek a 4GB-os modellek is, ebből is, nem csak a 285X-ből. És az árazást is úgy lett meghatározva, hogy a 280-ak kimenjenek.
  • 15.
    2014. 09. 12. 22:12
    Jönni fog még 285X is, ami az utóbbi időben megszokottak szerint biztos nem csak órajel emelést kap, hanem pár extra shadert is, ami ebben le van tiltva.
  • 14.
    2014. 09. 12. 22:01
    Figyelmesen olvas el a cikket:

    Tonga 700 millióval több tranzisztort tartalmaz, mint elődje, miközben ugyanannyi shadert szállít. Az eddig felsorolt változások nem feltétlenül tesznek ki ennyi tranzisztort (sőt), így az is előfordulhat, hogy a kisebb sávszélesség kompenzációjaként megnövelték itt-ott a gyorsítótárak méretét (mint az nVidia a Maxwell esetében), de erről sajnos nem nyilatkozott az AMD.

    Ezért lett nagyobb!
  • 13.
    2014. 09. 12. 20:15
    Hát ez az, most nézem, hogy a tranzisztor szám is jelentősen több, szóval akkor kellenek valami letiltott részeknek is lenniük.
    Nem lett nagy durranás, de jó árazással jó választás lehet majd. Az mindenesetre tuti, hogy a jó öreg 7970-et nem cserélem le erre
  • 12.
    2014. 09. 12. 19:48
    Nem akarok kötekedni, de hogy a francba lett nagyobb a magméret a 280x-től, ha egyszer sokkal kevesebb futószalag van benne, illetve csak 256 bites? ezt magyarázza meg valaki!
  • 11.
    2014. 09. 12. 17:59
    Ez így tényleg nem meggyőző. Jelenleg itt a legolcsóbb R9 280-as 56 600 forint, a legolcsóbb 285 pedig 79 300. Ez így sok, pláne, hogy a fogyasztásból sem sikerült annyit faragni. Így a 4GB-os változatot kellene 60-70 ezer közé beárazni.
  • 10.
    2014. 09. 12. 17:07
    Annyi jó van ebben a kártyában, hogy a hírek szerint leesik miatta a GTX 770-ek ára ha tényleg lemegy ilyen 60K környékére, akkor jön az SLI
  • 9.
    2014. 09. 12. 16:53
    Szóval összegezzük:
    Drágább, lassabb, 3 giga helyett 2 giga ddr5 memóriával.
    Nem támogatja semmi a free syinc-et, de vedd meg.
    A bolondnak is megéri .
    Azért mert tettek bele egy tömörítőt felvinni az árát olyan mintha ha az új driverrel gyorsulna egy kártya akkor annak is emeljük meg az árát mert már gyorsabb.
  • 8.
    2014. 09. 12. 16:17
    A táblázatban több hibát is véltem észrevenni:
    1.nem R7-es hanem R9-es modellekről beszélünk(szerintem)
    2. a 280 és a 280X 3GB VRAMmal rendelkeznek
    3. a GTX 760 Memória interfésze nem 192 hanem 256( vagy nem?)
  • 7.
    2014. 09. 12. 15:10
    Még egy 270X? Csak ez R7? Hát gratulálok
  • 6.
    2014. 09. 12. 14:37
    Időhiány miatt nem foglalkoztam most a tuningpotenciállal, a 285X-nél majd visszatérek rá.
  • 5.
    2014. 09. 12. 13:42
    Jól látszik hogy a GTX760 ellenfele az olcsóbb R9 270x.
    Vagy egy árban lévő R9 280-as.

    Jó teszt, látom nem vártátok meg a R9 285x-et, így is legalább tud olvasni valamit az ember ilyen időben.

    Svindler Hogy hogy kihagytátok a tuning potenciálját?
  • 4.
    2014. 09. 12. 13:32
    Valóban, köszi, javítottam!
  • 3.
    2014. 09. 12. 13:18
    Az 1. oldalon van kis elírás, a 280 és a 280X 3G-s, nem 2. (első táblázat, alulról az 5. sor) - nah, olvasok tovább
  • 2.
    2014. 09. 12. 13:13
    Egyes játékok (WatchDogs, Company of Heroes 2) már most igénylik a 3 GB-ot FullHD felbontáson. A teszt alapján szerintem csak akkor lenne ajánlható kártya a 285, ha a 280-nál is olcsóbb lenne egy pár forinttal. A TrueAudio, a híd nélküli CrossFire, meg az egyéb modern technológiák nem kompenzálnak a kevés VRAM-ért.
  • 1.
    2014. 09. 12. 13:08
    A teszt jó,mondhatni elég alapos,maga a kártya nem annyira...
    66e Ft ért van 280 as Radeon,ami az esetek 70%-ban gyorsabb,mint a 285-ös 80e ért. Nem hiszem ,hogy ez egy nagyon fogyó VGA lesz,kb. mint a R7 265.