GeForce RTX 2080 – Végre generációváltás!

És még milyen! A Turing alapú RTX 2080-as sok előremutató változtatással a fedélzetén érkezik.

GeForce RTX 2080 – Végre generációváltás!

Kapcsolódó termékek arrow_backward arrow_forward
0% THM
Kiemelt
Új
Teszteltük
{{ product.commentCount }}
{{ couponAdditionalProduct.originalPrice|formatPrice }} Ft
Ajándékutalvány
{{ product.displayName }}
nem elérhető
{{ product.originalPrice|formatPriceWithCode }}
{{ product.grossPrice|formatPriceWithCode }}
{{ discountPercent(product) }}
{{ product.grossPrice|formatPriceWithCode }}
{{ product.displayName }}
0% THM
Kiemelt
Új
Teszteltük
{{ product.commentCount }}
{{ couponAdditionalProduct.originalPrice|formatPrice }} Ft
Ajándékutalvány
{{ product.displayName }}
nem elérhető
{{ product.originalPrice|formatPriceWithCode }}
{{ product.grossPrice|formatPriceWithCode }}
{{ discountPercent(product) }}
{{ product.grossPrice|formatPriceWithCode }}
{{ product.displayName }}

A GeForce RTX család még augusztusban mutatkozott be a Gamescomon, de a hivatalos megjelenésére idáig várni kellett. Vagyis egész konkrétan csak az RTX 2080-as kapható tegnap óta, a Titaniumra várni kell további egy hetet, a 2070-es pedig csak jövő hónap végén fog befutni. A Pascal alapú GTX széria még 2016 tavaszán jelent meg, szóval viszonylag sokat kellett várnunk erre a generációváltásra, de tény ami tény, az AMD nem adott okot az Nvidiának a kapkodásra.

Az RTX kártyák alapja az új Turing architektúra, ami a Volta továbbgondolása. Utóbbi egy brutális árú TITAN kártyát leszámítva nem igazán tette tiszteletét a gamer piacon, inkább a HPC szegmensben érvényesült.

Mivel tud többet a Turing, mint a Pascal?

Az Nvidia mérnökei átdolgozták a shader magokat, külön feldolgozók vannak a lebegőpontos és egész számokra, valamint (bár néhány rajzon az egyszerűbb magyarázat kedvéért külön mutatják őket) ide kerültek a Tensor magok is, amik a mesterséges intelligenciával kapcsolatos számításokat végzik. Hosszútávon ez lehet az egyik legnagyobb újítás, néhány képmanipulációs feladat esetében leveheti a terhet a shaderekről. Jelenleg egy újfajta élsimítási eljárásra használható csak, ami egy betanított algoritmussal felskálázza a képet, majd vissza az eredeti felbontásra. A jövőben az Nvidia valószínűleg a fejlesztők rendelkezésére bocsát majd több előre elkészített kódot is. Kénytelenek lesznek a saját szoftvermérnökeiket dolgoztatni, mert az elmúlt 20 év tapasztalatai azt mutatják, hogy a játékok fejlesztői különben nem erőltetik meg magukat.

TU104 GPU (Az RTX 2080-as alapja)

Na de haladjunk tovább. A gyorsítótárakat egy kicsit átrendezte az Nvidia és így tempósabb lett az elérésük, nagyobb a sávszélességük. Optimális esetben a méretüket még tovább is lehetett volna növelni, de az új GPU-k már így is óriásiak lettek, valahol meg kellett húzni a határt, mert így sem olcsó gyártani őket. A memóriavezérlő is szintet lépett, immár GDDR6-os RAM-ok lógnak a végén, 14 GHz-es órajelen. Az extra sávszélességre pedig szükség is van a megnövekedett erő miatt, és mert… megjelentek a Ray Tracing magok.

Ezek a DirectX nemsokára érkező sugárkövetésén gyorsítanak majd. Borzasztó erőforrásigényes még mai szemmel is a ray tracing, így nem árt a plusz kakaó. Az RT magokat egyelőre még nem használja ki semmi, meg kell hozzá érkeznie a Windows frissítésének, és utána a játékokat is fel kell készíteni rá. A nemrég befutott Shadow of the Tomb Raider, amit demóztak is a Gamescomon, megkapja majd a saját tapaszát a témában.

A videók feldolgozásáért felelős motor is fejlődött, immár a 8K-s videókat is képes kódolni 30 fps-sel, bár erre valószínűleg egy ideig azért még nem lesz szükség. A dekódolás oldalán a 10 és 12 bites HEVC esetében immár támogatott a 4:4:4 kódolás, és a 10/12 bites VP9 sem jelent akadályt a Turingnak. Hogy legyen is min nézni azt a 8K-s tartalmat, a DisplayPort kimenetek képesek lesznek kezelni az ilyen magas felbontású kijelzőket, 60 Hz-es képfrissítés mellett.

Asus Dual-RTX2080-O8G

Hazánkba az ASUS RTX kártyái futottak be első körben, hozzánk az egyszerűbb, DUAL jelzésű változat került. A STRIX-ekkel ellentétben ez a kártya nem brutálisan magas, a hűtő nem nyúl túl a NYÁK-on, de karcsúnak nem mondhatnánk a konstrukciót. Cserébe viszonylag halkan teszi a dolgát, még terhelés alatt is (csúcskártyához képest persze). A kimenetei megegyeznek a referencia kártyák kimeneteivel, tehát kapunk három DisplayPort 1.4a, egy HDMI 2.0 és egy egy USB-C alapú virtual link csatlakozót, utóbbit a jövő virtuális valóság sisakjainak.

A kártya nálunk 1860 MHz-ig boostolta magát sok esetben, tehát e körül lehet a maximális órajele, a hőmérséklete pedig hosszú terhelés után sem ugrott az egekbe, így az 1800 MHz feletti órajel szinte végig garantált volt.

A mezőny

Négy csúcskártya, és viszonyítási alapnak egy GTX 1060-as került az RTX 2080-as mellé a mai napon. A nyers specifikációt tekintve a 2080-as nincs sokkal a 1080-as felett, a Titanium pedig akár gyorsabb is lehetne, de az architekturális változtatások még beleszólhatnak a képbe. Érdekesség, hogy emlékeink szerint az RTX 2080-as az első olyan 80-as kártya, ami nem teljes értékű GPU-val a fedélzetén érkezik (a TU104-es fedélzetén ugyanis 3072 shader van).

Tesztkonfiguráció

  • Alaplap: ASUS Z370-A
  • Processzor: Intel Core i7-8086k@5GHz
  • Memória: 2x8GB ADATA XPG DDR4-3000MHz
  • Grafikus kártyák: MSI GTX 1060 6GB GAMING, MSI GTX 1070 8GB GAMING X, MSI GTX 1080 8GB GAMING, ASUS RoG STRIX GTX 1080 Ti 11GB, Sapphire RX VEGA64 Nitro+, ASUS DUAL-RTX2080-O8G
  • Háttértár:Samsung 850 EVO 480GB*2
  • Tápegység: Cooler Master V850 (850W)
  • Operációs rendszer: Windows 10 64bit minden frissítéssel
  • Driverek: GeForce 399.24, GeForce 411.63 (RTX 2080), Radeon Software 18.9.1

Mivel a gyárilag tuningolt GeForce-okat közel lehetetlen pontosan referencia értékekre állítani, ezért ez nekünk is csak nagyjából sikerült, némi szórás (maximum 2-3%) lehet a referenciákhoz képest.

Galéria megnyitása grid_on

Most pedig csapjunk a lovak közé, lássuk mire képes az RTX 2080-as a gyakorlatban!

Szintetikus tesztek

Galéria megnyitása grid_on

Ezek alapján úgy látszik az Nvidia mérései nem voltak elszakadva a valóságtól, az RTX 2080-as tényleg képes az eddigi csúcskártya fölé nőni, főleg a VRMark leginkább terhelő tesztjében jelentős az előnye.

Játéktesztek

Galéria megnyitása grid_on

A játékok alatt már nem ennyire egyértelmű az RTX 2080-as előnye a GTX 1080 Ti-hez képest. Több olyan eset is van, főleg DX12-es címek alatt, amikor ha minimálisan is, de lemarad. A Vulcan API viszont úgy látszik fekszik neki, mert Wolfenstein alatt nagyon szépen teljesít. Bár utóbbi játéknál meg kell jegyezzük, hogy sajnos a jelenlegi driverekkel az összes GeForce képhibákat dobált néhány robbanásnál. Ezen felül az RTX esetében még annyi problémába futottunk bele, hogy Total War: Warhammer 2 alatt egy idő után elkezdett belassulni, ezért minden felbontásváltásnál újra kellett indítanunk a gépet a mérésekhez. Negyed óra után ugyanis már a felére volt csak képes az eredeti sebességének. Valami szoftveres gond lehet a háttérben az új kártyákkal, a Pascal alapúak ugyanis nem viselkedtek így.

Verdikt

Mielőtt ítéletet hirdetnénk, lássuk, hogy az összes tesztet átlagolva mire képesek a kártyák (a galériában felbontásonként is megtalálható az összesítés).

Galéria megnyitása grid_on

Az RTX 2080-as ha nem is sokkal, de képes a GTX 1080 Ti fölé emelkedni, tehát új királyt köszönthetünk a személyében a TITAN-ok alatt, de csak jövő csütörtökig, akkor ugyanis befut az RTX 2080 Ti, ami az igazi királykategória lesz, még a TITAN V-nek sincs esélye ellene.

Az előző generációhoz képest mi 30%-os előrelépést mértünk, de más oldalakon találkoztunk 40+-os különbséggel is. Ez valószínűleg köszönhető annak is, hogy egyrészt sokan Founder’s Edition kártyákat kaptak, amik egy kicsit magasabb órajeleken ketyegnek, másrészt a gyárilag húzott Pascaljaink az apró korrekció ellenére is teljesíthettek jobban, mint a referencia változatok (olyat találni manapság nem túl könnyű). Néhány százalék eltérés tehát simán lehet a tesztek között, de az erősorrenden ez nem változtat, könnyű a koronát feltenni az RTX fejére.

Ráadásul ez még „csak” a hagyományos teljesítménye a kártyának. Ha megérkeznek a sugárkövetést használó játékok, sokkal jobban el fognak lépni az újdonságok, hiszen a jelenleg szunnyadó RT magok is életre kelnek majd (kíváncsiak vagyunk, hogy fogyasztásban, és így hőtermelésben ez mit fog jelenteni). És akkor még nem beszéltünk a Tensor magokról. Már most is csinálhattunk volna pár tesztet a használatukkal, de nem tartottuk volna fairnek, mert hiába gyorsak az újdonságok a direkt rájuk írt élsimítással, nem biztos, hogy ez sokaknak számít.

Most pedig jöjjön a lényeg, az ár-érték arány, már amennyiben ennek van értelme ebben a magasságban. Az RTX 2080-as jelenleg érezhetően drágább, mint a 1080 Ti, de ez annyira nem meglepő, az új technológiának mindig felára van. Az olcsóbb kártyák benézhetnek 300 ezer forint alá, de a GTX 1080 Ti árszintjére egyelőre nem sok esély van. Az új kártyák gyártása ugyanis nem olcsó, még az RTX 2080-as GPU-ja is nagyobb, mint a GTX 1080 Ti, a jövő héten érkező Titanium pedig igazi szörnyeteg lesz ezen a fronton, tehát az Nvidia némi kockázatot is vállalt az új magok beépítésével hosszútávon. Nem véletlen, hogy a költségcsökkentés miatt a 2070-es ezúttal külön GPU-ra épül majd, és nem a 2080-ast karcsúsítgatják a mérnökök (bár ha sok lesz a selejt, valószínűleg előbb-utóbb jön egy 2070 Ti).

Hosszútávon sok múlik azon, hogy az új technológiákat mennyire kezdik el használni a játékok fejlesztői. Mivel a sugárkövetés szabványos lesz a DirectX miatt, ezért van esély rá, hogy az AAA címeknél előveszik, de egyelőre csak egy maroknyi játékról tudunk, ami támogatni fogja (igaz, ezek között vannak elég nagy címek, mint a Tomb Raider és a Battlefield). A Tensor magok kihasználása már más tészta. Mivel az Nvidia saját kódját beültetni extraként nem nagy plusz munka, ezért ezt valószínűleg viszonylag sok fejlesztő megteszi majd, de egyéni kódokra nem nagyon számítunk a közeljövőben.

Ahogy elkezdenek majd megjelenni a sugárkövetéses játékok, újra elővesszük majd az RTX 2080-ast, de az kb. borítékolható, hogy sugárkövetéssel már brutális előnye lesz a Pascalokhoz képest. Egyelőre ráadásul csak a saját kártyáival versenyez az Nvidia, mert úgy néz ki az AMD ezt az évet kihagyja.

Tesztek

{{ i }}
arrow_backward arrow_forward
{{ content.commentCount }}

{{ content.title }}

{{ content.lead }}
{{ content.rate }} %
{{ content.title }}
{{ totalTranslation }}
{{ orderNumber }}
{{ showMoreLabelTranslation }}
A komment írásához előbb jelentkezz be!
Még nem érkeztek hozzászólások ehhez a cikkhez!
Segíts másoknak, mond el mit gondolsz a cikkről.
{{ showMoreCountLabel }}

Kapcsolódó cikkek

Magazin címlap arrow_forward