A felbontások fejlődése
Út a 4K-s felbontásig
Kezdetben vala a karakterekre korlátozott megjelenítés… na jó, ennyire régre azért nem ugrunk vissza. Látogassunk el inkább a 90-es évekbe, amikor még mindannyian CRT-k előtt ücsörögtünk, és örültünk, ha a használt felbontást nem 60Hz-es képfrissítés mellett kellett néznünk. A 3D-s gyorsítók is csak ekkortájt kezdtek el feltűnni, és eleinte erősen behatárolták, hogy milyen felbontáson játszhatunk. 1996-ban megjelent a Voodoo 1, és egy évvel később mindenki csak ámult, hogy mennyire szépen is fut rajta a Tomb Raider 2 640*480-ban. Azóta persze nagyot változott a világ, az idei epizód talán el sem indul ilyen alacsony felbontáson, de akkoriban ez még jónak számított. A monitorok azért egy fokkal előrébb jártak, megfizethető áron lehetett kapni olyanokat is, amik képesek voltak jó frissítési ráta mellett kezelni a 800*600-at és az 1024*768-at. Hát igen, anno, akárcsak a TV-knél, még a 4:3-as képarány hódított, nem volt minden szélesvásznú. A CRT monitorok szép lassan fejlődtek, felbukkantak az első síkképernyős modellek, és egyre jobb vezérlő elektronikát kaptak, így már olyan magas felbontásokkal is elbántak, amiknek egyébként már nem sok értelmük volt a kijelzők fizikai adottságai miatt. Ettől függetlenül 2000 környékén már találkozhattunk olyan példányokkal is, amik 2048*1536 pixel megjelenítésére is képesek voltak, méghozzá 19 colon.
És most itt álljunk meg egy pillanatra… 2048*1536? Igen, ez nagyobb, mint a manapság oly divatos Full HD-s, azaz 1920*1080 képpontos felbontás, és igazából a 2000-es évek elején megjelenő nagyobb LCD monitorok (20 colosak) is 1600*1200-asok voltak, ami pixelszámban nem sokkal kevesebb, mint a Full HD. Igaz, akkoriban ezeknél még elég vastagon fogott a ceruza, ha az árat kellett meghatározni, az elterjedtebb modellek inkább a 17-19 colosak voltak, 1280*1024-es felbontással. Ettől függetlenül megállapíthatjuk, hogy az utóbbi bő egy-másfél évtizedben nem igazán volt előrelépés felbontás fronton, inkább mindig egy új technológia fogta meg az embereket. Először elterjedtek az LCD kijelzők, majd jött a szélesvászon, a LED-es háttérvilágítás, a 3D, és végül az idei év slágere, a 4K-s felbontás, ami egyébként a legkisebb az UltraHD névvel illetett felbontások közül.
forrás: purelinkav.comHogy miért nem jött hamarabb? Egy biztos, nem technikai korlátok miatt, ugyanis 2001-ben (!) az IBM már bemutatta a T220-ast, egy 22,2 colos monitort, aminek a felbontása 3840*2400 pixel volt. Ez nagyobb, mint a mostanában kapható 4K-s kijelzőké, azok ugyanis megállnak 3840*2160-nál (a különbség egyébként azért van, mert anno a szélesvásznú kijelzőknél még a 16:10-es képarány volt a divat). Azon azért érdemes elgondolkodni, hogy miért kellett több mint 10 évet várnunk arra, hogy egy kijelzőkkel foglalkozó PR-os minden második szava a 4K vagy az UltraHD legyen. Persze rávághatnánk egyből, hogy a kereslet élénkítése miatt, hiszen rá kell bírni a kedves fogyasztót, hogy váltson valami újra, ehhez pedig nem árt egy indokot adni neki. Ezzel a válasszal igazából nem is tévednénk, de azért szerencsére több ok is megbújik a késés hátterében.
Az első és talán a legfontosabb a tartalom kérdése. Elvégre mire jó egy 4K-s kijelző, ha nem tudjuk kihasználni az adottságait? Maximum e-pénisz növelésre ugye. Márpedig 10 éve még csak analóg TV adás volt, az is csak 720*576-ban, tehát egy televíziónak ekkora felbontást adni felesleges lett volna, igazából még manapság is az sok esetben. Monitoros felhasználás esetében viszont nem probléma, hogy nincs ilyen felbontású kész tartalom, hiszen amit látunk, azt a gépünk állítja elő. Azonban 10 évvel ezelőtt a gépek is jóval gyengébbek voltak, semmi sem lett volna képes kihajtani egy ilyen szörnyeteget, legalábbis 3D-ben biztos nem, és a 2D-s megjelenítésnek is megvoltak a maga akadályai, például az operációs rendszerek felkészületlensége, ami ha őszinték akarunk lenni, még manapság is visszatarthatnak a váltástól.
Egy kicsit visszatérve a hardverek világába, az sem volt anno utolsó szempont, hogy milyen csatlakozón keresztül lehet egyáltalán ilyen sok pixelt átvinni a képernyőre. Az IBM monitora négy DVI csatornát használt, elég speciális megoldás volt. Gondolhatnánk, hogy manapság már nincsenek ilyen problémák, de az a szomorú igazság, hogy sajnos vannak. Nem azért, mert nincs meg hozzá a technológiánk, hogy egy kábelen elég pixelt küldjünk át, hanem mert a szabványaink vannak lemaradva. Egyelőre nincs szabványos út arra, hogy elérjük a 60Hz-es képfrissítési rátát 4K-s felbontás mellett, ezért a kijelzőgyártóknak trükköznie kellett. A 3840*2160-as monitorok két 1920*2160-as részre osztják fel magukat logikailag. Ekkora felbontás már mehet 60 képkocka/másodperces gyorsaság mellett egy HDMI kábelen, vagy egy DisplayPort csatornán. Egy DisplayPort 1.2-es kábel azonban több ilyen csatornát is képes kiszolgálni, így ha egy kicsit nyakatekerten is, de megoldható, hogy mégiscsak egy kábelen menjen a 3840*2160@60Hz. A rendszerünk azt fogja hinni, hogy két monitorunk van, de egyelőre nincs jobb megoldás, be kell érjük ezzel, vagy marad a 30Hz (az ugyanis megy egy csatornán), ami maximum csak filmnézésre elegendő.
A tartalom és a szabványok hiányán túllépve ott vannak még a valós igények is. Pár éve még tökéletesen boldogok voltunk egy szimpla Full HD-s képernyővel is, aztán jött az Apple és kitalálta a Retina kijelző fogalmát, és ezzel elindított egy óriási versenyt az okostelefonok világában. Ennek hála az emberek már mindenhol pixeleket látnak, 1-2 év, és lesz, aki szerint már az 1920*1080 is kevés 5 colon. Hiába no, az Apple és a versenytársai evolúciós pályára állítottak minket: amihez egyébként évezredek kellenének, most megléptük pár év alatt, hirtelen sasszeműek lettünk, csak szólni kellett nekünk, hogy akár erre is képesek vagyunk. A cinizmust félretéve, a Retina felbontásoknak van értelme, de lehet, hogy már átestünk a ló túloldalára. Közben viszont a monitorok frontján van mit behoznunk, ugyanis míg a táblák és okostelefonok felbontása szárnyal, addig az asztali kijelzők maradtak ott, ahol már 10 éve vannak. Előbb-utóbb ideje lesz lépni, az első fecskék pedig mostanában jelentek meg. Nézzünk is meg közülük egyet, ami segítségünkre volt a mai teszt elkészítésében.
ASUS PQ321QE
ASUS PQ321QE
Jelenleg nem sok 4K-s monitor kapható, és azok sem az olcsóságukról híresek, az ASUS PQ321QE talán az egyetlen a megvásárolható példányok közül, ami 1 millió forint alatt beszerezhető. Az újdonságok bevezetésénél fel kell készülni a magas árakra. Az ASUS monitora egyébként ugyanazt a Sharp által gyártott IGZO panelt használja, ami a jóval drágább Sharp és Dell kijelzőkben is megtalálható. A képe gyönyörű, annyira, hogy ha tehetnénk, kötelezővé tennénk az IGZO paneleket, egyszer érdemes megnézni egyet élőben. Az új technológia egyébként nem csak a kép minőségén látszik meg, a fogyasztásra is kedvező hatást gyakorol. Még ilyen nagy, 31,5 colos méretben is 100W alatt marad a monitor fogyasztása.
ASUS PQ321QEA PQ321QE egy viszonylag egyszerű állványzatot kapott, ami csak döntögetésre és magasságállításra ad lehetőséget. Cserébe viszont jó masszív, betonstabilan tartja a méretes kijelzőt. Csatlakozók frontján nem leszünk túlságosan eleresztve, kapunk egy DisplayPort bemenetet és… hát majdnem ennyi. Van még egy audio bemenet és egy füles kimenet, ez a teljes lista. A monitornak vannak saját hangszórói is, amik elég tisztán szólnak, de a maximális hangerejük nem túl magas, látszik, hogy csak vészmegoldásnak vannak, és aki ilyen kijelzőt vesz, annak valószínűleg van egy jó fülese vagy hangrendszere.
Tapasztalatok
Ahogy az előző oldalon is írtuk, manapság az ilyen monitorokat úgy kell kezelni, mintha kétmonitoros rendszerünk lenne. Egy DisplayPort csatornán is elmegy az ASUS újdonsága 4K-s felbontáson, de ekkor a maximális beállítható frissítés 30Hz. Érdemes tehát a rendszerünk elindulása után egy kis sétát tenni a menüjében, és átállítani a DisplayPort kapcsolatot MST (Multi Stream Transport) módba. Az AMD és az nVidia driverei már fel vannak készítve az ilyen esetek kezelésére, így egyik fél kártyáival sem volt beállítási problémánk, ahogy átváltott a monitor, automatikusan beállították a kétmonitoros rendszert. Az örömünk csak azért nem lehetett felhőtlen, mert néhány nVidia kártya esetében azt tapasztaltuk, hogy MST módban lévő monitor mellett nem hajlandó bebootolni a gépünk. Valószínűleg csak frissebb BIOS-ra van szükségük a kártyáknak, mert pl. a GTX780-nál fennállt ez a probléma, míg a GTX780 Titaniumnál nem.
A PQ321QE vezérlője egyébként végig két monitorként kezeli önmagát, egy stream esetében is. Ez pl. felbontásváltásnál látszik, előbb az egyik oldal jelenik meg, aztán a másik. Használat közben ez nem zavaró, ritkán fogjuk látni.
Sajnos viszont azt kell mondjuk, a Windows-ok még mindig nem állnak a helyzet magaslatán, ha nagyobb felbontások kezeléséről van szó, még a Windows 8-nál is tapasztalhatóak hibák, amennyiben 150%-os méretet kérünk mindenre (pl. olyasmit is széthúz, amit nem kéne). Éppen ezért nyer értelmet a 31,5 colos méret: ha 24-27 colon néznénk 4K-s felbontást, a rendszerünk valószínűleg használhatatlan lenne, olyan apróvá válna minden, a nagyobb DPI támogatása pedig még nem tökéletes. A Microsoftnak már épp ideje, hogy rágyúrjon a témára, mert azért az várható, hogy a jövőben szép lassan elkezdenek terjedni a 4K-s kijelzők. Még jó, hogy játékok alatt nincsenek ilyen problémák, a felhasználói felület szinte mindig szépen skálázódik, így talán nem is csoda, hogy a munka mellett a játékok állnak a legjobban a 4K-s monitoroknak. A következő oldalon bemutatjuk mely kártyáknak kellett helytállniuk a mai megmérettetésen.
A mezőny, tesztgép
Íme a mai felhozatal:
Az AMD-től és az nVidiától is csak a legerősebb kártyákat pakoltuk a tesztbe, és az R9 290X esetében minden mérést Über módban hajtottunk végre. Ha végignézünk a mezőnyön, akkor láthatjuk, hogy lehet köztük egy problémás példány, a GTX770. Ez a kártya rendelkezik a legkevesebb memóriával (2GB), és a memória-sávszélessége is neki a legkisebb. Ezek olyan dolgok, amik a felbontás növelésével negatívan hathatnak a kártyára. A méréseink szerint a Battlefield 4 például könnyen felemészt 2,5GB memóriát a grafikus kártyán, de mint majd a méréseinkből is látszik, nincs egyedül ezzel.
A két csúcskártyát nézve elmondhatjuk, hogy nyers shader erőben körülbelül ugyanott vannak, és a memória-sávszélességük is hasonló, a GTX780 Ti-nek viszont több textúrázója van, míg a Radeon a pixeleket tudja nagyobb tempóban falni, hála a 64 ROP egységének. Utóbbi segíthet az R9 290-eseknek abban is, hogy MSAA használata mellett gyorsabbak legyenek, míg a GeForce azon játékokban kerülhet előnybe, ahol a shader erő bőven elég, inkább a textúrázok száma számít.
Tesztkonfiguráció
Alaplap: Gigabyte GA-Z77X-UD3H
Processzor: Intel Core i5-3570k@4.5GHz
Memória: 2x4GB Corsair Vengeance DDR3-1866
Grafikus kártyák: ASUS Radeon R9 280X Matrix 3GB, AMD R9 290 4GB, AMD R9 290X 4GB, nVidia GeForce GTX770 2GB, nVidia GeForce GTX780, nVidia GeForce GTX780 Ti 3GB, Gainward GeForce GTX TITAN (a nem referencia kártyákat természetesen referencia órajelen járattuk)
Tápegység: Cooler Master M2 Silent Pro 1000W
Operációs rendszer: Windows 8 64bit minden frissítéssel
Driverek: Catalyst 13.11 béta9.2, GeForce 331.70 béta
Driverkérdés: Tegnap előtt megjelent a 331.82-es GeForce szoftver, amiben a leírása szerint volt egy-két olyan optimalizáció, hogy csak pislogtunk. Akár +50% sebesség Metro: Last Light alatt? Ehhez azért már a csillagok együttállása is kellhet. A 4K-s monitor már nem volt nálunk, de a 2560*1440-es méréseket újra elvégeztük a GTX770-essel Metro, Crysis 3 és Battlefield 4 alatt. Volt, ahol mérési hibán belül volt az eredmény és a legnagyobb mért különbség is mindössze 5-6% volt, úgyhogy a mai teszt átlagán semmiképp sem változtatott volna az új driver (azért nagy kő esett le a szívünkről, nem két perc volt összehozni a következő pár oldalt).
Felbontások: A cikknek nem véletlenül az a címe, ami, nem csak a 4K-s felbontásra koncentráltunk. Persze nagyon kíváncsiak voltunk, hogy a mostani kártyák elegek-e már erre, de tekintve, hogy jelenleg még elég magas árat kérnek el egy megfelelő monitorért, megnéztünk egy elérhetőbb alternatívát is. 2560*1440-es kijelző már 150 ezer forinttól kapható, és már ez is egy jelentős előrelépés az 1920*1080-hoz képest (közel kétszeres pixelszám). A Full HD-s felbontások méréseit viszont nem pakoljuk be újra ide, így is lesz bőven mit nézegetni. Akit érdekel mire voltak képesek a kártyák a legelterjedtebb felbontáson, olvasson bele a múltkori cikkünkbe.
Most pedig következzenek a tesztek, először a kisebbik felbontáson!
2560*1440 – Round 1
A 2560*1440-es tesztek első csokrából azt láthatjuk, hogy a Radeonok egy kicsit gyorsultak a konkurenciához képest, ami talán a friss drivernek is köszönhető (nem ugrál annyira az órajel). Az első komolyabb előrelépés a Crysis 3 esetében tapasztalható, itt szinte katonás rendben beálltak egymás mellé az AMD és az nVidia kártyái. Kisebb felbontáson az GTX-eknek volt egy kis előnye.
2560*1440 – Round 2
Ezen az oldalon körülbelül ugyanaz figyelhető meg, ami az előzőn is: a Radeonok némileg jobban teljesítenek, mint eddig. A legfrissebb Total Warnál pedig látszik, hogy nem kell 4K-s felbontás ahhoz, hogy kevés legyen a 2GB fedélzeti memória. A GTX770 azért marad le ennyire, mert a beépített benchmark elején egy képregényt mutogat nekünk játék helyett, sokszor kell a rendszermemóriához nyúlnia.
Most pedig következzen az, amire talán a legtöbben kíváncsiak! Duplázzuk meg még egyszer a pixelszámot a következő oldalon.
3840*2160 – Round 1
Alan Wake alatt nem változik a sorrend, szinte ugyanazokat az arányokat látjuk, mint két oldallal ezelőtt. Még a GTX770 is jól tartja magát, elég a memóriája ehhez a játékhoz.
Akárcsak a Batman: Arkham Originshez. Itt sem változik a sorrend. Az fps számláló persze mindenhol úgy a felére esett le, de még így is képes átlag 30 fps-t kihozni bármelyik kártya maximális beállításokon, ami azért nem rossz eredmény.
Battlefield 3 alatt azért már nehezebb tartani a tempót, a „gyengébb” kártyák beesnek 30 fps alá, és ha nem akarunk túl alacsony minimum fps-eket, akkor azért már érdemes a legerősebb kártyák körül nézelődni, vagy lejjebb venni a beállításokat.
Battlefield 4 alatt ez elég sokat számít. Ha hajlandóak vagyunk Ultráról lemenni simán a magas minőségi beállításra, akkor már egész játszhatóvá válik a játék, az idő nagy részében 30fps felett lesz a 290-es Radeonokkal. Azért pont a Radeonokat emeltük ki, mert sokkal kiegyensúlyozottabb a teljesítményük a DICE új játéka alatt. Persze a tökéletes eredményhez, főleg ha szeretnénk elérni a 60fps-t, már nem árt két videókártya.
Bioshock Infinite alatt eddig mindig azt láthattuk, hogy a GeForce-ok verhetetlenek, de ha lejjebb vesszük a minőségi beállításokat, akkor kiderül, hogy a Radeonok képesek egyenlíteni. Kisebb felbontásokon nem vagyunk erre rákényszerítve, de 4K mellett néha kompromisszumokat kell kötni.
3840*2160 – Round 2
A Crysis 3 maximális beállításokon szinte játszhatatlan bármelyik kártyával, legalább kettőre lenne szükség, hogy értékelhető fps számot érjünk el, és akkor még nem is nyúltunk a komolyabb élsimításokhoz, csak FXAA-t használtunk. Közepes beállításokon már élvezhető a játék, de ilyenkor már el kell gondolkodnunk azon, hogy mi fontosabb: a felbontás vagy a magasabb minőségi beállítások, mert a Crysis esetében azért szépen látszik a különbség.
A Blood Dragont maximumra tekerve még az R9 290-es is GTX 780 Ti szinten van, a GTX770 lába alól pedig kifut a talaj. Kikapcsolva az élsimítást már magára talál, a többiek közül pedig sokan 30fps felett végeznek. Érdekes módon a minőségi beállítás Ultráról High-ra való levétele alig növeli a sebességet, az alacsonyabb minőségi beállítások pedig már szépen látszanak a képernyőn is, így eljutunk a Crysis 3-nál is látott dilemmához. Felbontás vagy magasabb beállítások? Azért persze ott van a C válasz is: két kártya SLI/CrossFire-ben.
GRID 2 alatt nem igazán változnak az erőviszonyok, csak a szokásos fps felezés látható a 2560*1440-hez képest. Az erősebb kártyákon egész jól játszható a játék, és még a GTX770 is képes átlag 30 fps-t kipréselni magából (de egy autós játékhoz nem árt, ha ennél több van, érezhető az irányításon).
Hitman alatt, ha bekapcsolva hagyjuk az élsimítást, az rosszabbul érinti a GeForce-okat, mint a Radeonokat. A benchmark elég terhelő, a játék maga igazából egész játszható az erősebb kártyákkal, de ha biztosra akarunk menni, csak kapcsoljuk ki az élsimítást. A GTX770 megtáltosodik tőle, mert így nem fuldoklik a memória hiányában, és igazából 4K mellett nem annyira létszükséglet az AA, ha valamin spórolni akarunk, érdemes ezt előrevenni a listán.
A Mafia 2 nem egy mai darab, de ilyen felbontáson azért meg tudja izzasztani a grafikus vezérlőket. Érdekes módon a két 290-es nagyon közel kerül egymáshoz, pedig a háttérben nem állhat processzor limit. Mindenesetre ilyen felbontáson már ők vezetik a rangsort, még a sima 290-es is hozza a GTX780 Ti szintjét.
3840*2160 – Round 3
Metro alatt nem mertünk az SSAA-nak még a gondolatával sem kacérkodni, kinyírta volna bármelyik kártyát, ha az egyedül próbálkozik. Maximális beállításokon még így sem érte el a 30 fps-t semmi. Mindent egy kicsit lejjebb tekerve sem változik érezhetően a helyzet, nagyon komolyan hozzá kell nyúljunk a beállításokhoz, ha játszható sebességre akarjuk gyorsítani a játékot. Marad a többkártyás rendszer, vagy a szokásos dilemma.
Sleeping Dogs alatt kipróbáltuk az összes élsimítási beállítást, így az SSAA is bevetésre került. Ahogy az az első dián is látszik, ez azonnal megölte a GTX770-est, de mentségére legyen mondva, hogy a többiek sem voltak képesek játszható értékeket felmutatni, így tulajdonképpen ez teljesen mindegy. Az élsimítást egy fokozattal visszább véve már elég sok kártya produkál szép értékeket, ha pedig még ennél is hajlandóak vagyunk lejjebb menni (miközben egyébként megtartjuk a maximális beállításokat), akkor már a 60 fps elérése sem lehetetlen, és még a GTX770-en is jól fut a játék.
Sniper Elite V2 alatt ugyanaz a sorrend, mint kisebb felbontások esetében, csak SSAA-val játszhatatlanná válik. Anélkül viszont bármelyik kártyával elmegy.
Tomb Raider alatt csak sima FXAA-t használtunk, az SSAA-t az eddigi tapasztalataink miatt nem erőltettük. A GTX770 TressFX használata mellett kifogy a memóriából, és valószínűleg ennek volt köszönhető, hogy Lara tincsei csak úgy teleportálgattak jobbra-balra (mondjuk hasonlót már rossz driverek miatt is láttunk régebben, de itt nem ez volt a gond). Ha lemondunk a TressFX szépségeiről, már kezd játszhatóvá válni a játék, de igazán akkor gyorsul be, ha a minőségi beállításokat is megpiszkáljuk. High séma használata mellett még mindig nagyon szép a játék, és a legerősebb kártyák elérik vele a 60 fps-t is. Tökéletes.
A Rome 2 nagyon zabálja a memóriát, maximális beállítások mellett még a 3GB-os kártyák is csak pislogtak, a GTX770 pedig akkor közölte velünk, hogy na jó, elmentek ti a fenébe… A teljesen értékelhetetlen eredmények miatt inkább lejjebb vettük a beállításokat, főleg, hogy nem sok különbség van a VHQ és Ultra között (a közeli képek így is, úgy is elég randák). Így már olyan fps értékeket kaptunk, ami egy stratégiai játékhoz megfelelő, és még 2GB videó memóriában is elfértünk. Igazából ez egy olyan játék, ami teljesen maximumra tekerve is úgy néz ki, hogy érthetetlen számunkra, hogyan képes ennyire leszívni a gépünket.
Verdikt
*dobpergés* Elérkeztünk az összesítésekhez, lássuk, hogy mi történik, ha átlagoljuk a különböző felbontásokon kapott eredményeket. A tizenöt játék azonos súllyal szerepel most is a diagramokon.
Két héttel ezelőtt, 1920*1080-as felbontás használata mellett azt láthattuk, hogy a GTX780 Ti, ha csak minimálisan is, de a mezőny felett állt. Új AMD driverrel, és magasabb felbontásokon ez az előny teljesen eltűnt. Bármelyik diát is nézzük, az R9 290X hibahatáron belül van a GTX780 Ti-hez képest, az R9 290 pedig a TITAN-hoz képest, nagyon kiegyenlítettek az erőviszonyok. Az árak viszont nem, így érdemes vásárlásnál az egyéni preferenciákat is erősen figyelembe venni (ajándék játékok, PhysX, Mantle, Shadowplay, TrueAudio, stb.). Most viszont nem azért vagyunk itt, hogy a különböző kártyák ár-érték arányát elemezgessük, a mai nap nagy kérdése az volt: elegek-e a mostani grafikus vezérlők arra, hogy akár 4K-s felbontáson is játsszunk velük?
Nos, a tapasztalataink alapján igen is, meg nem is. A PS3-as / Xbox 360-as konzolgenerációnak hála néhány kirívó esettől eltekintve a játékok hardverigénye egy ideje stagnál, a multiplatform fejlesztés miatt a legtöbb fejlesztőcég nem öl plusz energiát a PC-s változatok polírozásába (tisztelet a kivételnek persze). A grafikus vezérlők azonban szépen erősödtek az utóbbi 7-8 évben is, ezért elérkeztünk arra a pontra, hogy igen, képesek a jelen generáció játékait 4K-s felbontáson is futtatni, legalábbis a legtöbbet. A probléma az, hogy azért már most is van egy maréknyi program, ami nem éri be még egy R9 290X-szel, vagy egy GTX780 Ti-vel sem. Ilyen például a Crysis 3 és a Metro: Last Light. Ezekben a játékokban túlságosan nagy áldozatokat kell hozni a beállítások oltárán ahhoz, hogy élvezhető sebességet kapjunk, és úgy gondoljuk, hogy jövőre, a next gen konzolok térhódításával párhuzamosan egyre több ilyet fogunk látni. Az új gépek ráadásul elég sok memóriával rendelkeznek ahhoz, hogy a fejlesztőknek legyen értelme magas felbontású textúrákat használni és ez kihatással lesz (végre) a PC-s változatokra is. Az már most látszik, hogy 2GB videó memória csak kompromisszumokkal elég ilyen magas felbontásokra, úgyhogy a jövőben tényleg a minimum lehet a 3GB memória, még 1080p-ben is (maximumra tekert játékokkal persze).
Összességében, ha jövőbiztos konfigurációt akarunk építeni 4K-s felbontásra, akkor érdemes többkártyás rendszerben gondolkodni. Ahogy viszont az előbb kiestek az alap GTX770-ek a 2GB-nyi memóriájuk miatt, úgy hullik el ezen a ponton az R9 280X, mert a CrossFire híd nincs felkészítve ilyen felbontásokra. Ezért használnak már az R9 290-esek egy újfajta megoldást, aminél nincs szükség a hídra. Két R9 290(X) vagy GTX780 (Ti) már elég lehet ahhoz, hogy kompromisszum mentesen játszunk a jövőben. Hogy hosszútávon melyikük lehet az erősebb, arra van tippünk, de a szoftverek sokszor elég lassan adaptálják az új technológiákat, így egyelőre nem tudjuk, hogy a vélt előnyök mennyire lesznek valósak 2014-ben.
A szubjektív faktor: szükségünk van egyáltalán 4K-s felbontásra? Látszik a különbség?
A rövid válasz erre a kérdésre is az, hogy igen is, meg nem is, de ez így nem mond el túl sokat, ugye? Hogy az operációs rendszer alatt, munkaasztalként mennyire tudunk élni a nagyobb felbontás adta lehetőségekkel, az csak tőlünk függ, játékok alatt viszont mindenki profitálhat a nagyobb felbontásból, ezért ez az egyik legjobb felhasználási terület jelenleg (egyéb tartalom, pl. filmek híján). A valóság persze itt is árnyalt, ugyanis vannak játékok, amiknek nagyon jól áll a magasabb felbontás, és vannak olyanok, amiknél egészséges távolságból nézve a monitort, nem tudtuk megmondani, hogy éppen 1080p-t vagy 2160p-t nézünk. Reményeink szerint azért a jövőben már inkább olyan játékok jönnek, amik jobban mutatnak nagyobb felbontáson is, mert most elég vegyesek a tapasztalataink. A Battlefield 4 például játék közben mesésen fest, de az átvezetők alacsony felbontása és filmszerű effektje teljesen illúzióromboló két epizód között ekkora méretben. Persze ha már csak multizunk, akkor ilyen problémáink nem lesznek. A kicsit régebbi címek esetében, mint pl. a Mafia 2, nem igazán látszik a felbontás növelésének áldásos hatása. Persze ha belebújunk a monitorba, akkor mondhatjuk, hogy „Ha! Pixel!”, de maximum ennyi.
Ettől függetlenül véleményünk szerint mindenképpen van jövője a nagyobb felbontásoknak, ahogy a mobilok esetében, itt is ideje szintet lépni, csak ne essünk át a ló túloldalára. A 2560*1440-es monitorok már mostanában is elfogadható árszinten vannak, és egy erős kártya elég a kihajtásukhoz. A 4K-s kijelzők még elég drágák, és a technológia is némileg kiforratlan („két monitoros” csatlakozás), de azért akárki sétált el az ASUS PQ321QE előtt, eleresztett egy „hűűűű”-t. Ami persze néha csak annak szólt, hogy micsoda kis körömpiszoknyi méretűek az ikonok a Windows asztalán, de a legtöbb esetben azért ennél többről volt szó :)
Az ASUS PQ321QE monitorért, és az R9 280X-ért köszönet az ASUS magyarországi képviseletének, a GeForce-okért az nVidiának, az R9 290X-ért pedig az AMD-nek!