Kosár

A kosár jelenleg üres

Bejelentkezés &
Regisztráció

Jelenleg nincs belépve.

Válassza ki az oldal nyelvét

TERMÉKEINK

iPon FÓRUM

iPon Cikkek

Játékos élet Full HD-s felbontás felett

  • Dátum | 2013.11.21 14:01
  • Szerző | Svindler
  • Csoport | MEGJELENÍTÉS

Út a 4K-s felbontásig

Kezdetben vala a karakterekre korlátozott megjelenítés… na jó, ennyire régre azért nem ugrunk vissza. Látogassunk el inkább a 90-es évekbe, amikor még mindannyian CRT-k előtt ücsörögtünk, és örültünk, ha a használt felbontást nem 60Hz-es képfrissítés mellett kellett néznünk. A 3D-s gyorsítók is csak ekkortájt kezdtek el feltűnni, és eleinte erősen behatárolták, hogy milyen felbontáson játszhatunk. 1996-ban megjelent a Voodoo 1, és egy évvel később mindenki csak ámult, hogy mennyire szépen is fut rajta a Tomb Raider 2 640*480-ban. Azóta persze nagyot változott a világ, az idei epizód talán el sem indul ilyen alacsony felbontáson, de akkoriban ez még jónak számított. A monitorok azért egy fokkal előrébb jártak, megfizethető áron lehetett kapni olyanokat is, amik képesek voltak jó frissítési ráta mellett kezelni a 800*600-at és az 1024*768-at. Hát igen, anno, akárcsak a TV-knél, még a 4:3-as képarány hódított, nem volt minden szélesvásznú. A CRT monitorok szép lassan fejlődtek, felbukkantak az első síkképernyős modellek, és egyre jobb vezérlő elektronikát kaptak, így már olyan magas felbontásokkal is elbántak, amiknek egyébként már nem sok értelmük volt a kijelzők fizikai adottságai miatt. Ettől függetlenül 2000 környékén már találkozhattunk olyan példányokkal is, amik 2048*1536 pixel megjelenítésére is képesek voltak, méghozzá 19 colon.

És most itt álljunk meg egy pillanatra… 2048*1536? Igen, ez nagyobb, mint a manapság oly divatos Full HD-s, azaz 1920*1080 képpontos felbontás, és igazából a 2000-es évek elején megjelenő nagyobb LCD monitorok (20 colosak) is 1600*1200-asok voltak, ami pixelszámban nem sokkal kevesebb, mint a Full HD. Igaz, akkoriban ezeknél még elég vastagon fogott a ceruza, ha az árat kellett meghatározni, az elterjedtebb modellek inkább a 17-19 colosak voltak, 1280*1024-es felbontással. Ettől függetlenül megállapíthatjuk, hogy az utóbbi bő egy-másfél évtizedben nem igazán volt előrelépés felbontás fronton, inkább mindig egy új technológia fogta meg az embereket. Először elterjedtek az LCD kijelzők, majd jött a szélesvászon, a LED-es háttérvilágítás, a 3D, és végül az idei év slágere, a 4K-s felbontás, ami egyébként a legkisebb az UltraHD névvel illetett felbontások közül.

forrás: purelinkav.com
forrás: purelinkav.com

forrás: purelinkav.com

Hogy miért nem jött hamarabb? Egy biztos, nem technikai korlátok miatt, ugyanis 2001-ben (!) az IBM már bemutatta a T220-ast, egy 22,2 colos monitort, aminek a felbontása 3840*2400 pixel volt. Ez nagyobb, mint a mostanában kapható 4K-s kijelzőké, azok ugyanis megállnak 3840*2160-nál (a különbség egyébként azért van, mert anno a szélesvásznú kijelzőknél még a 16:10-es képarány volt a divat). Azon azért érdemes elgondolkodni, hogy miért kellett több mint 10 évet várnunk arra, hogy egy kijelzőkkel foglalkozó PR-os minden második szava a 4K vagy az UltraHD legyen. Persze rávághatnánk egyből, hogy a kereslet élénkítése miatt, hiszen rá kell bírni a kedves fogyasztót, hogy váltson valami újra, ehhez pedig nem árt egy indokot adni neki. Ezzel a válasszal igazából nem is tévednénk, de azért szerencsére több ok is megbújik a késés hátterében.

Az első és talán a legfontosabb a tartalom kérdése. Elvégre mire jó egy 4K-s kijelző, ha nem tudjuk kihasználni az adottságait? Maximum e-pénisz növelésre ugye. Márpedig 10 éve még csak analóg TV adás volt, az is csak 720*576-ban, tehát egy televíziónak ekkora felbontást adni felesleges lett volna, igazából még manapság is az sok esetben. Monitoros felhasználás esetében viszont nem probléma, hogy nincs ilyen felbontású kész tartalom, hiszen amit látunk, azt a gépünk állítja elő. Azonban 10 évvel ezelőtt a gépek is jóval gyengébbek voltak, semmi sem lett volna képes kihajtani egy ilyen szörnyeteget, legalábbis 3D-ben biztos nem, és a 2D-s megjelenítésnek is megvoltak a maga akadályai, például az operációs rendszerek felkészületlensége, ami ha őszinték akarunk lenni, még manapság is visszatarthatnak a váltástól.

Egy kicsit visszatérve a hardverek világába, az sem volt anno utolsó szempont, hogy milyen csatlakozón keresztül lehet egyáltalán ilyen sok pixelt átvinni a képernyőre. Az IBM monitora négy DVI csatornát használt, elég speciális megoldás volt. Gondolhatnánk, hogy manapság már nincsenek ilyen problémák, de az a szomorú igazság, hogy sajnos vannak. Nem azért, mert nincs meg hozzá a technológiánk, hogy egy kábelen elég pixelt küldjünk át, hanem mert a szabványaink vannak lemaradva. Egyelőre nincs szabványos út arra, hogy elérjük a 60Hz-es képfrissítési rátát 4K-s felbontás mellett, ezért a kijelzőgyártóknak trükköznie kellett. A 3840*2160-as monitorok két 1920*2160-as részre osztják fel magukat logikailag. Ekkora felbontás már mehet 60 képkocka/másodperces gyorsaság mellett egy HDMI kábelen, vagy egy DisplayPort csatornán. Egy DisplayPort 1.2-es kábel azonban több ilyen csatornát is képes kiszolgálni, így ha egy kicsit nyakatekerten is, de megoldható, hogy mégiscsak egy kábelen menjen a 3840*2160@60Hz. A rendszerünk azt fogja hinni, hogy két monitorunk van, de egyelőre nincs jobb megoldás, be kell érjük ezzel, vagy marad a 30Hz (az ugyanis megy egy csatornán), ami maximum csak filmnézésre elegendő.

A tartalom és a szabványok hiányán túllépve ott vannak még a valós igények is. Pár éve még tökéletesen boldogok voltunk egy szimpla Full HD-s képernyővel is, aztán jött az Apple és kitalálta a Retina kijelző fogalmát, és ezzel elindított egy óriási versenyt az okostelefonok világában. Ennek hála az emberek már mindenhol pixeleket látnak, 1-2 év, és lesz, aki szerint már az 1920*1080 is kevés 5 colon. Hiába no, az Apple és a versenytársai evolúciós pályára állítottak minket: amihez egyébként évezredek kellenének, most megléptük pár év alatt, hirtelen sasszeműek lettünk, csak szólni kellett nekünk, hogy akár erre is képesek vagyunk. A cinizmust félretéve, a Retina felbontásoknak van értelme, de lehet, hogy már átestünk a ló túloldalára. Közben viszont a monitorok frontján van mit behoznunk, ugyanis míg a táblák és okostelefonok felbontása szárnyal, addig az asztali kijelzők maradtak ott, ahol már 10 éve vannak. Előbb-utóbb ideje lesz lépni, az első fecskék pedig mostanában jelentek meg. Nézzünk is meg közülük egyet, ami segítségünkre volt a mai teszt elkészítésében.

Hozzászólások

Nem vagy bejelentkezve, a hozzászóláshoz regisztrálj vagy lépj be!

Eddigi hozzászólások:

  • 65.
    2014. 01. 03. 08:43
    Nézz meg egy VALÓBAN minőségi (nem felskálázott dvd-forrású...) Blu-Rayt és soha többet nem akarod majd lejjebb adni (a 1080p-s BR-RIP-ekről ne beszéljünk, az originált nem érik el természetesen minőségben). És a hang még jobban veri a DVD-t. Kb. 2000 forinttól már egészen jó használt lemezeket lehet kapni, még arra sem lehet fogni, hogy drága.

    Az igaz, hogy a DVD-hez képest lassabban terjedt el. Az, hogy itt nálunk a harmadik világban nem veszik tömegek, nem jelenti azt, hogy máshol sem.

    A szemed fizikai korlátai nagyon nem itt vannak. Normális esetben.
  • 64.
    2013. 12. 22. 13:32
    Amit meg lehet csinálni, nem biztos hogy meg kell csinálni.
    Figyelembe kell venni az ember szemének fizikai korlátait.
    Ez olyan lesz mint a Blu-Ray disk.
    Lesz belőle néhány, de a tömegek nem fogják venni.
  • 63.
    2013. 12. 12. 17:31
  • 62.
    2013. 11. 25. 14:03
    Azt hiszem én várok még 4-5 évet UHD-s monitor beszerzésével. Talán addigra olcsóbbak is lesznek, és lesz olyan gpu, ami elérhető áron akár 2-3 évig is jó teljesítménnyel tudja tolni a pixeleket a monitorra.

    Persze az is lehet, hogy 4-5 év múlva már nem fog érdekelni ez az egész.
  • 61.
    2013. 11. 24. 14:26
    MZperX75: Már megint ezek az nVidia reklámok... nem igazán értem miért ne lehetnének az oldalon azok. Az AMD-nek is nyitva a lehetőség, ha szeretne reklámozni, megtehetné. A cikk értékelésébe semmit sem szól bele, hogy éppen ki futtat reklámot az oldalon.

    Ahhoz, hogy győztest hirdess, ezer apróságot át kell világítani, aminek a nagy része (hogy kinek mi számít), egyéni preferencia. Pl. az nVidia kártyák mellé már most kapsz annyi játékot ami kiegyenlíti az árkülönbözetet. Ha ezek Neked nem kellenek, akkor természetesen ez nem számít. Az AMD esetében még nem számolhatok a játékokkal, mert egyelőre csak ígéretet kaptunk, de kuponokat nem, úgyhogy majd meglátjuk mit hoz a jövő. Sebességre kb. ugyanazt nyújtja a két megoldás, de hosszútávon a Radeon 4GB memóriája és a Mantle lehet előny, plusz a konzolok miatt talán a GCN architektúra. De ezek mind olyan dolgok, amik tele vannak "talán"-okkal, még nem tudjuk mit hoz a jövő. Már régebbi Radeonoknál is meg voltam győződve róla, hogy de sokat fog érni a technológiai előnyük, de mire kijöttek olyan szoftverek, amik ki is használták azt, már két generációval arrébb jártunk... Jövőállóbb a Radeon, ez tény, csak kérdés, hogy a sebessége elég lesz-e a jövőben. Mert ha nem, akkor meg mind1 (4K-n persze, 1080p-re ez még nagyon sokáig elég lesz).

    Tehát a jövőbeni vélt előnyöket valósnak nyilvánítanom _most_ nem lenne túl objektív a részemről. Plusz amit nagyon sajnálok, de sajnos nem fért bele az időbe, hogy megnézzük 4K-n, hogy muzsikál az új CrossFire az SLI ellen. Az nV-nek meg vannak már most is használható előnyei, mint pl. a PhysX (megint csak ha számít valakinek) és a Shadowplay, ami valószínűleg jóval több embert érint, mint a PhysX. Hardveres enkóder a Radeonban is van, de amíg nincs rá szoftver amivel egyszerűen kihasználhatnánk, addig kb. mindegy. A saját prió listám alapján nekem pl. egyértelmű, hogy _én_ melyiket venném, de szerintem a fentiek alapján nem lehet kijelenteni, hogy az egyik egyértelműen mindenkinek jobb választás lenne a másiknál.
  • 60.
    2013. 11. 23. 18:52
    Kösz a tesztet!

    Szubjektív véleményem az, hogy 24" felett lehet hogy szükség van nagyobb felbontásra.
    Elsőre viszont a játékfejlesztőket kellene elővenni.
    Ha megnézünk egy részletgazdag és éles képet, ami megfelelő minőségben készült, akkor 1920x1080-as felbontásban 23-24"-ig elegendő kell hogy legyen.
    Full HD monitorra váltás után kis naívan azt hittem, hogy nem kell élsimítást használni, mert ekkora felbontásnál az akkor még nagy pixel sűrűségűnek számító kijelzőn minden tűéles lesz. Nem így lett, gondolom sok játék elkészül egy adott felbontásra optimalizálva és nagyobb felbontásnál felskálázza a képet. Többit pedig az AA és társai elintézik. (előző gen konzolok 720P-ben domborítottak @ HD Ready felbontásban, a játékok zöme pedig konzolport)
    Nagyon sokszor motion blurral oldják meg a gondot, így pl autós játékoknál a teljes képfelület 1/3-1/2 éles felület. Mellette az optimalizáció hiánya még ráteszi a pontot. Egy szó mint száz, üdvözlendő a gyártók próbálkozása, ami egy újabb "trükk", hogy végy új monitort (pl 3D után) viszont játékoknál kb semmit nem fog hozni, mert amelyik játék szarul nézett ki 2x élsimítással Full HD-ban az nem fog tündökölni 4K-ban sem.
    Itt egy kép ami valós fénykép és mindenki döntse el maga, hogy ha normálisan a PC játékok mellé állnának a fejlesztők akkor hasonló minőségi grafikával ellátott játékban készült képpel nem lennének-e elégedettek.... ja és nem RAW, BMP, hanem jpeg képről van szó (képpontsűrűséget nézve vizsgáljátok a részletgazdagságot megfelelő távolságból (játék közben sem 10cm-re ülsz a monitortól):
    [LINK]
  • 59.
    2013. 11. 23. 16:56
    enisherpa -

    "Ehhez már csak szagokkal ellátott force feedback-es VR sisak kell, és indulhat a FIFA box 2000. Vagy az interaktív online 3D-s társkeresés , egyszerre akár 64 résztvevővel."

    Beteges!

    MÁS:


    Konkrétan ,ti konklúzióban ,akkor most mit is vontok le?

    Mert egy olcsóbb kártya gyorsabb,...akkor "te" nem tudsz dönteni,meg hogy ne nézzük az ár teljesítmény arányt,ezért nem ajánlasz ezen NVidia reklámoktól nyüzsgő oldalon AMD-t?

    A teszt reális jó,de utána amit írtok.............,az elfogulatlan és objektív? NEM az.

    Egyértelmű a teszt győztese az AMD 290X, mert olcsóbb és nagyobb felbontásban gyorsabb.


    Ma amit az Nvidiától érdemes lenne megvenni az a GTX650Ti boost 35ezerért.


  • 58.
    2013. 11. 23. 11:09
    Ha az emberi szem felbontóképességénél (pixeleket egyesével látjuk) 4x nagyobb pixelsűrűséget akarunk, azaz mostanában szokásos méretű monitoroknál HD Ready helyett 4K-t a recésség miatt, akkor:
    - a monitor frekvenciát illene az agyunk max. kb. 30 Hz-es üteménél négyszer nagyobbra venni, 120 Hz-re
    - kellene a minimum 120 fps, különben szaggat
    - a hallásunk kb. 24 kHz-et bír, szóval valós fizikán alapuló binaural 3D hangzást kérek 96 kHz-es mintavétellel

    Ekkor lenne nagyjából egálban a hang és a videó minősége. Ehhez már csak szagokkal ellátott force feedback-es VR sisak kell, és indulhat a FIFA box 2000. Vagy az interaktív online 3D-s társkeresés , egyszerre akár 64 résztvevővel.
  • 57.
    2013. 11. 23. 00:19
    27" körül már egész csábító lenne ötödennyiért.
  • 56.
    2013. 11. 23. 00:06
    Jó dolog a 4k, csak nagyméretű kijelző kell hozzá, hogy a különbség észrevehető legyen a FHD-hoz képest.
  • 55.
    2013. 11. 22. 23:32
    Svindler: á, amit én szoktam játszani (Starcraft 2, Heartstone, Baldur's Gate Enhanced Edition mostanában), ahhoz igazából nem kell igazán erős videókártya. Viszont monitort tényleg kéne vennem, hónapok óta halogatom, de ma ismét sikerült lebeszélnem magamat a Dell U2713HM-ről azzal, hogy sok teszt szerint zümmög, én meg csendeset akarok, ha már a gépemnek sincs hangja...
  • 54.
    2013. 11. 22. 22:20
    Vesszük itt az erősebbnél erősebb hardvert a szarabbnál szarabb játékokra...
  • 53.
    2013. 11. 22. 21:43
    Zizi: ha egy kicsit engedsz az élsimításból, és maximum helyett beéred csak szimplán magas beállításokkal, akkor azért elég sok mindenre elég az a 7950-es
  • 52.
    2013. 11. 22. 20:24
    Hehe :-) És én naív azt hittem, hogy veszek egy 1440p-s monitort, aztán majd csak úgy rákötöm a 7950-esemre és vígan játszogatok rajta. Hát, nem.
  • 51.
    2013. 11. 22. 20:04
    Az milyen durva,hogy ami 3hete 5400€ volt 4k-s TV ma már 4300€...
  • 50.
    2013. 11. 22. 16:17
    30" 2560*1600, azért jelenleg kikell h. elégítse efajta igényedet.
  • 49.
    2013. 11. 22. 15:23
    szmt: köszi

    bitangue: Ha a magasabb alatt 4K-ra gondolsz, akkor igen. 2560*1600-as monitorok nemrég még kaphatóak voltak, mára csak a 30 colos kategóriában vannak ilyenek, és azok nem túl olcsók. Pl. HP ZR30W
  • 48.
    2013. 11. 22. 12:03
    nekem személy szerint a 16:10 jobban bejön, mint a 16:9. magasabb felbontáson már teljesen el lehet felejteni a 16:10-et?
  • 47.
    2013. 11. 22. 08:53
    a video vezerlok meg nem allnak keszen a 4k-ra... foleg, hogy ezen vezerlok nagyresze 120,000 forint vagy folotte van.
  • 46.
    2013. 11. 22. 08:36
    enisherpa,ocsabi:
    Eléggé szigorú képek...

    nekünk commodore volt,meg Atari 2600as



    Az atarival csak az volt a baj,hogy sokszor beszart és kb 2hetnte javítani kellett...
  • 45.
    2013. 11. 22. 02:32
    Ha már UHD akkor jokis OLED kijelzős legalább de gondolom LCD csak. Esetleg kontra CRT kiváncsi lennék melyik jobb 60Hz-en kép minőségben, után huzása van-e ennek mint a legtöbb lcd-nek. Inkább gyártanának CRT-t azt még vennék is most is az van 2003as.
  • 44.
    2013. 11. 22. 00:36
    képpont távolságokat kellene kiszámolnotok

    anno valahol 0,15mm körül volt az alja a crt-nél, mai nekem volt az volt 0,17 mm
    most hol járunk?
    És anno is recés volt.
    szal nekem a 4k max akor jó ha az 20"-on megvan
    30-36-ra meg már 8k kellne.
    szerintem.
    ja igen nem értek hozzá de a sima rgb csati ami analóg volt az is átvitte a jeleket. most mér nem jó az ?

  • 43.
    2013. 11. 21. 21:39
    csabi02: Első alkalommal tényleg körbesétáltam a monitort, hogy hát izé.. mi ez? ezen színek vannak? Később nekünk is lett színes televíziónk. Hónapokig játszottunk egy játékkal. [LINK]

    Az S3 trio még megvan. Pár éve gép újításkor nem volt pénzem videokártyára, egy ideig használtam. Szerintem még ma is működik.
  • 42.
    2013. 11. 21. 21:33
    enisherpa: Elmorozsoltam egy könnyet.
  • 41.
    2013. 11. 21. 21:21
    "A 3 FPS elfogadható kompromisszum volt a színekért cserébe."
    ezen jót röhögtem...
  • 40.
    2013. 11. 21. 21:20
    Én csak csöndben szeretnék gratulálni a cikkhez.

    Ilyen konfigot ma egy átlag ember nem engedhet meg magának, és Svindler elég geeknek és perverznek (sorry...) látszik ahhoz, hogy ilyet a kezébe kapva, élvezettel tesztelje. Ez mind lejött abból, ahogy ír a tesztről. Nem sablonszöveg, csorog a geek-nyál, ahogy olvasom, van ez a "bárcsak-ln-is-láttam-volna" érzés.

    Öröm volt olvasni Thx

  • 39.
    2013. 11. 21. 21:12
    Annak idején, amikor programozás tanfolyam után elindítottuk az első játékot C+4-en (Formula One), elállt a lélegzetem a megdöbbenéstől. Sokkolt a 320x200-as, fekete-fehér grafika. (A Junoszty monitorok között nem találtunk színest)

    Aztán alig bírtam szavakba önteni, amikor ZX-Spektrumon, 256x192, 8 színű paletta mellett játszottunk "Észak Dél ellen"-t. A 3 FPS elfogadható kompromisszum volt a színekért cserébe.

    Enterprise 128, 320x256, 16 színű, menet közben cserélhető paletta, szaggatás nélkül. Elképesztő volt a váltás.

    Később jött az első PC-m. Egy ideig 640x480 8 bit. Óriási előrelépés. Később vettem egy 512 kB-os RAM bővítést az S3 Trio 64v+ kártyámba, hogy vigye a 800x600 high color-t, 43 Hz interlaced mellett. Sokkal szebb lett.

    Gép csere után 1024x768, 32 bit, 60 Hz. Szebb lett, és a szemem is kevésbé fáradt. 85 Hz-en még kevésbé. Most 1360x768, 60 Hz-nél tartok, és nem bántam meg. Valamivel jobb. Közben lecseréltem a 17" monitort 32"-osra.

    Gyűjtöm a pénzt, jövőre -ha összejön- váltok full HD-re. Nézegettem gépeken, és nagy különbséget nem látok az 1360x768-hoz képest. Sokat nem várok ettől, de a meglevő monitorom támogatja, az új konfig meg bírni fogja..

    Ez a 4K viszont kicsit erőltetett. Sasszeműek talán észrevesznek valamennyi javulást, de én inkább fizetnék magasabb monitor képfrissítésért. Inkább 100 Hz fullHD, mint 60 Hz 4K.
    A felbontás növelésével egyre kevesebb plusszt kapunk, egyre növekvő árért. Mennyi az elég?
  • 38.
    2013. 11. 21. 21:08
    Terror - elvileg nem kéne, de én hiszek a lusta programozókban A többmonitoros rendszerek se mentek rendesen az első naptól, rengeteg probléma volt velük. Egy próbát mindenesetre megér a kiderítése, ahogy tudok, sort kerítek rá.
  • 37.
    2013. 11. 21. 20:52
    Vágom,hogy mit tud a DPport de ott a lényeg ,hogy hiába 1kábelen kötném rá ,akkor is 2nek kezeli az 1db 4k kijelzőmet...
  • 36.
    2013. 11. 21. 20:46
    Svindler - nemcsak jómagam, de a környezetemben több ember is gondolkodik ilyen vásárlásán, habár a kínálat nem túl nagy egyelőre, viszont a többmonitoros rendszerrel szemben nagy előny, hogy a monitorok keretei nem osztják szét a képet és filmnézéskor is kapóra jön, hogy pont akkora a monitor, mint a kép. Szvsz ha három monitorral okés a látószög a játékokban, akkor egy 21:9-es esetében sem kell gond legyen, csak még nem láttam élőben ilyet sajnos.
  • 35.
    2013. 11. 21. 20:45
    csabi02: csak HDMI esetén kell két kábel, mert DisplayPorton daisy chain elven több monitor is felfűzhető, ebben az esetben két virtuális

    MJA: azért a Dual-Link DVI-t szvsz nem érdemes a mostani helyzettel hasonlítani. DL-DVI esetében az operációs rendszered nem lát két monitort, a mostani daisy-chaines módszer mellett viszont igen. Ezt előbb-utóbb (valószínűleg előbb) meg fogják oldani, hiszen csak szabványosítani kéne az egészet, de egyelőre ez nem történt meg.
  • 34.
    2013. 11. 21. 20:41
    ez csak elektronikai megvalósítás... kit érdkel? Mikor egy DP port elegendő sávszélességű, és akár egy tucat megjelenítőt is kezelhet... (igen nem kettőt, hanem rengeteget)

    ez az osztott képernyőfelbontás extraként lehet benthagyva... és sikerült idióta módon negatívumként beállítani. (még 2560*1440-es vagy 2560*1080-as megjelenítő is lehet osztott képernyős módban, persze ott extra funkció )
  • 33.
    2013. 11. 21. 20:39
    MJA: az első hozzászólásodban kiragadtál egy részletet a szövegkörnyezetből, ami egyébként az okostelefonok esetében emlegeti a versenyt. Ott pedig már bejelentették, hogy 5,x colon nézhetünk majd 2560*1600 pixelt. Szerinted ez reális szükséglet? (Monitoroknál más tészta, hogy mi kell, de nekem pl. nem hiányzik 21,5 colon a 4K)

    A cikkben nem megy a savazása a 4K-nak, de az, hogy nem állunk rá készen, sajnos tény. Se operációs rendszer, se csatlakozási szabvány, se tartalom, se kraft frontján, ha szélesebb körben akarjuk elterjeszteni. A játékok ugye kivételezettek (mint tartalom), mert itt megtehetjük, hogy a tartalmat ekkora felbontásban futtatjuk.

    Persze a fő problémád nem is ez volt, hanem az élsimítás. Az aliasing problémája a felbontás növelésével nem szűnik meg, csak csökken, egyre kevésbé vesszük észre (azonos képátlón).

    Egyébként, hogy túl jók lettek volna-e az eredmények élsimítás nélkül, azt magad is megnézheted, hiszen 15 játékból 10-nél van olyan mérés, ami semmilyen terhelő élsimítást nem használ (az FXAA erőforrásigénye közelít a nullához), a többiek között meg több is olyan, hogy már élsimítással is hoztak kellő fps számot, így nem éreztem szükségesnek a plusz tesztelést. Nem kéne összeesküvés elméletet keresni, ott ahol nincs, főleg, hogy idéznék a cikkből:
    "...csak kapcsoljuk ki az élsimítást. A GTX770 megtáltosodik tőle, mert így nem fuldoklik a memória hiányában, és igazából 4K mellett nem annyira létszükséglet az AA, ha valamin spórolni akarunk, érdemes ezt előrevenni a listán."

    Úgyhogy peace

    Terror: bevallom őszintén nem gondoltam (sőt, gondolom), hogy a 21:9-es képarány iránt sokan érdeklődnének, sok felhasználásra nem előnyös. Sebességben nem nehéz belőni, valahol félúton lehet a Full HD és az 1440p között, de a látószög jó kérdés, én kicsit tartok is tőle, hogy sok játék hibásan kezelné, és nem mindenben lehet állítani a látószög mértékét. Nem sűrűn kerül hozzánk ilyen monitor, de ha legközelebb kapunk egyet megnézem pár játékkal, hogy mi a helyzet vele. Időpontot nem tudok ígérni most, de előbb-utóbb sort kerítünk rá.
  • 32.
    2013. 11. 21. 20:32
    Szerencsés ember vagyok, alig veszek észre bármiféle külömbséget a full hd és az ultra között. Szerintem mások se.
    De legalább találtak újabb okot hogy egyesek, új tv/monitort/videokártyát vegyenek.
  • 31.
    2013. 11. 21. 20:30
    MJA
    amit írtam nem bullshit hanem a cikkben szerepel...

    " Egyelőre nincs szabványos út arra, hogy elérjük a 60Hz-es képfrissítési rátát 4K-s felbontás mellett, ezért a kijelzőgyártóknak trükköznie kellett. A 3840*2160-as monitorok két 1920*2160-as részre osztják fel magukat logikailag. Ekkora felbontás már mehet 60 képkocka/másodperces gyorsaság mellett egy HDMI kábelen, vagy egy DisplayPort csatornán. Egy DisplayPort 1.2-es kábel azonban több ilyen csatornát is képes kiszolgálni, így ha egy kicsit nyakatekerten is, de megoldható, hogy mégiscsak egy kábelen menjen a 3840*2160@60Hz. A rendszerünk azt fogja hinni, hogy két monitorunk van, de egyelőre nincs jobb megoldás, be kell érjük ezzel, vagy marad a 30Hz (az ugyanis megy egy csatornán), ami maximum csak filmnézésre elegendő."
  • 30.
    2013. 11. 21. 20:29
    Tudom mit írsz, az AA a "recét" felcseréli "életlenségre", egyik hiba helyett egy másikat ad.

    Az egésznek az alapja az, hogy nagyok a négyzetek amikből a tartalom felépül, vagyis alacsony a felbontás, ha szemmel nem látható négyzetekből építed fel a tartalmat (vagyis nagyfelbontással), akkor nem lesz látható "recéd", és éles marad a kép is.

    Kezdj már el gondolkozni is!

    "Persze van akkora felbontás ahol már igen, de arra szerintem a 4k is kevés."

    pont ezt írtam az első hozzászólásomban, hogy nem kellene savazni a 4k-t ha még az AA hatása is látszik rajta, vagy ha mégse akkor feleslegesen terhelték vele a gpu-kat...
  • 29.
    2013. 11. 21. 20:23
    MJA:
    ez kész... leírtad azt hogy az alacsony felbontás miatt kell az AA.. és a nagyobb felbontás szükségtelenné teszi. A "rece" jelenti azt, hogy alacsony a felbontás... kicsit gondolkozz már...

    Szerintem meg neked nem igazán megy az értő olvasás. De akkor a kedvedért képpel illusztrálva:

    Most, hogy tisztáztuk mit is csinál az élsimítás, talán megérted, hogy ha kétszer ennyi pixelből rajzolódni ki a forma, akkor is recés lenne, csak azonos távolságból kevésbé látszana. Az élsimítás, meg elmossa a szélső pixeleket, hogy minél jobban egybeolvadjon a háttérrel. Nagyon nem ugyan az a kettő.
    Szerintem a nagyobb felbontás nem váltja ki az AA-t. Persze van akkora felbontás ahol már igen, de arra szerintem a 4k is kevés.
  • 28.
    2013. 11. 21. 20:11
    Az azért kell, mert ugye a kép pixelekből rakódik össze, amik tekinthetők rövid vonalakáknak. Vonalakkal nem tudunk tökéletes görbét kirajzolni és ezért nem egyenes "vonalak" recések lesznek. Ezt hivatott csökkenteni az AA, ami elmossa ezeket a határokat, hogy a szem számára ne legyen érzékelhető. Ez jelenség magasabb felbontáson sem tűnik el, csak a recék kisebbek lesznek ezért nehezebb észrevenni őket. Szóval ugyan úgy ott vannak, csak a gyengébb szeműek már nem látják. Persze kérdés, hogy elég kicsik lesznek-e, hogy elhanyagolhassuk az AA-t. Nem tudom, ezt ki kell tapasztalni.

    ez kész... leírtad azt hogy az alacsony felbontás miatt kell az AA.. és a nagyobb felbontás szükségtelenné teszi. A "rece" jelenti azt, hogy alacsony a felbontás... kicsit gondolkozz már...


    "ha most is 2csatival kell megoldaniuk"

    ez is mekkora bullshit már... egy DP kábel és csatlakozó kell. Egy DP csatlakozó 4db adatcsatornát használ...

    régen senki se panaszkodott, hogy a DVI meg két sávos... arról nem is beszélve hogy a single-link dvi is csak FHD@74Hz-et tud, tehát már a 2560*1600 vagy a 2560*1440-hez is kétcsatornás dvi kellett régen is... (most mitől lett hirtelen gáz az, hogy a 4k-hoz meg DP-nek is több sáv kell...)
  • 27.
    2013. 11. 21. 20:09
    nem savazom a 4k-t.
    kérdés,hogy miért most és miért ez a felbontás?!
    ha most is 2csatival kell megoldaniuk akkor legyen 4csati meg 8k...
    ezt a felbontást már lassan mobil kijelzőkben elérik.
  • 26.
    2013. 11. 21. 20:03
    Az élsimítás nem a felbontás miatt kell... Az azért kell, mert ugye a kép pixelekből rakódik össze, amik tekinthetők rövid vonalakáknak. Vonalakkal nem tudunk tökéletes görbét kirajzolni és ezért nem egyenes "vonalak" recések lesznek. Ezt hivatott csökkenteni az AA, ami elmossa ezeket a határokat, hogy a szem számára ne legyen érzékelhető. Ez jelenség magasabb felbontáson sem tűnik el, csak a recék kisebbek lesznek ezért nehezebb észrevenni őket. Szóval ugyan úgy ott vannak, csak a gyengébb szeműek már nem látják. Persze kérdés, hogy elég kicsik lesznek-e, hogy elhanyagolhassuk az AA-t. Nem tudom, ezt ki kell tapasztalni.

    Amúgy számomra meglepő, hogy a játékok többsége simán elfut 4k-n a mai csúcskártyákkal. Eddig arról volt szó, hogy 4 Way SLI kell majd.... Ez azért közel sincs így. Ok, hogy majd next gen (khm... COD:Ghost khm...) nagyobb vasat igényel, de szerintem max 2 év éven belül a közép kategóriás kártyák is viszik majd a 4k-t, ahogy most is viszik a fHD-t.
    A konzolokkal meg nem tudom mi lesz, mert a Sony mondta, hogy 4k gaming nem lesz, csak 4k videózás. Ha PC-n néhány éven belül abszolut elérhető lesz a 4k akkor megint csak oda jutunk, hogy a next gen baromira nem éri meg. Igen, 140k-ért sem...
  • 25.
    2013. 11. 21. 20:02
    csabi02 Igen úgy hívják, hogy haladjunk a korral, fejlődjön a technológia.
  • 24.
    2013. 11. 21. 19:52
    Ha már a tesztben szerepel a 2560x1440-es felbontás, én csak rákarcoltam volna az első képre, ahol a méretarányok vannak!
  • 23.
    MJA
    2013. 11. 21. 19:38
    igen, éppen erre akarok "kilyukadni", hogy hülyeség arról beszélni, hogy nem kell a nagyobb felbontás, hiszen a FHD egyértelműen kevés (24" körül is). (...mégis a fórumban is és a cikkben is megy a savazása a 4k-nak...)
  • 22.
    MJA
    2013. 11. 21. 19:26
    "hirtelen sasszeműek lettünk, csak szólni kellett nekünk, hogy akár erre is képesek vagyunk. A cinizmust félretéve, a Retina felbontásoknak van értelme, de lehet, hogy már átestünk a ló túloldalára"

    A fent idézet mondat tükrében kérdezem, hogy akkor mi a fenéért kellett a 4K-s felbontás tesztekre AA szűrést beállítani? Az anti-aliasing szűrések az alacsony felbontás miatt keletkező különböző hibák javítására szolgál! Alapvetően pontosan azzal, hogy részben, az éleknél, nagyobb felbontást számol a gpu... abból is egyértelmű, hogy a bevezető szöveg egy marhaság, hogy FHD-ra pakolja mindenki aki tudja az AA szűrést, mert láthatóan javítja a képminőséget. (tehát kevés a FHD felbontás ahhoz hogy ne látszodjanak mindenkinek a korlátai)

    tehát:

    1. pixeles volt a kép 4k felbontás mellett, hogy még AA szűrés kellett rá? ...akkor meg minek a "túloldalára" estünk át?

    vagy

    2. "túl jók" lettek volna az eredmények valamivel kellett még rontani rajta?
  • 21.
    2013. 11. 21. 19:08
    #16: Minek az neked? A gépem ami a konzolos szintet még vidáman hozza az 2008 májusi tákolmány (felső közép kategória), egy 2011 január végi vga cserével (kényszerből és nem teljesítmény hiányból) ami a mai napig a nekem tetsző újdonságokat is vidáman viszi 1080p-ben maxon (max az élsimi van kilőve), úgy hogy a vga cserével együtt az egész gépem került 240k-ba házastól, egerestől, monitorostól, ssd-stől... Szerintem ezért a teljesítményért nem komoly összeg ahhoz képest amire használom.
  • 20.
    2013. 11. 21. 19:02
    Ezt a 4k dolgot nagyon felgyorsították amúgy ,mert nemrég 4k-s monitorokat bemutatta néhány nagy márka 5000€ feletti árcédulával
    DE már most a ~130 cm es SONY BRAVIA X9 5400euro...



    Valakinek nagyon érdeke az hogy a 4k elterjedjen
  • 19.
    2013. 11. 21. 18:53
    Az sem érdemes elfelejteni, hogy az nvidia minden játék kijövetele előtt kiad egy új drivert amiben optimalizálják a játékra a kártyát, az amd meg kb kéthavonta.
  • 18.
    2013. 11. 21. 18:35
    Svindler, értem és köszönöm az infókat!
  • 17.
    2013. 11. 21. 18:18
    "Egy konzol el van 100Watton. A PC meg (ahol minimum 600Wattos tápokról beszélünk)?"

    1.melyik az a konzol?

    2.A 650-es TT tápom még soha nem érte el a valós 300w-os fogyasztást sem...
    (5870-el)

    3.Nem balhéból,de 140ropiért már lehet olyan gépet is össze rakni ami "majdnem" alkalmas a FHD játékra
  • 16.
    2013. 11. 21. 18:17
  • 15.
    2013. 11. 21. 17:55
    Gondolom nem kívánságműsor, de legközelebb lehetne ugyanezt 21:9-es monitorokkal is? Akár monitortesztben, esetleg egy-egy screenshottal a játékokból, hogy hogyan néz ki az ekkora látószög bennük...

    A témához visszatérve, 31 hüvelyken ennek mennyi értelme van? A képpontméret a semmi felé konvergál, és nálam már a full hd-n sem látszanak a pixelek, így viszont a kép is nyomorított. Nemcsak a kijelző erősíti a megfizethetetlen kategóriát, hanem ráadásul nem árt mellé két csúcskártya sem, sli/crossfire-ben, hja és a bitang processzor sem árt ugye. Ez eddig a legdurvább pénzszórás, ami úgy hipphopp elénk lett rakva, pedig már láttunk pár dolgot.
  • 14.
    2013. 11. 21. 17:33
    A sok konzol fikkanto azert feltolhatna ide egy fizetesi csekk masolatot,csak,hogy legyen alapja a nagyzolasuknak.
  • 13.
    2013. 11. 21. 17:24
    Kizárt.
  • 12.
    2013. 11. 21. 17:09
    Én már csak arra leszek kíváncsi, hogy a mantle ezen mennyit javít a radeonokon. Vajon egy mezei r7-es is elviszi 4k-ban a battlefieldet ultrán?
  • 11.
    2013. 11. 21. 16:40
    Éljen, a konzolok az 1080pt is nyögvenyelősen jelenítik meg. Ezek után megint a konzolok miatt fogunk rostokolni.
  • 10.
    2013. 11. 21. 16:29
    Na a múlkor a star citizen gépigénynél (ahol a nem butítjuk konzolra dolog is volt), épp mondtam hogy talán a 4 290es amd talán élvezhető teljesítményt mutatna több 4k-s monitoron... úgy néz ki alá is becsültem az enginejüket... Látva hogy egy magányos vga hogy megizzad egy darab 4k-s monitorral...

    Az újdonság és az átlagnál jobb teljesítményt mindig meg kellett fizetni. lásd intel procik egymás közt. kétlem hogy a majdnem 300k-s intel i7ese 4x gyorsabb legyen a legolcsóbb i7essel szemben... (nyugi van.. tudom mit jelent az ár/érték kifejezés, nem kell nekem jönni, ez csak példa volt.)
  • 9.
    2013. 11. 21. 16:14
    tookmindegy: papíron a Windows 8-ban is van, csak rosszul működik (sőt, már a Win7-ben is volt), és úgy olvastam, hogy a problémák jó része maradt 8.1 alatt is, de majd ki fogom próbálni (pl. irfanview-ban megjelenített képet is széthúzott, pedig azt nem kellett volna). Mivel ez most játékteszt volt főleg, és a 8.1 még elég friss, ezért nem telepítettük fel, megvárjuk míg kap pár patch-et. Az egérkezeléses gondról biztos hallottál pl. azt nemrég orvosolták. Az ilyesmik miatt tartogatjuk későbbre.
  • 8.
    2013. 11. 21. 15:56
    Svindler, miért nem windows 8.1? Ott már van high dpi.
  • 7.
    2013. 11. 21. 15:36
    ThePoweR: így van, pláne, hogy a FHD már elég "régi" 1440p-meg nem jött be, esetleg munkára... így 2 év és kb 4k megújulás
  • 6.
    2013. 11. 21. 15:33
    Valamit valamiért. De nem is az a lényeg, hogy most mi van hanem hogy mi lesz 1-2 év múlva. Konzolokat ugye 5-6 vagy több évre tervezik és már most gondban vannak a FHD felbontással. Persze későbbiekben javulhat a helyzet mikor már megszokják rá a programozást, de addigra már késő lehet, mert FHD felett fogunk járni.
  • 5.
    2013. 11. 21. 15:23
    #drift3r91
    És akkor még a fogyasztásról nem is beszéltél.
    Egy konzol el van 100Watton. A PC meg (ahol minimum 600Wattos tápokról beszélünk)?
  • 4.
    2013. 11. 21. 15:10
    regener: instant fagyi, vagy kb. nulla fps és később fagyi Ez volt a 2GB VRAM + 4K-s felbontás + Rome 2 maxon harc végeredménye ^^
  • 3.
    2013. 11. 21. 15:04
    ocsabi,nem védeném a konozlosokat sose vennék,de nézd meg hogy a 4K hoz mennyi pénz kell,meg egy PS4 hez!
    140k eg konzol abból még ezek a videókarik is alig jönnek ki és akkor hol a gép többi része.
    Jó 300ezres gép kell,hogy menjen a 4K! Ésakkor még a millás megjelenítő,szerintem fölösleges ilyen korán elemenni 4K-ba látható hogy mai játékok bizony könyörögnek a 30FPS-ért és inkább FULL HD 60fps sel,mint 4K 30al.
    Egyébként mi az a fél HD? 640*360?
    +Nem sok olyan ember van akinek csak HDba maxon menne a BF4!
  • 2.
    2013. 11. 21. 15:00
    Ezt kifejtenétek?

    "A Rome 2 nagyon zabálja a memóriát, maximális beállítások mellett még a 3GB-os kártyák is csak pislogtak, a GTX770 pedig akkor közölte velünk, hogy na jó, elmentek ti a fenébe…"

    Amúgy jó cikk
  • 1.
    2013. 11. 21. 14:56
    Hát, végül is csak közel 1 millió az ASUS monitor amin mentek a tesztek.
    Aztán még rá kell csapni egy nem éppen olcsó kártyát, hogy mennyenek is alatta a játékok.
    Tehát szükség van rá? Persze miért ne, a fejlődés csak jó, de nem az átlag gamernek