Kosár

A kosár jelenleg üres

Bejelentkezés &
Regisztráció

Jelenleg nincs belépve.

Válassza ki az oldal nyelvét

TERMÉKEINK

iPon FÓRUM

iPon Cikkek

ASUS PG278Q nVidia G-sync-kel: a megjelenítés jövője?

  • Dátum | 2014.08.04 07:01
  • Szerző | Svindler
  • Csoport | MEGJELENÍTÉS

A világ első…


Az ASUS PG278Q lehetne az „első!”-zés aktuális királya, mert nem elég, hogy QHD felbontású panel sosem volt még ennyire gyors, de ebben a monitorban debütált az nVidia G-sync technológiája is, amiről nem kisebb nevek nyilatkoztak olyanokat, hogy „Ha egyszer leülsz egy ilyen elé, sosem akarsz majd mást!”, mint John Carmack, az id Software egykori zsenije. Kár, hogy lassan nem kering olyan friss fotó Engine Johnról a neten, amin nem egy Oculus Rift virít a fején. Na de ennyit a cinizmusról, mert egyrészt előbb-utóbb az Oculusban is lesz ilyen technológia, másrészt az igazság az, hogy már mi is nagyon régóta vártuk, hogy kipróbálhassunk egy G-synces monitort. A probléma, amire ez megoldást kínál, már régóta velünk van, és bár a folyadékkristályos monitorok megjelenése óta lett volna lehetőség megszabadulnunk tőle, valahogy senki sem vette rá a fáradtságot.

Na de mi is az a G-sync?

Örülök, hogy megkérdeztem magamtól, mert így elmondhatom mindenkinek. Az előző évszázadban sok-sok évtizeden keresztül ültünk katódsugárcsöves tévék és monitorok előtt, amik nagyon leegyszerűsítve úgy működtek, hogy egy elektronágyú alpixelenként végiglövöldözte az egész képernyőt, hogy felvillantsa a képpontokat, majd mivel azok nagyon gyorsan kialudtak, kezdte előröl az egészet. Bumm-bumm-bumm, percenként több milliárdszor! Hogy mekkora erővel lövöldözzön az ágyú – tehát hogy milyen képet rakjanak ki a pixelek –, azt egy PC esetében a grafikus vezérlő mondta meg neki, aminek a memóriájában ott várakozott a kirajzolásra váró kép. A CRT képernyők előbb felvázolt működési elve miatt azonban eltartott egy ideig, míg elkészült az elektronágyú a képpel, tehát nem lehetett egyszerre az egész képkockát átadni a monitornak, mert az soronként haladt. Éppen ezért előfordulhatott, hogy miközben rajzolgatott, elkészült egy új képkockával a grafikus vezérlő, és már azt mutatta, mint kirakandó képet. A végeredmény valami ilyesmi lett:


A fenti kép egy nagyon szép példa arra, hogy milyen az, amikor a kijelző nincs szinkronban a videokártyánkkal. A screen-tearingnek, vagy csíkozódásnak hívott jelenség akkor fordul elő, amikor a grafikus vezérlő fittyet hány a monitor tempójára, és csak ontja magából a képkockákat. Kellett erre valami megoldás, hát anno kitalálták az úgynevezett vertical-syncet (V-sync), ami nem egy bonyolult eljárás, mindössze annyit csinál, hogy megzabolázza a videokártyát: az hiába készül el egy új képkockával, meg kell várnia, amíg a monitor jelet ad, hogy készen áll annak fogadására. Igen ám, csak ez egy új problémát szült. Egy ideális világban a grafikus vezérlő pont úgy ontaná magából a képeket, ahogy a monitor az iramot diktálja, de a valóságban ez nem egy így működik. Egy átlagos, 60Hz-es kijelző másodpercenként 60 képkockát képes kirakni, tehát 16,6 milliszekundumnyi idő van egy-egy kép létrehozására. Sajnos ez azonban néha túl kevés, néha pedig nagyon is sok. Amikor kevés, és nem készül el időre az új képkocka, akkor a monitor kénytelen lesz megjeleníteni az előzőt, és hiába lesz kész 1ms múlva a grafikus vezérlő, várhat bő 15ms-ot, mire végre kirakhatja közönségének a művét. Ez ugye egy felesleges késleltetés, ami a sasszemű játékosoknak szúrhatja a szemét, hiszen teljesen inkonzisztens lesz tőle a megjelenítés. Például kétszer ugyanaz, majd egy új, aztán megint kétszer ugyanaz? Amikor minden ms számít, ez túl nagy lag. Amikor túl hamar készül el a videokártya, akkor egyébként nincs ekkora katasztrófa, csak nem tudjuk szegényt kihasználni, sokat fog unatkozni.



A kimenő képkockák V-sync nélkül és V-sync-kel (forrás: nVidia)

A fenti ábrákon a „scan” feliratok melletti számok jelzik, hogy hányadik képkockát rajzolja ki éppen a monitor. Ha nem használunk V-syncet, akkor csíkozódás lesz a jutalmunk, ha igen, akkor lag és ismételt képkockák. Bármit is válasszunk, kompromisszumokra kényszerülünk, tehát a CRT kijelzők öröksége még ma is kísért minket. Első blikkre talán adná magát, hogy minden hátránya ellenére a V-sync a kisebbik rossz, de a valóságban sok játékos kényszerül arra, hogy kikapcsolja azt, egyszerűen azért, hogy cserébe jóval reszponzívabb játékot kapjon, mert az a teljesítményén is javíthat.


Bekapcsolt V-sync mellett jól megfigyelhető az ugráló FPS (forrás: nVidia)

Hozzászólások

Nem vagy bejelentkezve, a hozzászóláshoz regisztrálj vagy lépj be!

Eddigi hozzászólások:

  • 42.
    2014. 09. 04. 17:51
    Megjelenítés jövője a VR szemüvegek. Aki egyszer kipróbálja az a büdös életbe nem akar többé monitoron játszani és nagyjából ennyi.
  • 41.
    2014. 08. 11. 11:09
    próbálni próbáltak sokszor, de nem sikerült még senkinek sem
  • 40.
    2014. 08. 10. 17:12
    Téged jól elvakítottak az biztos.
  • 39.
    2014. 08. 10. 17:08
    nagyon is értem mire való, de elmondhatod a te verziódat is

    (igaz azt elfelejtettem hogy a főként nem a leírtakra való, hanem parasztvakításra.)
  • 38.
    2014. 08. 08. 14:34
    Neked meg mindig nem sikerult megerteni a g-sync -t.
  • 37.
    2014. 08. 07. 21:46
    Köszi a választ, de szerintem volt egy kis félreértés is, tudom én is hogy az lcd kijelzők nem bistabil megjelenítők, ezért folyamatosan kell neki ipulzust adni. De most már tisztább a dolog.
  • 36.
    2014. 08. 07. 12:58
    A modern LCD kijelzők esetében ugyanúgy frissíteni kell a képet, mert egy idő után elfelejti, hogy mi van rajta. Megküldöd egy kis feszültséggel a folyadékkristályt, ami ettől átrendeződik, de egy idő után elkezd visszaállni alapállapotba ha nem frissítesz rá. Ezért van az, hogy van egy maximum idő a G-synces/Adaptive synces monitoroknál is, amíg várhatnak a következő képkockára, ha az nem jön meg, akkor kirakják a régit. (De olyan nagy az időlimit, hogy ez nem szokott problémát okozni.)
    Léteznek olyan passzív LCD-k is, amik képesek megtartani az állapotukat, lehet ez kavart be (kb. mint a dinamikus és statikus ram közötti különbség).

    Egyébként a technológia nem csak játékra lehet jó, én örülnék pl. ha a jövőben multimédiás szoftverek is támogatnák. Pl. 24p-s Blu-ray filmet lehetne képkockatrükközés nélkül nézni, vagy akár az új 48fps-es cuccokat.
  • 35.
    2014. 08. 07. 12:03
    Lehet hogy nagy hülyeség lesz amit kérdezek és mondok, de érdekel.

    Úgy tudtam hogy az CLD kijelző egyik nagy előnye a CRT-kkel szemben a folyamatos kép, azaz csak akkor változik amikor a kép is változik, a CRT pedig fixe dobálta kifele a képeket ha volt váltás ha nem. Na most hogy ha a készülék másodpercenként max 60 képet tud kirakni, de csak 28ra lenne szükség akkor csak szoftver kellene ahhoz hogy a 28 képet többé kevésbé egyenletesen ossza el. Vagy nem? Miért kéne ehhez spéci monitor? Ha a kijelző képes a 60 helyett 120 képre akkor kisebb az az idő ami két eltérés között üresként ott van az ember szeme előtt, de ugyanúgy csak 28 képet kell leosztania....
  • 34.
    2014. 08. 07. 10:49
    kicsit más ez amilyen : "írjunk rá nagy számokat hogy megvegye a sok hülye aki szerint ha nagyobb a szám az jobb" (márpedig a 144hz az szép nagy, majdnem olyan jól hangzik mint a 4k ))

    A gsync pedig arra való hogy ha összevissza ingadozik az fps-ed se legyen frame duplázás. Ha nem ingadozik, nem lesz semmi különbség, mert szinkronban marad a program képfrissítése a monitoréval, akkor is ha nincs gsync.
    Az hogy az fps többnek tűnjön (és tényleg több is) mozgás interpolálásnak hívják, de ez a funkció csak tvkben fordul elő.
  • 33.
    2014. 08. 07. 09:56
    Soká valsz, de annyira nem is baj, a 4K-val egyelőre sok a probléma. Kéne neki Displayport 1.3 vagy HDMI 2.0, mert jelenleg elég macerás kezelni (vagy két HDMI kell neki vagy egy DP ami úgy csinál, mintha két monitor lenne rajta)
  • 32.
    2014. 08. 06. 22:02
    Ide kérném szépen. Az asztalomra. Most.
  • 31.
    2014. 08. 06. 18:30
    Ez a monitor egy félreértés.
    Ahogy a tesztben is elhangzik, a 120+ hz-es monitorok már elég gyorsak G-sync nélkül is.
    A G-sync arra való HOGY A 60Hz-es FRISSÍTÉS LEGYEN "SIMÁBB"! Vagyis tűnjön gyorsabbnak.
    Az Asus ezt rendesen félreértette ... én mindenesetre várom az IPS ill. VA paneles 1080p-s G-Sync-es monitorokat.
    Mert a 120hz-es TN paneles monitoroknak nincs szükségük V-Syncre.
    Ez a monitor a "hányjuk mindenből bele a maximumot és kérjünk el érte pofátlan összeget, elvégre az első fecske" tipikus példája.
    Az Asus meg ha már nem tud rendes panelt csinálni, vehetne az LG-től mint a Dell.
  • 30.
    2014. 08. 06. 02:47
    @dbori
    Nem tudok szakszavakkal dobálózni, de gyártástechnológiától is függ, mennyire szemmel láthatóak a képpontok a monitoron, nem minden esetben a felbontás a hibás.
    Emellett arra is oda kell figyelni, hogy mekkora a panel felülete.
    Alapul két gyakoribb képátló: 22" és 27" (16:9)
    A 27colosnál kb. másfélszer akkora területen oszlanak el a pixelek, szóval ugyanazért a képért 1920*gyök1,5 X 1080*gyök1,5 felbontást kéne alkalmazni. A 4k felbontás mellett kb. 44-45"-on kapsz ugyanolyan minőségű képet (de azt meg távolabbról nézed).
    Szóval ennek a 2k-nak van haszna (meg kihajtják a mai gépek), 4k-nak én csak akkor látnám értelmét, ha valami 50-60 colos tévére van kötve a gép.
  • 29.
    2014. 08. 05. 17:19
    Igazából a mostani monitorom tökéletes, de azért a full hd picit pixeles. Ezért akarok minimum dupla felbontást. Bár utána olvasva egy 27esen a 4k meg a 2k között lényeges különbség nem nagyon van. Amit írtál azok mikorra várhatóak véleményed szerint?
  • 28.
    2014. 08. 05. 16:44
    Hát, szerintem nem, sőt, ha hozzászoktál a 120Hz-es megjelenítés sebességéhez, akkor lehet még zavarna is a 60Hz. De 120Hz-ről 144-re vagy G-syncre váltani sem akkora előrelépés, csak ha tényleg a maximumra törekszel, akkor van értelme.

    Viszont ha duál GTX880-ban gondolkozol, akkor a 4K kihajtásával nem lenne probléma, az biztos Lehet érdemes lenne megvárnod a 4K-s 144Hz-es/G-sync-es, Adaptive-synces/ monitorokat
  • 27.
    2014. 08. 05. 16:41
    Ez tök jó, veszek egy monitort meg egy VGA-t, és mikor a vga-t lecserélném nv helyett atira, akkor vehetek új monitort is .
  • 26.
    2014. 08. 05. 14:15
    Akkor fogd fel úgy mint az AMD Mantle megoldását. Mindkét cég tulajdonképpen rámutattak egy hibára és megoldást is eszközöltek hozzá a maguk módján. Az AMD a Mantlevel ugyan ezt tette. Rámutatott a hibára a DX-ek esetén és szolgált egy megoldással. Mindketten csak felforgatták az állóvizet aminek hatására mindjárt mindenki igyekezet valamit tenni és nem csak néztek ki a fejükből. Ugye milyen gyorsan lépni kezdet mindenki akik eddig ültek a pihe puha párnácskáikon? Holott régóta tudtak a hibáról és tehettek is volna valamit ennek megoldása érdekében. Köztük az AMD is. Ja, hogy őket sem érdekelte. Vakuljál paraszt.

    Egyébként az elfogadott szabvány megalkotásakor maguk a fejlesztők is elmondták, hogy egyenlőre nem fognak tudni olyan minőséget prezentálni mint az nV féle megoldás, jóllehet olcsóbb. Még jó hogy. Egy szoftveres megoldás nemigazán versenyezhet egy dedikált célhardverrel. Legalábbis sok időnek kell eltelni addig mire beérheti.
  • 25.
    2014. 08. 05. 12:57
    Köszönöm szépen. Úgy látom értesz a témához. Ezek szerint egy 60 hz-es uhdval nem leszek sokkal bentebb. És ezek szerint akkor ez a g syns nem egy rossz dolog. Egyébként a mostani monitorom is asus. Asus vg278. Ez is 120 hzes. Azt gondolom ettől a 60hz akkor visszalépés lenne mindenképp. A vga elfogja bírni. Most egy 690gtx van ezt fogom lecserélni ősszel 2db 880gtx sli-re.
  • 24.
    2014. 08. 05. 11:57
    AMD fizetett hirdetése? Azért vettem másfél hete Intel processzort ugye? Na ne komolytalankodjunk! Engem jobban érdekel, hogy az amit veszek, vagy nekem kínálnak, az számomra milyen értéket hordoz, nem csak rövid távon, de hosszú távon is.

    Ha már AMD, akkor nézz meg egy AMD-s processzorról szóló cikket, ott láthatod, hogy hogy ostorozom őket! Mert sz@r amit csinálnak.

    Az Adaptive-Sync pedig nem az AMD-é hanem VESA szabvány, használhatod Intellel, nV-vel és AMD-vel is. Ez a különbség, teljesen mindegy milyen felhasználó vagy, ha a GPU-d (függetlenül attól, hogy integrált vagy dedikált, függetlenül ki gyártotta) támogatja, élvezed az előnyét.
  • 23.
    2014. 08. 05. 10:05
    Dübörög a marketinggépezet, még a nagyobb hírportálokon is ott van ez a fizetett hirdetés.
  • 22.
    2014. 08. 05. 01:25
    Az amd fizetett hirdetését hallottuk, köszönjük szépen
    A 3d-Vision sem mai projekt, mégis garantálva van még sok évre előre a driver-támogatottság (csak visszavettek a támogatási költségekből, mert bukó volt a projekt).
    Ezek a cégek nem szeretetszolgálatuk. NV előjött egy adaptív v-sync cucc fejlesztésével, erre az AMD-nek is lépnie kellett, így "trollkodott" egy kicsit, ez így megy a nagyvállalatok közt.
    A G-Sync is egy marketing fogás, meg egy fícsör a saját vevőinek, nem tudom, hogy ezt miért kell támadási felületnek nézni.
    Ez készen van, garantált a kompromisszummentes működés, de nem kötelező megvenni. Hál'isten itt lesz nekünk a FreeSync, vagy mi a fene a távoli közeljövőben, az majd ugyanekkora megváltást fog hozni a 95%-ban 60Hz uralta monitorok világába.Újabb sikersztori.
  • 21.
    2014. 08. 05. 00:38
    Nem, Gabest összekevert két dolgot. A double buffert anno teljesen más dolog miatt vezették be. Problémás volt, hogy ha csak egy frame buffer volt, mert azt mutatta a monitor felé a VGA amin dolgozott is, és ez nem túl szerencsés ugye, mert vagy várni kell, hogy ne menjen ki félkész kép (és akkor értékes számítási kapacitás megy a kukába) vagy félkész képeket is láthatunk, ami már régóta megengedhetetlen. A double buffer esetében van egy back buffer is, és a VGA mindig azon dolgozik. Ha kész a kép, csak felcseréli a két buffert, vagy átmásolja a megfelelő memória területre a kész képet. Így miközben megy a kommunikáció a monitorral, nyugodtan dolgozhat tovább a VGA, mert egy másik memória területen rajzolgat.

    Ennek nem sok köze van ahhoz, hogy van-e fennakadás a V-sync miatt vagy sem. Tripla bufferelés mellett jobb lehet a kihasználtság, de attól még ugyanúgy jelentkezhet a lag, és ha nem készülnek el időben a képek (mert nem elég gyors a VGA), akkor aztán mindegy hogy bufferelsz.

    Ez mondjuk személyes véleményem, de én nem erőltetném a 60Hz-es, TN paneles 4K monitorokat. Főleg, hogy csak brutális terhelést rónak a VGA-ra, a legtöbbet egy rémálom kezelni, és a Windows sincs még felnőve a feladathoz. Sajnos.
  • 20.
    2014. 08. 04. 21:12
    Engem ez a screen tearing jelenség sose zavart egy percig se, kb észre se vettem ilyet. A motion blur viszont annál inkább, jó lenne lassan kiküszöbölnék.
  • 19.
    2014. 08. 04. 19:09
    Ez körülbelül annyit jelent, hogy semmi értelme ezt a monitort vennem, mert jobban járok az uhd asussal? Az 60hz. árban meg ugyanennyi.
  • 18.
    2014. 08. 04. 17:20
    Csak jelezném, hogy az alapok hibásak, amióta van legalább két képre való memória a gépben (kb 20 éve?), azóta double/triple bufferelik a képet és nincs vsync miatt fennakadás. Marketing bullshit.
  • 17.
    2014. 08. 04. 16:31
    Pontosan! +1

    szarul marketingolt egyedi hw amivel a felhasználó szívja meg.
  • 16.
    2014. 08. 04. 16:12
    Hát én meglepődnék, ha így lenne, de neked legyen igazad
  • 15.
    2014. 08. 04. 15:49
    Nevezzük nevén a lovat, Adaptive-Sync. A DP1.3 szabványosítása 2014.Q2-ben (talán májusban?!) megtörtént. Már csak az eszközök kellenek rá.

    Pont ez a lényeg, hogy egy SZABVÁNYOS MEGOLDÁS! A g-sync minden csak nem az. És kb ugyan az lesz a sorsa mint az nv féle 3D-nek... amiért most elkezdtek hisztériázni (megjegyzem jogosan) a felhasználóik. És pont ezért nem is kell egy pillanatig sem foglalkozni ezekkel a szemfényvesztő technológiákkal, mert az egész csak a felhasználók lehúzásáról szól. Ha nem hozza a várt eredményt, a támogatást dobják, mással nem fogod tudni használni, és már csak levélnehezéknek lesz jó! Ott lesz valami amiért fizettél, de használni azt nem tudod.

    Úgy tudom december körül már lesznek Adaptive-Synces monitorok a piacon.
  • 14.
    2014. 08. 04. 14:47
    Köszi, javítottam
  • 13.
    2014. 08. 04. 14:02
    Hogy a témához szóljak: a testufo-s link rossz.
  • 12.
    2014. 08. 04. 13:57
    Miért kell hatelni? radásul ha neked nem kell se g-sync se ilyen monitor akkor miért olvasod el a cikket? és utána miért commentelsz? nem kell jellyskedni
  • 11.
    2014. 08. 04. 13:29
    croix, gab78: Az benne van a cikkben is, hogy lesznek alternatívák, bár szerintem nem a Free-sync fog elterjedni, hanem egy általános megoldás az új displayport szabványban, csak kérdés mikor, én idén biztos nem számítanék rá, és amilyen gyorsan foglalnak szabványba arrafelé dolgokat, ki tudja, lehet jövőre sem (de azért remélhetőleg jövőre azért lesz valami).
  • 10.
    2014. 08. 04. 13:02
    Kedves Svindler
    Köszönjük a jó kis tesztet, kár hogy nem volt lehetőség Mobil GPUval meghajtani
  • 9.
    2014. 08. 04. 13:00
    "Atesz91: Igen, méghozzá egy akcióval Nézz balra." Na ez mindent elmond... egyébként leginkább a cikk stílusából érződik a fizetett hirdetés jelleg!

    Egyébiránt pár napja olvastam, hogy az nv a 3D helyett, most majd a G-Sync-jével hülyíti, majd a fanboyokat.

    Free-sync Vesa szabvány, ingyenes. Ezzel ez itt le is zárult. Az nv se véletlenül nyomja, addig akarja fejni a jónépet amíg nem jönnek ki a Free-synces monitorok.

  • 8.
    2014. 08. 04. 12:59
    Kösz, de nem költök +30k-t egy G-Sync-es monitorra, mikor nincs is NV kártyám. Maradok az ingyenes FreeSync-nél és spóroltam 30k-t a monitoron.
  • 7.
    2014. 08. 04. 12:31
    Megrendeltem
  • 6.
    2014. 08. 04. 12:31
    Objektív a teszt.
    Csak poénból megnéztem volna, AMD vga-val vajon mit produkál?

  • 5.
    2014. 08. 04. 12:08
    +1
  • 4.
    2014. 08. 04. 12:02
    Atesz91: Igen, méghozzá egy akcióval Nézz balra.

    gab78: Ha úgy érzed esetleg elhallgattam valami negatívumot, akkor hajrá, de egyébként hagyjuk már ezt a fizetett hirdetéses szöveget... a monitor egyébként nem is az nVidiáé
  • 3.
    2014. 08. 04. 11:36
    Ujra bevizsgaljuk majd az arat Karacsony kornyeken is.Jo lenne jatszani,de nem ennyiert.
  • 2.
    2014. 08. 04. 10:53
    Az nv fizetett hirdetését olvashattuk, "köszönjük szépen"!
  • 1.
    2014. 08. 04. 10:06
    Mikor kerül be a webshopba ma?