Kosár

A kosár jelenleg üres

Bejelentkezés &
Regisztráció

Jelenleg nincs belépve.

Válassza ki az oldal nyelvét

TERMÉKEINK

iPon FÓRUM

iPon Cikkek

GeForce GTX780 Ti – Teljes sebességgel előre!

  • Dátum | 2013.11.07 15:01
  • Szerző | Svindler
  • Csoport | MEGJELENÍTÉS

GK110. Egy több, mint hét milliárd tranzisztort tartalmazó GPU, ami a HPC szegmensben került bemutatásra, még tavaly, Tesla kártyák formájában. Mióta csak tudunk a létezéséről, azóta vártuk, hogy megjelenjen asztali gépekben is, mert bár a GTX680 sem gyenge, nem az a csúcskártya volt, amit az nVidiától megszoktunk, inkább egy egészséges kompromisszumnak tűnt a cég részéről. Teltek múltak a hónapok és végül februárban megérkezett a TITAN, az eddigi legdrágább egyetlen GPU-val rendelkező kártya. 6GB memória és 2688 shader gondoskodott a szórakoztatásunkról 1000 dolláros árcédulával. Igazi prémiumkártya a TITAN, amit még a referencia hűtője is éreztet velünk, de azért lássuk be, a maximalistáknak valami hiányzott. Miért 2688 shader, ha egyszer lehetne 2880 is…? Egy GK110-es GPU-ban 15 SMX tömb van, melyeknek darabja 192 shadert (vagy ahogy az nVidia egy ideje hívja őket: CUDA magot) tartalmaz, ám az akkoriban minden felett álló kártyán egy tömböt le kellett tiltani, hogy azokat a chipeket is fel lehessen használni, amik nem tökéletesek. Teljesen érthető a dolog, elvégre valahogy biztosítani kellett, hogy megfelelő mennyiségű kártyát tudjon szállítani az nVidia, és még így is bejöttek a számítások, a TITAN-ból több fogyott, mint az azonos áron kelletett GTX690-ből, ami két GPU-val próbált minél nagyobb sebességet felmutatni. Persze előbb-utóbb minden teljesítmény király leesik a trónjáról, a fejlődés nem állítható meg. Pár hete az AMD is lerakta a 28nm-es óriás chipjét az asztalra, és vele együtt a Radeon R9 290X-et, ami megingatta a TITAN uralmát. Nincs mese, az nVidiának lépnie kellett, mert nem mondhatta tovább, hogy az övé a legerősebb kártya a piacon. A gyártástechnológia váltásig már egyik cég sem akar igazán mocorogni, és egy kártyáért kár is lett volna új chipet tervezni, úgyhogy az nVidia meghozta az egyetlen logikus döntést ebben az esetben: aktivált minden tartalékot.

Íme egy teljes értékű GK110-es GPU
Íme egy teljes értékű GK110-es GPU

Íme egy teljes értékű GK110-es GPU

Ez azt jelenti, hogy mától nem csak a Teslák és Quadrók kiváltsága a teljes értékű GK110-es GPU, a GTX780 Titanium is megkapta azt, ráadásul a versenyképesség érdekében az ár sem mehetett már TITAN-i magasságokba, így az ajánlott végfelhasználói ár megállt 199 ezer forinton. Hol a csavar, vagy a buktató a történetben? Nos, igazából nézőpont kérdése, hogy van-e, mindenesetre tény, hogy a költségek csökkentése (és valószínűleg a GPGPU felhasználás korlátozása) érdekében a TITAN-hoz képest a memória mennyiségét lefelezték, maradt a GTX780-on is megtalálható 3GB. Manapság azért ez nem olyan nagy érvágás, ha ugyanis nem játszunk extrém felbontásokon, akkor a 3GB még sokáig elég lehet, főleg ha belegondolunk, hogy egyelőre nagyon kevés az ennél több memóriával rendelkező kártya. Ezen kívül semmi negatívummal nem kell számolnunk, még az órajeleket is növelték egy kicsit, bár elég minimálisan. Lapozzunk egyet és nézzük meg mit jelent ez az egész számokban.

Hozzászólások

Nem vagy bejelentkezve, a hozzászóláshoz regisztrálj vagy lépj be!

Eddigi hozzászólások:

  • 60.
    2015. 01. 15. 11:43
    Aki ilyen marhaságokat beszél, az inkább ne ajánlgasson semmit
  • 59.
    2014. 05. 13. 11:40
    az nvidia karik szerintem mindíg picit erősebbek az azonos kategóriát képviselő AMD-kel szemben, mint ahogy azt a teszt ábra is mutatja,+egy nvidia kártyán a játékok grafikája mindíg jobb mint egy AMD-s kártyán,úgyhogy szerintem aki a szebb grafikára megy,annak én az nvidia kártyákat ajánlanám,akinek meg inkább kevesebb pénze van vagycsak nagyjábból ugyanazt a teljesítményt szeretné megkapni kevesebb áron annak meg az AMD-s kártyákat ajánlanám,de sok külömbség, azonos árkategóriában lévő kártyák közt akár nvidia akár AMD sok külömbség nincs.
  • 58.
    2013. 11. 19. 05:02
    Te mondod akinek GTX650 van a legrosszabb Ár/érték arányú kártya a piacon!
  • 57.
    2013. 11. 19. 02:05
    édes Istenem! ha csak játszani akar valaki vegyen AMD VGA-t és mellé AMD procit, ha valaki normálisan dolgozni akar a gépével (pl. renderelések (3DsMAX és a többi)) az vegyen Intel + Nvidia konfot.... mi a francért kell itt huszárkodni, hogy az AMD jobb lesz majd kis tuninggal + új hűtésekkel... am az Nvidia így veri le reffel a refet... nekem GTX650esem van 720p-ben oylanokat csapatok vele tuning nélkül, hogy minimumban nem lenne szabadna menni, nem, hogy majdnem kimaxolva! fps, villany és szájkaratésok.... (-,-') mikor lesz már az embereknek agya és tanulnak meg értelmesen, logikusan gondolkodni....!?!?!?!
  • 56.
    2013. 11. 11. 06:29
    amikor tv-n játszok akkor is 1,5m re vagyok tőle de mind1 is mert a minőség gyengébb és mindig látszik,pl. ahogyan a monitoron is ha 1920x1080 helyett 1366x768 ra állítom kb akkora az eltérés,ha 5 méterről nézném akkor valóban nem is látszódna ,de lehet még a monitor sem
  • 55.
    2013. 11. 10. 23:51
    Azt viszont ne felejtsed el, hogy egy 116 cm képátlójú tv-t már nem 30-70 centiről nézegetsz hanem méterekről. Ebből a távolságból pedig ugyan úgy nem látod azokat az apró recéket mint egy kisebb full monitoron közelebbről.
  • 54.
    2013. 11. 10. 18:29
    Az a probléma,hogy 58cm es (23)monitoron 1080-ban szép a graf. és nincs is szükség élsimításra,de 116cm es képátló esetében már sokkal recésebb az 1080-as felbontás és pont ezért ebben a méretben kellene inkább erőltetniük azt a nyamvadt 4k felbontást...
  • 53.
    2013. 11. 10. 17:32
    Jól sejtem, hogy egy EVGA Calssified kaliberű modell jó eséllyel a GTX690/7990 teljesítményét nyaldossa?
  • 52.
    MJA
    2013. 11. 10. 16:22
    Mivel jelenleg, aki teheti, az FHD-ra is tesz AA szűrést, ami nem más mint az alacsony felbontás hibáinak részbeni javítása, ezért teljesen értelmetlen azt mondani, hogy a FHD felbontás elegendő.
    Hiszen látható hibákat produkál és van rá egy nem tökéletes javítás, amit a nagyobb felbontás szükségtelenné tenne, és vga erőforrásért cserébe jobb is lenne, mint az AA szűrés.
  • 51.
    2013. 11. 10. 15:30
    @beleutomazorom:
    A tablet és a teló nem ugyan az. Ha picit figyelmesen elolvasod a postomat azt írtam, hogy telefonom HD, tableten fHD elég. Amúgy nekem meg Acer Iconia A700-am van és láthatóan jobb képe van mint a hasonló 720p-s tableteknek. Számít az a felbontás. Nem csak böngészni jobb rajta, de különböző osztott ablakos programhasználatnál is jól jön, valamint filmnézésnél nem utolsó, hogy 1080p-s tűéles képet láthatok. Persze, hogy egy 480 és egy 720p-s videó között nem lesz nagy különbség mert mind a kettő ratyi és életlen egy fHD kijelzőn. Ha egy 4,7 colos telefonhoz elég a 720p akkor egy kétszer akkora 10,1" eszközhöz amit ugyan olyan távolságból használsz nem árt a kétszer akkora felbontás. Amúgy az Apple féle retina felbontás pontosan azt számolta ki, hogy abban a távolságtartományban ahol a telefont használják az emberek hány ppi kell ahhoz, hogy ne látszódjanak a pixelek. Ez kb 330 ppi. Ezt próbálják meg elérni mobileszközön. A fHD 5" már rég 400 felett ami parasztvakítás és csak az aksit eszi.

    Monitornál igen is számít, hogy messzebről nézed. Egyszerűen a szem így működik. Annyira pici dolgokról van szó (kisebb mint 0,1 mm) hogy nagyon sokat számít milyen messziről nézed. A biológiával lehet vitatkozni, csak felesleges.
    Ha teljesen pixelmentes a kép már így is, akkor nincs jelentősége a JÁTÉKOKBAN a nagyobb felbontásnak. Éppen ezért kár sírni egy olyan dologért amit kevesen használnák. Akit érdekel az ilyesmi úgy is talál olyan tesztet ahol a határokat feszegetik és nem átlagos felhasználásra tesztelik a kártyákat.

    Nem tudom miért értelmezitek a mondandómat úgy, hogy a nagyobb felbontás felesleges. Nem erről van szó én ezt soha sem mondtam. Játékokban felesleges, mert minőségi többletet nem ad, csak erőforrást zabál feleslegesen. Munkában nagyon jó, mert minél nagyobb a munkaterület annál könnyebben elférnek a dolgok a monitoron.
  • 50.
    2013. 11. 10. 11:54
    MZperX75:
    "Ezek a FHD mindenre elég című baromságok,felejtősek.
    Én már nem játszom ,még is kevés az FHD felbontás"

    Akkor minek kell hőbölögni?
    A többség igen is 1080-ban tolja és nem az általad használt felbontást használja,meg nem hinném,hogy már mindenki 1,5millás monitoron tolja 4k-ban,de még 2év múlva sem...
    Ha valaki szeret játszani azt érdekli és NEKIK szólnak a tesztek,hiszen nem mind1,hogy a mostani játékoknál beesik 30fps alá vagy meg van az 50-60 és még mindig csak 1920x1080-nál járunk!
  • 49.
    2013. 11. 10. 01:30
    Mert a titán az reakció volt bármire is?
  • 48.
    2013. 11. 10. 01:21
    Nem is feltételen a nagyobb felbontásról van szó, bár az itt irkálók nagy része szerintem még nem látott 4k-s akármit vagy egy retinakijelzős mac-et. Ha mondjuk egy 3 monitoros rendszert veszünk. Na akkor mi a helyzet? Úgy gamelni azért sokkal jobb mint egy nagy felbontású kijelzőn.
  • 47.
    2013. 11. 10. 01:10
    @Nemlehet
    Kedves nemlehet, hd telefonom van, azaz 1280x800. egy youtube videot nezve nem latsz kulonbseget a 480p es a 720p kozott, mert olyan kicsi. Es mivel htc one x ez 4.7 collban van. Ergo amit allitasz az hogy tableten vagy teloban kell a fullhd mert kozelrol nezed egyszeruen nem igaz. Csakhogy megersd felesegemnek acer w700-ast vettem ami ugye az elso 1920x1200 fullhd+-os tablet volt az androidok kozott. Semmilyen program nem tamogatja a fullhd-t a tableten. Ennyi. Csak szimplan mellveregetes. Konyvet olvasott rajta, sokat. Tul van 50-en. Roviden hd is eleg 10 colba es nemm kell fullhd.
    De megforditom a problemat: ha 5 collba kell fullhd akkor 24-be miert nem kell 4k?
    Mert draga?

    Gondolkozz egy picit.
    Es ne a metereket szamold a monitorodhoz.

    Mindkettonek pont ugyanannyi az ertelme. Nekem monitorban vannak nagy igenyeim mivel a telomat max 1 oran at szugeralom, de ha it-ben dolgozol akkor napi 8 ora fix egy monitor elott. Es lehetseges az a helyzet hogy kell a 4k felbontas.pl: grafikus, fotos, vagy egyszeruen rengeteg ablakot akarsz kinyitni az orias desktopodra.
    Vannak emberek akik igenis elveszik a 3 monitor adta oriasi desktopot.
    Csak gondolkozz, mert masnak mas igenye van.
  • 46.
    2013. 11. 10. 00:45
    rini

    "mindig az 1280-1024 áll az első helyen 51%-al. 2. a Full hd 32%-al. 3. az 1650-1080 15%-al. A maradék 2%-on osztoznak az eltérő felbontások."

    És a felhasználók hány %-is vesz 700Dolláros(200.000Ft VGA-t?
    0.02? Akkor ez átlag.

    Ezek a FHD mindenre elég című baromságok,felejtősek.
    Én már nem játszom ,még is kevés az FHD felbontás,de ha játszom ,és bírná a gép akkor max felbontáson (native)-ban nyomnám.
    Tehát ,mára már nem elérhetetlen 2560x1440-es felbontás
    ,
    FHD-ra nekem elég egy HD7850-7950 (GTX650Boost,vagy GTX660)-as kari.
    (Egy I3-al, vagy FX4100@4.5Ghz) azaz 25ezres proci egy 40-50ezres VGA-val.

    Nem I5 vagy I7+Titán vagy 290X ezeket is inkább már min 2560x1440 vagy 4K illetve 3X FHD
    -ban tesztelném.

    2002-ben szaros 21" monitorom bírta a 2048x1152@60Hz(1600x1200@96Hz)-en.
    Ami játék bírta a felbontást abban nyomtam.
    Nem volt nagy szám talán 30-40ezerért vettem használtan.
  • 45.
    2013. 11. 09. 23:30
    Ok, de a netbookod nem is 24". De még csak nem is 21. Szerintem hogy beláss rendesen egy 20"+ monitort 1 m tuti kell. Egyébként a szélei már kívül esnek a látótereden. Persze lehet nem ideálisan használni a dolgokat. Amúgy ha megnézel egy munkahelyi ergonómiai útmutatót az is 1-1,5 métert ír elő ideálisnak.
  • 44.
    2013. 11. 09. 16:37
    Én pl kb 70 80 cm-ről nézem mert ilyen az elrendezése a notebookomat még közelebbről szóval nem értem a 1,5 métert láttam pár embert de a méter lenne a reális, egyébként lényegtelen a mondanivalóm erősen szarkasztikus volt
  • 43.
    2013. 11. 09. 15:59
    @jamborka

    Nem, nem kell a 4k 5 colra. De nagyobb felbontás kell, mert jellemzően sokkal közelebb használod. Egy 24" monitort kb 1,5 méterről nézel, míg a telefont kb 30-40 centiről maximum. Így csak nagyobb felbontás mellett kapsz ugyan olyan minőségű képet. Ugyan akkor én már a fHD-t is soknak tartom, de 720p azért kell a pixelmentességhez.

    Monitoron sem értelmetlen a nagyobb felbontás, csak játékokhoz és hétköznapi felhasználásban csak felesleges erőforráspazarlás, mert nem lesz tőle jobb minőségű a kép. A TV már szintén más, mert ott ugye jóval nagyobb a képátló és annyival nem nézed messzebről (mert jellemzően nincs elég hely az ideális távolsághoz)
  • 42.
    2013. 11. 09. 14:46
    egy a lényeg 24" on sok még a full hd is, de 5 colra kell a 4K gondolkodjunk már...
  • 41.
    2013. 11. 09. 00:06
    @zsolt200
    Hát nem sok értelme lenne azzal tesztelni.
    1.A CS1.6 le van szabályozva alapból talán 60-100FPS-re, ezt csak trükközéssel lehet feljebb állítani, akkor sem a végtelenig.
    2.Alap, hogy 1.6-tal 1024*768 felett általában csak noobok játszanak
  • 40.
    2013. 11. 08. 22:10
    Maradjunk annyiban, hogy éppen nemrégen láttam egy felmérést valamelyik oldalon, hogy a népek milyen felbontásokat használnak leggyakrabban. Még mindig az 1280-1024 áll az első helyen 51%-al. 2. a Full hd 32%-al. 3. az 1650-1080 15%-al. A maradék 2%-on osztoznak az eltérő felbontások. A laptopok, noteszok felbontásai ebben nincsenek bent. Hozzátenném, hogy az én ismeretségi körömben sincsen olyan aki egyenlőre igényelné játékhoz a nagyobb felbontást. Akik pedig már tényleg ennyire igénylik azok vagy nagyon megengedhetik maguknak vagy hatalmas játékfanok és ekörül forog az életük.
  • 39.
    2013. 11. 08. 21:22
    Azert sirnak, mert vannak emberek, akik csak arra hajtanak hogy nekik jobb legyen mint az ismeroseie es ezzel kompenzaljanak valami hianyossagot. Egy haverom pl vetetett a fonokevel egy ati7850 et autocadhez mondvan hogy gyorsabb lesz tole. Aztan atkuldtem neki egy tesztet amiben az integralt NV610 jobb teljesitmenyt ert el, erre azt mondta hogy hat de megtehetem, miert ne legyen ilyen kartyam?. Ezt egerrel is eljatszotta, vetetett egy gamer egeret maganak 15k ert. /nem jatszik semmivel/

    Teljesen folosleges egy ~30`` os monitor fullhd felbontas folott, max az ujabb technologia miatt tunik szebbnek a kepe a 4k nak (persze ha nem 10 centirol nezi az ember) es azert csinalnak ilyen dolgokat mert
    1) a ceg bizonyitani akarja a nepnek hogy en ezt is tudom csinalni tehat qrvajo vagyok abban amit csinalok /marketing/
    2) az elobb emlitett nepcsoport igenyeit kiszolgalja

    Fizikailag folosleges az ilyen felbontas egy ilyen panelen, ugysem latod a kulombseget.

    **@nemlehet kolega hozzaszolasat most olvastam vegig, gyakorlatilag ugyanaz a velemenyunk, de ha mar leirtam, elkuldom.
  • 38.
    2013. 11. 08. 17:39
    Nem tudom miért kell sírni a nagyobb felbontású tesztért. Miért nem használnak fHD-nál nagyobb felbontású monitort a játékosok? Mert nincs értelme. Jellemzően kb 1-1,5 méterről nézed így fHD felbontásnál sem látod a pixeleket.. A nagyobb felbontás monitornál csak a nagyobb munkaterület miatt jó, ami munkánál előnyös, de játékokban nem jelent előnyt. Azon kívül drágák is a nagy felbontású monitorok.
    Telefonnál más, mert az sokkal közelebbről kb 30 centiről nézed és ott kell a felbontás, bár fHD-nál ott sincs értelme többnek. Tableten esetleg a 2560-as felbontás még jó lehet 10"-nál mert azt is elég közelről szokták használni az emberek de annál többnek már nincs.
  • 37.
    2013. 11. 08. 12:19
    Nem érne túl nagy meglepetés. Az engine-t az akkori karikra optimalizálták. Vegyük pl a CoD2-őt. 4870-en is 90FPS van DX9-be egy nv 7900GT-vel meg 200 felett...
  • 36.
    2013. 11. 08. 12:06
    jó hogy nem lehet törölni a hsz-t...
  • 35.
    2013. 11. 08. 11:54
    De az se mindegy milyen a procid. Itt "csak" egy i5-el tesztelték.

    Egyébként ha valakinek lesz ilyen kártyája, csináljon már egy cs 1.6 tesztet mennyivel megy, kíváncsi vagyok
  • 34.
    2013. 11. 08. 11:49
    Csak azt felejted el, hogy 1 gpu mindig, minden szempontból előnyösebb.
  • 33.
    2013. 11. 08. 11:31
    Vagy esetleg vehet valaki 2 db 7970-et (160 körül meg lehet úszni a két db-ot) és az veri a GTX Titánt, a GTX 780 Ti-t, az R 290x-et és a 7990-et is, ráadásul annyit már nem fog esni az ára adott időn belül, mint a többi csúcskártyának és talán jobban ki is tud szállni belőle. De ez csak egy vélemény, bár mondjuk nekem pont két 7970-em van és a fenti teszt-értékeket elnézve veri az összes kártyát.
  • 32.
    2013. 11. 08. 11:15


    Ezt a képet nézegettem és rájöttem, hogy mekkora sz*r is már az én 6950-em. Ha csak a számokat nézzük akkor is..
  • 31.
    2013. 11. 08. 10:41
    Kicsit furak a teszt eredemenyei.Itt vannak az AMD penzelt jatekok,es a 780 egy-ket FPS kulonbseggel ott van a vadi uj 290 mogott.
  • 30.
    2013. 11. 08. 10:29
    Tudom tudom hogy 200 ezre VGA meg minden de egy nagyobb monitor 160+ Magamból kiindulva szerintem sok embernek elég a "sima" fullHD és legyen sok sok fps a játékokban. Biztos hogy ez csak régi Quake, CS merögződés de inkább legyen sok FPS mint hogy kiégjen a retinám egy robbanásnál
  • 29.
    2013. 11. 08. 09:43
    Titán-ra ugrás nem volt annyira fontos mint az nV-nek a 290X-re. A Titán vert mindent, de rohadt drága is volt. Itt viszont már árverseny van. Mivel a 290x hozza a Titánt ami 2x annyira kerül lépni kellett valamit.
  • 28.
    2013. 11. 08. 08:08
    A Titan egy felprofi grafikusoknak valo kartya, nem jatekra lett csinalva (6GB RAM, jo duplapontossag), mig ez igen.
  • 27.
    2013. 11. 08. 05:04
    Nekem ebből az egészből annyi jön le, hogy míg az AMD-nek fél évre volt szüksége, hogy reagáljon a Titan-ra, az nV-nek nem egészen 1 hónapra, hogy reagáljon az AMD új csúcskártyájára, közben egyik sem tett le teljesen új architektúrát az asztalra, csak a meglévőket tápolta fel.
  • 26.
    2013. 11. 07. 22:29
    BF4 egész jól fut. Mondjuk a minimum FPS biztos játszhatatlanul alacsony volt, de ahhoz képest hogy kinéz 30 felett van az átlag.
  • 25.
    2013. 11. 07. 21:58
    A gugli a baratom lett.
    nem reklam es azt sem tudom megbizhato-e de itt egy ultrahd teszt:
    <http://www.guru3d.com/articles_pages/geforce_gtx_780_ti_review,17.html>

    Egeszseg!
  • 24.
    2013. 11. 07. 21:52
    En szemely szerint 1998-ban talalkoztam az elso 2560x1600-as monitorral. Ara is volt es aki vette kihasznalta. Persze nem a windows 98 futott rajta, sem az nt 3.5-os.
    Szemely szerin en is egy 2560x1080-as monitort nezek uh ezek a fullhd-s tesztek valoban semmit mondoak.Van gpu-scaling ha nincs jobb monitor es bizony vannak nagyobb felbontasu monitorok. Aki hoborog hogy fullhd eleg az nezzen meg egy gpu scalinget. Az egesz azert vicces mert bizony pc fronton a fullhd meg sokaing eleg, de bizony mobilban miert nincs fullhd 5 colban. Es az ilyen kijelenteseket ugyanazok az emberek teszik.

    A teszt felig tetszik felig nem. Az a teszt ahol a kartyak 100+ fps-el szaladgalnak azok tenyleg megizzasztjak a vga-t? Semmi igazi terheles egy memoria savszelnel?
    Akkor ernenek a szememben valamit ezek a tesztek ha az fps 60 alatt lenne minden esetben.
    En pl a 290x tesztnel a 4k-sat neztem meg es ott betettek cf-be 3x4k-ra is. Hat ott nem lattam 100 fps-t ha memoriam nem csal.
    Itt egy oldal belole egy tesztbol 4k-val.
    <http://www.kitguru.net/components/graphic-cards/zardon/amd-r9-290-review-1600p-4k-and-cf/24/>
    Ott izzadtak a gpu-k. Es igen, megertem a tesztelot is hogy alkatresz hiany van. Jo teszt, de lehetne jobb is. Csak egy kis talalekonysag kell hozza. pl. 9600m gt-m is futtat 2880x1600-at. ez 2x-ese 1280x800-as nativnak. de ha meg akarom izzasztani akkor megy.
  • 23.
    2013. 11. 07. 21:00
    Na de drágább is.
  • 22.
    2013. 11. 07. 20:52
    Elég legyen már ebből a 290X hype-ból.

    Nagyon vártam én is a 290X-et, de az hogy 95 fokos legyen a GPU egy kis tuning esetén az semmi esetre sem jó, ref. vagy nem ref. hűtés. Itt vagy a chippel van valami komoly probléma vagy maxra van járatva, bármelyik eshetőség esetén be kell látni hogy jobb a 780 Ti (az is ref!).
  • 21.
    2013. 11. 07. 20:30
    Majd jön a Mantle, a Kaveri, meg a Messiás... . A vicc, hogy egy kicsit bedurvított beállításokkal meg ezek a VGA-k is könnyedén limitre vághatók, igaz nem árt ehhez a sima full HD-tól kicsit nagyobb felbontás.
  • 20.
    2013. 11. 07. 19:53
    @neurosys
    Az itteni tesztek általában Nvidiásabbak, a felbontás is alacsony.
    A legtöbb másik teszten inkább a 780 Ti szinte körül mozog a 290X.
  • 19.
    2013. 11. 07. 19:35
    Elírtam 1650x1080,

    Az lehet hogy még drága. De lemegy az ára. Valamint a 2560x1440-eset lehet kapni már elfogadható áron 150-200 között. De ezen a felbontáson sem tesztelik...

    Lehet még drága, de ha felfut a gyártás szépen leesik az ára és nem kell rá várni éveket. Következő nyárra már jóval kedvezőbb lesz az ára.

    De a lényeg ugyan az hogy egy atomerőműhöz akkora villanymotort veszek ami feltépi fél európát nem egy búvárszivattyúval ügyködök
  • 18.
    2013. 11. 07. 19:33
    Az r290x nem ugy volt hogy titan vero kartya?
    Jatekok tobbsegeben mondhatni a titan vezet, meg ha 0.7 fps-el is ami lof...t nem er.
    De az osszesitesnel is egalra hoztak ki a dolgot..
    Igaz arban mas ketegoria, de emlekeim szerint 3-5%rol volt szo.
    Vagy itt mar a "lassabbik" 290x-el ment a teszt??


    Ami a 780 ti illeti.
    Lassan tenyleg egy fel vga gpu val lesz nagyobb.
    Igaz azt szoktak mondani hogy nem a meret a lenyeg. de azert na...

  • 17.
    2013. 11. 07. 19:32
    Fireprism: Ha így halad a technika, jövőre szemet kell cserélnem, mert nem tudja a monitorok felbontását követni.. Szerintem teljesen értelmetlen a 4k. Már az 1360x768 és a full HD között is alig van érezhető különbség..

    Nagyobb felbontáson a több memóriával szerelt, nagyobb sávszélességű kártyák jobbak. Tehát 4k felbontáson az R290x veri a 780 Titánt. 4 GB vs. 3 GB, hasonló sávszél mellett. Tavasszal már egyedi hűtéssel tudod venni. Ráadásul ennél már a CF-hez nem kell adatkábel, és olcsóbb is.
  • 16.
    2013. 11. 07. 19:21
    Egyedi monitorod volt, meg hozzá egyedi VGA-d? Csak mert én a büdös életben nem hallottam 1650x1080 felbontásról. Személy szerint én 1 milliót nem adnék ki egy 4k monitorért.
  • 15.
    2013. 11. 07. 18:50
    2006-ban már 1650X1080-ba játszottam! Mivel most állok gépfejlesztés előtt 4k-s monitort fogok venni nem 1080p-re .... Szóval számomra semmit érők a tesztek mert ez alapján hogy döntsem el mely VGA-t lesz érdemes vennem tavasszal mire kicsit normalizálódnak az árak ???????

    1080p idejét múltja egy 30-40 ezres monitor már tudja....

    Szeretném kérni a teszt készítőit hogy egy ilyen kaliberű VGA-t teszteljünk már az elérhető maximális felbontáson. A véleményem ugyan ez a AMD előző cikkéről is !
  • 14.
    2013. 11. 07. 18:45
    tibaimp
    Csakhogy a játékosok nagy részének nem 200K-s VGA dübörög a gépében.
  • 13.
    2013. 11. 07. 17:54
    carraroxt: szerintem meg nagyon is helytálló, mivel a játékosok nagy része ezen a felbontáson játszik a mai napig, így én pont ezt tartom jónak!

    Nem lett rossz, ez sem, nagyon kíváncsi vagyok a mantle api-ra, hogy mit tud majd kihozni a konkurenciából, illetve az egyedi hűtésű gyárilag tuningolt 290-ekre!
  • 12.
    2013. 11. 07. 17:47
    1080p-ben van tesztelve, mivel csak itt tudja megverni az Amd-t az Nvidia . Az az 1-2% lemaradás nem sok egy referencia kártyától, egyedi hűtések + tuning után 10%-al an Nvidia felett lesznek.
  • 11.
    2013. 11. 07. 17:27
    gery84
    "A 290X és a 780ti mag méretbeli különbségből kijönne egy HD7770 videokártya. Ami 123mm2"

    Ja és milyen jó kis kari a HD7770....
  • 10.
    2013. 11. 07. 17:12
    Az 1920*1080-as tesztek nekem is kissé furák. Egy ilyen drága kártya mellé, már nem megerőltető venni egy 2560-as monitort.
  • 9.
    2013. 11. 07. 17:04
    Ezt a fogyasztás baromságot! Sose néztem és sosem fogom nézni. Aki pedig ennek fényében vesz kártyát .. hát az elég furcsa. Akkor a legjobb amit tehet hogy apu-ra vagy igp-re vált. (Hozzá tenném ez az én személyes véleményem)
  • 8.
    2013. 11. 07. 17:01
    MZperX75
    Van értelme 1080p-n is csúcskártyának,ha az illető 120+ hz-es monitort használ.
  • 7.
    2013. 11. 07. 16:47
    Hát számolja bele. Spóroljon arra is. Csúcskártya. Nem a fogyasztás az elsődleges szempont. A gyártóknak csak az a lényeg hogy a 300wattot ne lépje át.
  • 6.
    2013. 11. 07. 16:44
    chimp Ezt én is furcsáltam

    Egyébként szép és jó hogy ilyen erősek ezek a kártyák(gondolom jobb procival még erősebbek), de mostmár kezdhetnénk valamit az áramfelvétellel, mert irdatlan sok áramot fogyaszt és azt még sajna nem ingyen adják. (Azzal meg ne gyertek hogy akinek van pénze ilyen vga-ra akkor van az áramra is, mert lehet sokáig spórol rá).
  • 5.
    2013. 11. 07. 16:43
    1080p-ben van tesztelve egy 200ezer Ft-os VGA Vicccc kat.......
  • 4.
    2013. 11. 07. 16:33
    A HD7970 csúnyán elmaradt a HD7970-hez viszonyítva.
  • 3.
    2013. 11. 07. 16:04
    Nem tudom megér-e +40e 3-4 FPS-t,főleg ha jön az egyedi hűtős r9 290(x).Viszont tuningolni piszok jól lehet.
  • 2.
    2013. 11. 07. 15:33
    A 290X és a 780ti mag méretbeli különbségből kijönne egy HD7770 videokártya. Ami 123mm2
  • 1.
    2013. 11. 07. 15:30
    azcsi, 1-2 WHQL driver és nem lesz probléma az FPS esés... (ára meg hát nVidia árazás)