To G-sync or not to G-sync
Daily Rush › Debat › Hardware › Hardware › To G-sync or not to G-sync
- Dette indlæg indeholder 41 kommentarer, har 16 deltagere og blev senest opdateret af
NightBreaker for 5 år, 10 måneder siden.
- ForfatterEmne
- 08/03/2015 kl. 22:02#0
Jeg modtaget et stk. gtx970 i morgen og overvejer om man også skulle få sig en bedre skærm…
Jeg kan se at der på et par anmelderroste AOC skærme (g2460pqu og g2460pg g-sync) er omkring 1.200 kr. forskel.
Er G-sync disse penge værd? Det får meget ros rundt omkring, men er det kun for den absolut fps elite, eller vil jeg som spiller en ordentlig blandet landhandel på hobbyniveau også kunne se forskellen?
- ForfatterEmne
- ForfatterKommentarer
- 08/03/2015 kl. 22:07 #1
g-sync vs v-sync
http://www.tomshardware.com/reviews/g-sync-v-sync-monitor,3699-5.html
But G-Sync makes all of that pain go away. You don’t find yourself staring at the Fraps counter, looking for evidence of a dip below 60 FPS that’d compel you to turn off another detail setting. Rather, you can turn then up higher because, even if you do dip to 50 or even 40 FPS, you don’t end up with any of that unnatural stutter. And the previous solution, disabling V-sync, well, we’ll get to that on the next page.
lidt surt men ellers kunne du have kigget på free-sync til amd, har ingen anelse om det virker til nvidia gfx.
http://www.trustedreviews.com/opinions/why-your-next-monitor-should-have-amd-freesync
free-sync er en open standart så det burde det.
Den første pc jeg havde var en 386sx med 8 mb ram som jeg gamede warcraft 1 på i dos 5.
08/03/2015 kl. 22:26 #2g2460pqu det er billigt nok 1899.- Cheap. Så ja det er ikke helt let. G-sync giver noget men for mig er det vigtigt at havde de 120hz+. Men har også set G-Sync og det virket sgu godt men forskellen er ikke stor nok for mig til at jeg vil skifte mine Samsung S27A950 ude. Personligt havde jeg nok bare taget den g2460pqu også fordi den er så billig, og synes forskellen er for stor iht prisen.
08/03/2015 kl. 22:28 #3Kan dog se den kan fåes til 2599.-
Der vil jeg nok overveje det en ekstra gang. det er kun 700.-
08/03/2015 kl. 22:37 #4Vild pris – det skal bestemt overvejes!
08/03/2015 kl. 22:39 #5Freesync. Fuck da Gsync.
Basis-råd: Vælg et billigere bundkort, en mindre PSU og hovedtelefoner + mic i stedet for et headset
08/03/2015 kl. 23:23 #6så skulle det for at kunne udnytte low persistence, det kræver dog også at skærmen har Lightboost
08/03/2015 kl. 23:54 #7gsync og fresync er jo kun til naar din maskine ikke kan traekke spillet og vsync trippple buffering give samme effekt.
at betale bare for gsync og freesync er i min bog hul i hovedet.
Det er sjobt at anandtech som i laang tid har anbefale vsync +tripple buffering pludselig tester alt deres vsync i double buffering vs gsync. worst case vs bestcase er ikke helt relevant
Sven Bent - Dr. Diagnostic
www.TechCenter.DK09/03/2015 kl. 00:31 #8#7 Man betaler ikke for freesync – det er det der er hele ideen og grundlaget for dets eksistens. Nvidias proprietary Gsync modul koster producenterne flere hundrede kroner at implementerer. Freesync koster nul og niks. Heller ikke i royalties, som Nvidias Gsync løsning også kræver.
Freesync er gratis, har samme slutprodukt som Gsync og så er det fuldstændig åbent såles at producenterne selv kan vælge hvordan og hvorledes de vil gøre brug af det.
#1 Jeg overså lige din undren omkring Freesync: Nej, det virker ikke til Nvidia kort. Ikke fordi det ikke kan komme til det med en simpel softwareopdatering, men bare fordi Nvidia hellere vil sælge Gsync moduler end at give os en fed, tearing-free gamingoplevelse.
Basis-råd: Vælg et billigere bundkort, en mindre PSU og hovedtelefoner + mic i stedet for et headset
09/03/2015 kl. 00:53 #9#8
Hvis han gaar ud og koeber en ny skaerm udelukkende for gsync/freesync saa betaler han for freesync.Sven Bent - Dr. Diagnostic
www.TechCenter.DK09/03/2015 kl. 02:53 #10#8 det skal nok blive sjovt for en masse kunder.
Den første pc jeg havde var en 386sx med 8 mb ram som jeg gamede warcraft 1 på i dos 5.
09/03/2015 kl. 06:15 #11#8 Freesync har ikke samme slutprodukt som G-Sync.
Det er 2 forskellige implementationer, og G-Sync er den hurtigste og mest præcise af dem.
09/03/2015 kl. 08:43 #1211# Source, ellers kan det kun forstås som biased varm luft. Der er ingen produkter på markedet eller tidlige reviews endnu og ingen har klaget efter at have set de annoncerede skærme til CES 2015.
G-sync modulet er en lukket løsning Nvidia valgte frem for at skubbe på med en standard, som AMD siden gjorde. Ud over adaptive sync giver modulet adgang til ULMB, men da de to ting ikke virker samtidig er der ingen grund til at f.eks. Benq ikke kan putte deres Blur Reduction i skærme med DP 1.2a og opnå samme funktionalitet.
Der er intet i vejen for at Nvidia ikke skulle kunne lave en gratis G-Sync version der på samme måde benytter Adaptive Sync standarden. En Freesync klon.
Om og hvornår de dog gør det er dog en anden sag. I første omgang bliver DP 1.2a skærme meget dyre, f.eks. LG’s 34UM67 der bliver den første på markedet og er enormt dyr for en 2560×1080 skærm, eller Acer’s XB270HU til April. Typisk early adopter markup strategi.
Når 1.2a begynder at blive normalt i budget produkter kan det være at Nvidia begynder at svede. Til den tid burde AMD’s 3xx kort være på gaden, og så er GTX 9xx kortene nok ikke gode nok til at forsvare 100$ ekstra for Nvidias adaptive sync. Der er selvfølgelig heller ikke noget i vejen for at de sætter prisen en del ned på modulet frem for at bruge standarden.edit: indlæg nr. 1337
09/03/2015 kl. 09:18 #13Efter at have læst kommentarer og læst lidt flere reviews rundt omkring endte jeg med bestille en g2460pg – til den pris var den for god til at sige nej til
09/03/2015 kl. 10:11 #14#12 Det er i min forstand måden teknologien er lavet på, i Freesync implementationen kan de ikke decideret synkronisere mellem Hardware og GPU, som G-Sync gør.
Derfor er det på Freesync siden et godt estimeret gæt, hvorimod det på G-Sync er tale om at displayet og grafikkortet arbejder synkront.
Er dog helt enig i at det er noget hø med to standarder, og G-Sync er ikke personligt på bordet da det alligevel kun virker i fullscreen applikationer, men jeg addresserede en post der fik det til at lyde som om at Nvidia bare har smidt hardware i skærmen uden årsag, hvilket mig bekendt ikke er sandt.
G-Sync har da også været ude i noget tid nu, så ved ikke hvad du mener med early adopter strategi?
09/03/2015 kl. 10:13 #15Hold kæft hvor jeg glæder mig til nogle comparison reviews.
90% af alt hvad der lukkes ud om emnet, er så gennemsyret af LORT at det grænser til det utrolige.
Jeg har intet imod at folk spekulere – men når det udgives som SANDHEDEN …. (Bræk-smiley)
Personligt har jeg svært ved at tro, at nogen hos Nvidea har tænkt, at det bedste modtræk til freesync var at tilbyde samme kvalitet, til $100 mere og i et lukket format. Nuvel, det kan jo vise sig, at jeg tager fejl. Men måske viser det sig, at G-sync er bedre – og at det var det som Nvidea gik efter? Hvis de har undervurderet freesync løsningen, og den taktisk matcher 100% i kvalitet, så bliver Nvidea vel nærmest tvunget til at give G-sync væk eller hoppe med på freesync.
Det bliver, som sagt, super spændende med grundige reviews.
i7-6700K@4.5 Ghz|Noctua NH-D14|Asus Z170|GTX1080ti|32GB DDR4|Pro 950 512GB NVMe|2x 850 Evo 1TB SSD|CORSAIR AX 850W|R5|Asus PG279Q
- ForfatterKommentarer
- Du skal være logget ind for at kommentere på dette indlæg.
























