GTX1080 hurtigere end Titan X
Daily Rush › Debat › Hardware › Hardware › GTX1080 hurtigere end Titan X
- Dette indlæg indeholder 35 kommentarer, har 7 deltagere og blev senest opdateret af
NightBreaker for 4 år, 8 måneder siden.
-
ForfatterEmne
-
07/05/2016 kl. 04:53 #0
for jer der nok laa og sov mens nvida live streamed paa twitch omders nye kort saa kan jeg lige godt sige at i foelge dem, saa er et GTX 1080 hurtiger end TitanX og hurtigere end 2x GTX 980 i sli.
nam nam
jeg tror vi kan takke AMD furey X og 390 kort for at give lidt konkurrencetilbage i performance omraade for at nvida nu igen saetter performance i hoejsaedeSven Bent - Dr. Diagnostic
www.TechCenter.DK -
ForfatterEmne
-
ForfatterKommentarer
-
07/05/2016 kl. 05:52 #1
Personligt kan jeg ikke lade vær’ med at være lidt skuffet. Naturligvis ikke over ydelsen, men over at de spiser os af med en sølle, sølle, SØLLE 256-bit memory bus. Selv med GDDR5X moduler vil den samlede båndbredde være lavere end mine GTX 780 Ti’s, som er fra november 2013…
Begrænset af sin minimale bus kan GTX 1080 kn leverer en samlet båndbredde på 320 GB/s, mens et GTX 780 Ti kan leverer 336 GB/s, pga. en 384-bit bus, til trods for 7GHz memory.
Havde GTX 1080 haft en 384-bit bus havde den samlede båndbredde været 480GB/s! What a waste…!
Jeg føler mig i hvert fald nødsaget til at se en ordenlig numsefuld 4K benchmarks før jeg vælger, om det er opgraderingstid. Især når vi ved HBM1 og 2 har en 4096-bit bus, der med “sløv” 1GHz memory giver 512GB/s bandwith.
Selv AMD’s HD 7970 fra december 2011(!) kan diske op med en 384-bit bus, mens det hurtigste kort i sigte kun har en 256-bit bus.
(Og så skal man selvfølgelig lige ta’ Nvidias påstande med et vognlæs salt. GTX 1080 er hurtigere end 2 GTX 980’s i SLI og Titan X, ja, men med garanti ikke som gennemsnitligt tal og med garanti ikke i alle spil/apps. Det er nøje udvalgte tal, så kortet ser så godt ud som muligt)
Basis-råd: Vælg et billigere bundkort, en mindre PSU og hovedtelefoner + mic i stedet for et headset
07/05/2016 kl. 07:31 #2#1
Jeg er enig. dertil ska lder ligges de snakkede mget om VR som det kan vare de henfore til VR performance dvs der ka vnare tale om ressrouce bespaering trick pga der rendes det samme togang.
MAske kan de nye kort “genbruge noget data” hvor de gamle kort ville render dobbelt.
men det er ikke meget andet at goere end at vente paa de foerste reviews kommer ud
mht til ram kan jeg godt foelge dig. men some der kommer nyere og nyere GPU’er ud kommer der ogsaa mere og mindre rambaandbrede besparende funktioner end
helt tilbage til GEforce2 tiden begynde vi jo at lege med at reducer krave til rambaandbrede ved at grov skare Z data ud samt at bruge komprimering her og der og alle vejne.
Dermed ikke sagt at opgrader til en 50% brede bus ikke ville havde vaeret nice
Sven Bent - Dr. Diagnostic
www.TechCenter.DK07/05/2016 kl. 10:52 #307/05/2016 kl. 16:10 #4Og hverken GTX 1080 eller 1070 har async compute, altså vil vi stadig se ingen eller minimal forskel på Nvidia kort i DX12.
Basis-råd: Vælg et billigere bundkort, en mindre PSU og hovedtelefoner + mic i stedet for et headset
07/05/2016 kl. 17:02 #5Denne gang vil amds kort helt sikkert blive de hurtigeste kort der findes.
Den første pc jeg havde var en 386sx med 8 mb ram som jeg gamede warcraft 1 på i dos 5.
07/05/2016 kl. 17:15 #6#5 Næppe. AMD har baseret på rygterne indtil videre ikke i tankerne at gå efter os, entusiasterne, men derimod mainstream.
Basis-råd: Vælg et billigere bundkort, en mindre PSU og hovedtelefoner + mic i stedet for et headset
07/05/2016 kl. 18:15 #7#1 båndbredden … Jeg forstår hvad du siger, men er der ikke noget med at den tilgængelige båndbredde kan bruges mere eller mine effektivt? Muligvis jeg husker forkert men synes at have læst om metoder til at “få mere ud af mindre båndbredde”.
Pointen skulle så være, at pengene var bedre brugt på at opnå denne effektivisering frem for “bare” mere få hastighed.
Kan også være jeg har drømt det hele. Kan ikke huske hvor jeg læste det.
Uanset så får vi syn for sagerne når de første benchmarks dukker op. Hvis ikke der er “hul nok igennem” så bliver der svært at opnå den performance der er stillet i udsigt.
i7-6700K@4.5 Ghz|Noctua NH-D14|Asus Z170|GTX1080ti|32GB DDR4|Pro 950 512GB NVMe|2x 850 Evo 1TB SSD|CORSAIR AX 850W|R5|Asus PG279Q
07/05/2016 kl. 20:36 #8#7 Jo man kan bruge forskellige metoder og typer af komprimering(og det gør både Nvidia og AMD i forvejen).
Men jeg er kort sagt nervøs for, at GPU’en kommer til at ligge på under 100% brug, når vi ser rigtig, rigtig store datamængder der skal fra VRAM til GPU, når nu GPU’en er så hurtig og bus’en så lille.
… Og desuden er jeg lidt muggen over at et topkort bliver skudt afsted med GDDR5X. GDDR5X rolle bliver at være teknologien for low- eller mid-range kort, mens HBM2 bliver high-end kort. Så GTX 1080 bliver sandsynligvis første og sidste gang vi ser et high-end kort med GDDR5X.
Micron er stadigvæk heller ikke i nærheden af masseproduktion af GDDR5X, så det kan sagtens tænkes, at der kommer til at være for lidt chips og dermed stigende priser på GTX 1080.
Basis-råd: Vælg et billigere bundkort, en mindre PSU og hovedtelefoner + mic i stedet for et headset
07/05/2016 kl. 20:48 #9#4
async har ikke vist den store forskel paa AMD kort I becnhmark so far. folk har muglivs bare varet lid tidlige ud med at tildele det aarsagen.Se mine tidligere links til dx 12 benchmarking
http://www.hardocp.com/article/2016/04/13/dx11_vs_dx12_amd_cpu_scaling_gaming_framerate
http://www.hardocp.com/article/2016/04/19/dx11_vs_dx12_intel_cpu_scaling_gaming_framerateFol khar bar antaget det som udgangs punkt.
men i benchmharks hvor ders koere dx12 med og uden async har det vist at det muglivis er noget andet i dx12 der se ud til at give amd deres gode gpu boost“You can toggle Async Compute on and off in Ashes of the Singularity with the “AsyncComputeOff” flag in the Settings Initialization file. Over the last couple of weeks I have worked through both AMD and Intel CPUs toggling Asynch Compute on and off with both AMD and NVIDIA video cards. The fact is that even on the highest end of the performance spectrum, the biggest frames per second increase we saw was 3 frames per second; from 90.5 to 93.3…a whopping 3% increase, which I would suggest is within our margin of error. That said, I was able to reproduce that increase consistently, so I would suggest that the increase is “real” even inside our MoE. Generally though, we would see gains of less than 1 frame per second when toggling between Async on and Async off.“
Sven Bent - Dr. Diagnostic
www.TechCenter.DK07/05/2016 kl. 23:21 #10#9 Der er på nuværende tidspunkt kun 2 spil der benytter async compute – lad os nu lige vente på vi får mere end 2 datapunkter før vi afskriver async.
De benchmarks du linker til viser ganske rigtigt næsten ingen fordel ved async, men benchmarks fra både Anandtech og Extremetech er uenige. De ser begge store performance gains ved at skifte til async compute. Men naturligvis ikke hos Nvidia som (nu heller ikke med GTX 1080) understøtter async.
Basis-råd: Vælg et billigere bundkort, en mindre PSU og hovedtelefoner + mic i stedet for et headset
07/05/2016 kl. 23:51 #11#8 nuvel, der er nok en grund. Måske pris, da kortet allerede koster en hel del $$$. Eller også kunne de ikke få den nye Tech til at fungere med hurtigere bus. Eller også holder de igen, så der er noget til 1080ti
Hvor lang tid gik der egentligt sidst? Fra 980 til 980ti? (Og fra 780 til 780ti)
Der er jo typisk et ret stort løft til ti modellerne.
Nogen grund til at tro, at der ikke skulle komme en ti model? Der er jo rigeligt med “watt” at tage af !
i7-6700K@4.5 Ghz|Noctua NH-D14|Asus Z170|GTX1080ti|32GB DDR4|Pro 950 512GB NVMe|2x 850 Evo 1TB SSD|CORSAIR AX 850W|R5|Asus PG279Q
08/05/2016 kl. 00:20 #12#11 Det er muligt at de tilbageholder HBM2 til næste Titan og 1080 Ti og så vil vi i så fald se en 4096-bit bus med 1024 GB/s – ja, 1 fucking terabyte(!) – bandwidth. Som sagt er GDDR5 og GDDR5X ikke noget vi kommer til at se i toppen i fremtiden. Det er kun fordi vi er lige midt i mellem to teknologier at vi får GDDR5X i toppen. Så med mindre GTX 1080 Ti er lige om hjørnet bliver det ikke med GDDR-tech.
Der er mig bekendt ikke noget der stopper en større bus fra at blive implementerede på en die. Der er som sådan ikke nogen ny tech på Nvidias GP104-400 og GP104-200 (GTX 1070). Det er bare deres marketingsafdeling der taler, AFAIK.
Der gik 9 måneder mellem 980 og 980 Ti. Der gik 6 måneder mellem 780 og 780 Ti.
Baseret alene på modelnavnet af chippen fra GTX 1080 og 1070 vil jeg sige der kommer et Titan og/eller et GTX 1080 Ti.
Basis-råd: Vælg et billigere bundkort, en mindre PSU og hovedtelefoner + mic i stedet for et headset
08/05/2016 kl. 06:52 #13#10
Det var ikke mig der bragte aasync op.Du bragte det op og dragede konklussioner. saa at rette mig i at vurdere en ting uden benchmarks nar du decideret konluereende foelgende
“Og hverken GTX 1080 eller 1070 har async compute, altså vil vi stadig se ingen eller minimal forskel på Nvidia kort i DX12.”
Ser altsaa lidt sjovt ud.
dvs det er DIG det kommer med en konklussion uden benchmarks. Ikke migJeg rettr blot til at din konklussioner ikke er blev bevist i den ene benchmark jeg har set hvor der er bleve testet
saa fej lige for egen doer inden du retter andre…
mht til async:
Hvis du nu kiggede paa dine benchmakr du linkede til vil du ogsaa se klart at:Hos anandtech giver det i de fleste tilfalde ( paa nar et ) ca 10% boost i performance med async og slet ikke taet paa booster fra DDX11 til DX12
hvilekt bekraftiger hvad jeg skrev at det storre boost fra DX12 er noget andet end async
Kigger vi paa extreme tech ser vi igen omkring 10% boost
Desvaerre havde Extremetech ikke noget maalingeer paa DX11 til DX12Saa igen dine “Beviser” beviser netop hvad jeg sagdet at DX11 til DX12 performance booster IKKE hovedesageligt basret paa async.
Lad mig opsumre ud fra dine beviser:
Der er et stort boost paa kort under DX12 selv uden async. hvilket netop er imod hvad du skrev og jeg rettede dig i.Sven Bent - Dr. Diagnostic
www.TechCenter.DK08/05/2016 kl. 09:25 #14#12 som jeg husker det, så var både 980ti og 780ti “fulde chips” i modsætning til hhv 780 og 980.
Det ser ud til at 1080 allerede er en fuld chip, så til ti skal de finde på noget andet og derfor kunne ram/båndbredde komme i spil. Rammen, fordi den er noget langsommere end hvad max egentligt er for den type der bruges.
Jeg ville godt nok ønske jeg vidste hvad der kommer og hvornår. Jeg har ikke noget problem med at lægge kassen for et top-kort som sådan, men synes det er bittert hvis der kommer noget 25% hurtigere under et halvt år efter.
Edit : dog køber jeg nok nu, og tager chancen. Jeg har et princip om at doble op på ydelse ved opgraderinger og det synes sikkert at mit 780 bliver slået 100% i alt, selvom det har været frisk på en god OC hele vejen.
i7-6700K@4.5 Ghz|Noctua NH-D14|Asus Z170|GTX1080ti|32GB DDR4|Pro 950 512GB NVMe|2x 850 Evo 1TB SSD|CORSAIR AX 850W|R5|Asus PG279Q
08/05/2016 kl. 09:37 #15#14
lyder umiddelbart som en god ide. jeg plejer ogsaa at gaaa efter ca en fordobling eller mere for opgradering .undtagelse vis de gange hvor jeg kunne slippe med kun at betale pris forskellen i graffikortene.
Sven Bent - Dr. Diagnostic
www.TechCenter.DK -
ForfatterKommentarer
- Du skal være logget ind for at kommentere på dette indlæg.
























