tirsdag, oktober 27, 2020

RTX 3xxx / Ampere giga-tråd

Daily Rush Debat Hardware Hardware RTX 3xxx / Ampere giga-tråd

  • Forfatter
    Emne
  • #0

    MiNo
    Bruger
    2.728 indlæg
    Offline

    Nu bliver der lukket op for detaljerne, så vi bør vel have en egentlig tråd til emnet.

    Marketwatch

    Ovenstående er omkring den ‘store’ udgave til AI i datacentre, men den grundlæggende arkitektur går igen i consumer “RTX” varianterne siger Nvidia.

    Jeg er både spændt og bekymret over next gen consumer kort. Spændt, fordi jeg sprang 2xxx over grundet horrible pris/performance i toppen og bekymret fordi jeg ikke tror det er slut. Uden at have regnet på det, så er min fornemmelse at man de sidste mange år ikke har fået mere for pengene (i toppen af serien) men istedet har fået mere ydelse for tilsvarende flere penge. Og det er jo ikke særligt imponerende at levere dobbelt ydelse til dobbelt pris – slet ikke for et IT produkt. Sammenliget med CPU’erne så kan jeg i dag få sygt mere performance end min 6700K til ca samme pris som jeg gav for ~4 år siden. No so much på GPU hvor det er gået ned af bakke med price/performance siden 980ti synes jeg.

    Lad os smide facts ind her, i takt med de dukker op og håbe at der kommer noget mere spiseligt denne gang. F.eks. noget RPX performance der faktisk kan bruges til noget… eller mere general purpose kerner, frem for nogle som koster en formue og kun er i brug i 5 spil. Eller hvad folk nu end ser frem til

    i7-6700K@4.5 Ghz|Noctua NH-D14|Asus Z170|GTX1080ti|32GB DDR4|Pro 950 512GB NVMe|2x 850 Evo 1TB SSD|CORSAIR AX 850W|R5|Asus PG279Q

Viser 15 kommentarer - 136 til 150 (af 790 i alt)
  • Forfatter
    Kommentarer
  • #136

    knekker
    Bruger
    1.871 indlæg
    Offline

    De kommer med hdmi 2.1 men display port 1.4a frem for 2.0? sikkert for at sørge for at forbrugerne har et incitament til at opgradere til super versionen i 2021…

    #137

    MiNo
    Bruger
    2.728 indlæg
    Offline

    Jeg synes 24 GB lyder underligt. Det er voldsomt stort hop.

    Er det fordi der kan komme mere fart på (mem bandwith) med mere RAM / flere chips? Eller er det reelt textures i spil som man forventer kan bruge/kræve denne plads? Eller er der andre årsager / fordele ved SÅ meget RAM ?

    Selvom der er fordele, så er der i hvert fald også omkostninger som skal betales.

    i7-6700K@4.5 Ghz|Noctua NH-D14|Asus Z170|GTX1080ti|32GB DDR4|Pro 950 512GB NVMe|2x 850 Evo 1TB SSD|CORSAIR AX 850W|R5|Asus PG279Q

    #138

    knaseren
    Bruger
    6.845 indlæg
    Offline

    mit 1080ti har 11gb ram og det nye 3080 har kun 10gb ram… underligt imo.

    Professor: i7-6700k
    Køling: Arctic Liquid Cooling 360
    Bundkort: asus z170 pro gaming
    Ram: 16gb corsair dominator platinum 3000mhz
    Grafik: MSI GeForce RTX 3080 GAMING X TRIO-10GB GDDR6X R
    Skærm: Predator Z321QU
    Lager: 500gb 950 pro - 500gb 850 EVO - 1TB 860 EVO
    Kabinet: Corsair 680X
    Strøm: Be Quiet! Dark power pro 12 1500W

    #139

    MiNo
    Bruger
    2.728 indlæg
    Offline

    #138 Nu er 3080 jo ikke i “ti” serien, så hvorfor lave den sammenligning med 1080ti?

    Du skal kikke på 1080 vs 3080 og så er det 8GB -> 10GB

    i7-6700K@4.5 Ghz|Noctua NH-D14|Asus Z170|GTX1080ti|32GB DDR4|Pro 950 512GB NVMe|2x 850 Evo 1TB SSD|CORSAIR AX 850W|R5|Asus PG279Q

    #140

    Noztra
    Bruger
    2.145 indlæg
    Offline

    #136 Arbejder du hos NVIDIA? For kunne de da aldrig finde på at segmentere sådan…

    #137 3090 er Titan, men NVIDIA vil ikke bruge Titan brandet til gaming. Så derfor 3090.

    #139 Præcis. Og hoppet mellem 3080 og 3090 er ret stort. Så mon ikke der kommer et 3080 Super Duper eller 3080Ti? NVIDIA har hvert fald gjort plads i deres stack til det.

    #141

    MiNo
    Bruger
    2.728 indlæg
    Offline

    Uanset så er det utroligt fesent at ‘misbruge’ betegnelserne. x90 er til dual GPU – og der er bare nul god grund til at det nu skal betyde noget nyt. Jo, der sidder en i marketing og har en forklaring, men de folk er værre end djævlen selv selv og vil skide på enhver forbruger hvis bare de kortsigtede økonomiske mål kan opnås. Eller, dvs det vil de også skide på. Bare deres ide kan forsvares, så de får deres bonus – og så skal manglende salg bare undskyldes med noget andet.

    Ahhh..

    Tror at folk på jagt efter ‘top kort til gaming’ som efter min mening er xxxx-ti (og ikke Titan*) vil undre sig ved denne launch for det kort vil mangle. Så enig med #140 her. Personligt vil jeg ikke røre et nyt kort med en ildtang inden jeg har set hvad AMD kommer med, omend jeg ikke forventer dem at true i toppen. Og dernæst skal jeg se specs og pris på xxxx-ti inden der sker noget.

    * Titan kort (uanset hvad de hedder) har tilbudt ufatteligt lidt for de mange ekstra penge og giver derfor ikke rigtigt mening for langt de fleste. At nogle få har helt særlige behov eller for mange penge ændre ikke på dette.

    i7-6700K@4.5 Ghz|Noctua NH-D14|Asus Z170|GTX1080ti|32GB DDR4|Pro 950 512GB NVMe|2x 850 Evo 1TB SSD|CORSAIR AX 850W|R5|Asus PG279Q

    #142

    Noztra
    Bruger
    2.145 indlæg
    Offline
    #143

    Deadmeat
    Bruger
    7.419 indlæg
    Offline

    #141 @mino, du er muligvis tættere på sandheden om 3090 end du tror. Det bliver stadig debatteret om kortet måske kommer med en ‘co-processor’ (i mangel af bedre ord), der muligvis indeholder RT cores eller noget helt andet.

    Anyway så bliver vi nok meget snart klogere

    "Whose kitty litter box did I just shit in?"

    #144

    Noztra
    Bruger
    2.145 indlæg
    Offline

    Så kom der flere specs fra Gainward. Læg forresten mærke til at NVIDIA har skiftet målemetode fra TBP til TGP, så bliver svært at måle hvor effektiv kortet er mod Turing.
    https://videocardz.com/newz/gainward-geforce-rtx-3090-and-rtx-3080-phoenix-leaked-specs-confirmed

    #145

    Nioxic
    Bruger
    17.918 indlæg
    Offline

    #144 det er vel ligegyldigt, for vi skal vel se nogen benchmarks alligevel, i reviews og sådan

    det holder vel forhåbenligt heller ikke producenterne fra at bruge TBP hvis de vil

    http://www.reddit.com/r/random/

    #146

    Noztra
    Bruger
    2.145 indlæg
    Offline

    #145 NVIDIA gør det helt sikkert for at vildlede og gøre det svære at sammenligne med Turing.

    Hvis nu RTX 2080 bruger 250W TDP og RTX 3080 bruger 250W TGP, så er det svært at sammenligne. De gør det 100% for at få Ampere kort til at bedre ud, så skulle ikke undre mig at TGP < TDP. Så hvis begge kort blev målt med TDP, så ville Ampere bruge en del mere strøm end Turing.

    Udover det, så går alle rygter på at Ampere ikke er særlig effektivt, grundet den node de bruger.

    Hvis man sammenligner de leaked specs på RTX 3080 med RTX 2080Ti, så er det næsten identiske, men strømforbrug er stedet fra 250W til 320W på en mindre node, hvilket skulle være mere effektiv.

    #147

    Fisker
    Bruger
    12.445 indlæg
    Offline

    #144 TBP og TGP skulle da være det samme?

    #148

    Noztra
    Bruger
    2.145 indlæg
    Offline
    #149

    Fisker
    Bruger
    12.445 indlæg
    Offline

    #148 Begge links siger det er det samme tal. Geeks3d nævner specifikt at der er fordi AMD kalder det TBP men Nvidia kalder det TGP i stedet.

    • Denne kommentar blev ændret for 1 måned, 3 uger siden af  Fisker.
    #150

    Deadmeat
    Bruger
    7.419 indlæg
    Offline

    #146: Tech Youtubers og dermed også de potentielle kunder, der rent faktisk interesserer sig for den slags skal nok finde ud af hvordan Turing og Ampere reelt sammenligner mht. strømforbrug alligevel

    I mine øjne er langt de fleste gamere, der vil købe et 3080 eller 3090 ikke så interesserede i selve det at kortenes strømforbrug går (meget) op. De to første ting der kigges på er helt sikkert performance og pris. Og hvis kortene så ellers leveres med kølere der reelt kan holde kortene ude af thermal throttling, så køber folk dem uden at blinke eller yderligere tanke på strømforbruget.

    I øvrigt lyder det til at der kommer til at være meget få 3090 kort til salg ved launch. Så den her næsten-paper launch vi har luret på, bliver nok en realitet. Men NVIDIA vil kunne sige at de stadig har verdens hurtigste grafikkort til gamere. Min kilde om de meget få kort er Moores Law is Dead (YT video link).

    "Whose kitty litter box did I just shit in?"

Viser 15 kommentarer - 136 til 150 (af 790 i alt)
  • Du skal være logget ind for at kommentere på dette indlæg.