
Nvidias Blackwell-plattform er, ikke overraskende, spekket med spennende nye teknologier og måter å gjøre ting på. Denne gangen ser vi på grafikkortet Nvidia RTX 5090, der brikken bak har det ekstremt fengende navnet GB202.
Vi skal ikke gå gjennom alt med en finkam, for det ville gjøre denne anmeldelsen 10 sider lang. Nvidia har valgt å fokusere mer på AI, da vi allerede er nede i så små størrelser når det gjelder maskinvare at det er problematisk å presse ting videre. På disse nivåene er Diminishing Return et alvorlig problem. Helst skulle jeg faktisk gått gjennom hele greia, for det er teknologisk ekstremt imponerende, men for alle andre enn ultra-hardcore teknologi-nerder er det også bare tullprat, men imponerende likevel.
La oss starte med designet. Nvidia har beholdt sin sterkt industrielle og funksjonsbaserte design, som jeg elsker, og har nå gått over til en dual-blow-through-design. Det vil si et kretskort med brikken i midten og symmetrisk plasserte kjølerør på hver side, hver med sin egen vifte som trekker luft gjennom kortet. Det virker som en mer logisk måte å gjøre det på, og det er litt vanskelig å forstå de mange mellomtrinnene mellom denne løsningen og det gamle designet.
Det betyr også at kortet nå er et tradisjonelt 2-slot-design, noe som har hjulpet enormt på størrelsen. Dessverre er det fortsatt over 30 centimeter langt, noe som etter min mening fortsatt er for mye. Nvidia har til og med hevdet at denne Founder's Edition kan passe inn i små SFF-kabinetter som vanligvis er 33-35 centimeter, men jeg ville ikke prøvd det selv.
I tillegg strekker ikke strømkontakten seg vinkelrett ut fra kortet, men er vinklet og stikker dermed betydelig mindre ut enn tidligere. En ny strømadapter har blitt designet med mye mer fleksible kabler som ikke er flettet eller ekstremt stive, noe som også hjelper. Apropos adaptere, jeg anbefaler en dedikert ledning hvis du har en. Den oppmerksomme leser vil se at det nå ikke finnes tre, men fire tilkoblinger for 8-pinners strømkabler. Den gode nyheten er at hvis du bruker de riktige kontaktene, kan du faktisk klare deg med tre, men du mister litt ytelse, men vanligvis bare 10-15 %. Den dårlige nyheten er at du trenger alle fire for å få full valuta for pengene, noe som resulterer i at 575,8 watt trekkes gjennom systemet. Fy søren. Det er bra at moderne prosessorer har blitt mer energieffektive, for det er mye strøm. GPU-en kjører litt over de lovede 2407 MHz, og det samme gjelder RAM-hastigheten, som offisielt ligger på 2209 MHz.
Men tilbake til det interne. Vi er nå oppe i 32 GB GDDR7 VRAM i beistet. Det er vanvittig. En 4nm TSMC-produksjonsplattform, over 92 milliarder transistorer og PCIe 5.0-tilkobling kommer faktisk inn i bildet. Vi oppnådde en VRAM-båndbredde på 1,79 TB/s. På toppen av det hele får du 21 769 Shading Units (aka Stream Processors - det er de som gjør mesteparten av jobben, grovt sett) - som nå støtter Neural Shading og dermed generativ AI ned til dette nivået. Teoretisk sett muliggjør dette sanntidsgrafikk av blant annet ansikter med et mye høyere nivå av lys, skygger og refleksjoner enn tidligere, og realismen i grafikken bør øke betraktelig hvis spillutviklere kan allokere ressurser til å utnytte det. Det er mye annet innmari, men for de fleste vil det mest relevante være at det er 170 Ray-Tracing kjerner og 680 Tensor kjerner i den nyeste generasjonen, med disse ansvarlige for alt relatert til oppskalering og Deep Learning.
Utgangene inkluderer en HDMI 2.1b og tre DisplayPort 2.1b. Det er litt rart at HDMI-porten ikke er 2.2 når man lanserer noe med en DisplayPort-standard som er så ny at jeg ikke umiddelbart kan finne noe annet som har den, kanskje fordi standarden teknisk sett ikke er ferdig ennå. Det er også støtte for 4K/480 Hz eller 8K/165 Hz med noe komprimering. Det kommer nok til å bite meg i ræva, men 4K ved 240 Hz burde være nok for selv den mest krevende spilleren, selv om det nok vil være esport-spillere som vil ha mer av alt.
Hvis vi skal trekke frem én ting spesielt, bortsett fra at de som bruker GeForce-grafikkort til profesjonelt bruk sannsynligvis vil ønske å kjøpe et, fordi de har oppgradert ikke bare prosessorkraften, men også kodingen og dekodingen dramatisk, så er det DLSS 4. De har gått over til en helt ny måte å oppskalere på og har gått over til den såkalte Transformer -modellen, som i praksis betyr mye mindre ghosting og langt færre artefakter. Jeg vil faktisk gå så langt som å si at DLSS 4 er et stort skritt fremover. Så er det den mer kontroversielle delen, nemlig Multi Frame Generation. Der vi tidligere fikk ett kunstig bilde mellom to "ekte", får vi nå opptil tre. Dette har fått mange til å kritisere de "falske" bildene, men det man kanskje glemmer, er at den nyeste generasjonen grafikkort gjør at mye mer kan gjøres i grafikkortet og ikke i selve prosessoren i datamaskinen.
Mer av grafikken i moderne spill vil også bli generert direkte i spillet i stedet for å være et eksisterende datasett som det skal beregnes på. Dette krever mye datakraft, men forsinkelsene minimeres med Reflex 2 -systemet. Vi må imidlertid venne oss til en helt annen måte å tenke grafikkgenerering på, spesielt med de mange kravene til lys og skygger, og det faktum at grafikkortet tenker mer på egen hånd. Vi kommer fortsatt til å vise benchmarks med native resultater, uten noe voodoo slått på.
Før vi kommer til det, må vi få én ting på det rene: prisen. En toppmodell som den vi har lånt her, er ikke billig. Den koster £1,939/$1,999, og kortene du kan kjøpe i butikker som ikke er laget av Nvidia, vil sannsynligvis koste mer. Det er en skremmende og vanvittig pris som også tydelig indikerer at dette kortet ikke er ment for vanlige forbrukere, noe som er ironisk ettersom det er rettet mot de som spiller i 4K på raske skjermer med 200+ Hz oppdateringsfrekvens. Litt morsommere blir det med RTX 5080-kortet, som "bare" koster £979/$999, og de to enda billigere RTX 5070-kortene (rundt £539/$549). De har kanskje ikke helt den samme 4K-kapasiteten, men du får alt det gode fra RTX 50 Series til en pris der mange flere plutselig kan være med, relativt sett. Men en prisøkning på noen hundre pund fra RTX 4090 på mindre enn halvannet år kan ikke unnskyldes med inflasjon eller noe annet, det er bare ren galskap. Men kjøpere for Nvidias XX90-kort har heller aldri vært som resten av oss.
Og nå til den morsomme delen: benchmarks. Vi prøvde å få dem riktig så mye som mulig med driverne som var tilgjengelige, på en X870E-plattform, og med alt som kjører på en PCIe 5.0-plattform for både drivere og grafikkort.
Varmeavgivelsen var ganske overraskende: den går på tomgang ved 48 grader celsius, makser ut ved 72 grader celsius, men mesteparten av tiden holdt den seg på 63 grader celsius. Det skal også sies at testbenken er designet for maksimal luftstrøm, men det er imponerende uansett. Støyen lå på 41,5 dB, men er ekstremt lavfrekvent. Ingen snerring fra spolen, ingen støy fra viftebladene eller, verst av alt, luftturbulens. Så det er en godt utført jobb.
Ytelsen - som med DLSS 4 er dobbelt så høy som for RTX 4090 - er fortsatt ganske imponerende i rå prosessorkraft. Det er dobbelt så høy ytelse som RTX 4080 Super og i noen tester enda mer. Det finnes også nye og enda villere Ray-Tracing -moduser for flere spill, men siden vi ikke kunne samle inn data om disse med eldre kort, er de ikke tatt med.
Her ser vi en massiv forbedring på de fleste områder, med Port Royal som en forbedring på 50 % fra RTX 4090.
V-Ray 6 er et renderingsprogram som har et solid referanseverktøy og en egen modus for flere typer rendering for både CPU og GPU. Resultatet er tre ganger så høyt som et RTX 4080 Super, men langt fra verdensrekorden som ble satt av 15x RTX 4090. Ja, det er for profesjonell bruk. Black Myth: Wukong har et fint referanseverktøy som virkelig viser hva det er verdt: 4K, alt på maksimum, det gir 32 FPS. 56 med Frame Generation. Vi kommer til å bruke denne referanseindeksen i lang tid. Og så for spill!
Total War bruker fortsatt ingen hjelpeteknologi og er tøff mot CPU og GPU, men tilbyr likevel en forbedring på 60 % sammenlignet med RTX 4090.
Både Assassin's Creed og Far Cry 6 viser dessverre sin alder, det skal fortsatt mye til for å få det til i 4K, men for resten spiller det egentlig ingen rolle.
Til tross for at DLSS 3 gjør en betydelig forskjell her, er det det faktum at den kan kjøre med nesten 100 FPS som du bør merke deg. Dette er en test som dessverre ofte krasjer mange grafikkort, og selv dyre modeller kommer sjelden over 50 FPS.
Her var en virkelig vellykket implementering av DLSS 4. Ingen artefakter, merkelige glitches, ghosting eller noe annet, det var praktisk talt umulig å se forskjell på native og Frame Generation.
I mellomtiden har vi :
Her var det også en ekstremt vellykket integrasjon der det var praktisk talt umulig å se forskjell på native og Multi Frame Generation.
Så, her kommer det store spørsmålet: bør du kjøpe en? Det er litt komplisert. DLSS 4 er litt av en game changer. Hvis du leker deg med kvalitetsinnstillinger, er du kanskje allerede kjent med Ray Reconstruction og DLAA, men overgangen til Transformer -modellen ved oppskalering, dvs. ved bruk av DLSS, er veldig synlig. Hvis du er rimelig fornøyd med RTX 40 Series -kortet ditt, er det kanskje ikke så mye vits i å bytte, spesielt siden ryktet sier at det vil være opptil 10 % ytelsesforbedring bare ved å bytte til dette (igjen et rykte) for RTX 40 Series -kort.
Derimot er Multi Frame Generation bare tilgjengelig på RTX 50 Series, og det ser ut til å fungere imponerende bra, spesielt når det kombineres med et kort som er kraftig nok til å trekke alt i 4K native, noe det burde for prisen. Dessverre er prisen sannsynligvis mitt største problem. Hvis de hadde hevet prisen litt eller holdt den rundt samme nivå, ville jeg vært fornøyd, men en økning på nesten 20% er for mye. Selv om den er mye kraftigere enn forgjengeren, for det forventer man jo med den absolutte flaggskipmodellen.
På den annen side, hvis du har et eldre kort, for eksempel RTX 3090, så ja, du bør sannsynligvis oppgradere hvis du vil spille i 4K. Flere og flere av spillene vi ser på her på Gamereactor er dårlig optimalisert og utrolig dårlig tilpasset PC-en, så det må være mye hestekrefter tilgjengelig hele tiden. Nvidia skal imidlertid ha ros for å ha lyttet til kritikken og laget en bedre strømtilkobling og et mindre kort. Men fire 8-pinners tilkoblinger? Det er fortsatt helt uvirkelig å se på.