Gra­fi­sche kaar­ten met GeFor­ce RTX 2080 en RTX 2080 Ti

Zes gra­fi­sche kaar­ten met Nvi­dia's top­mo­del­len GeFor­ce RTX 2080 en RTX 2080 Ti

C’t Magazine - - Inhoud 11/2018 - Ben­ja­min Kraft

De nieu­we Tu­ring-gpu's la­ten je vloei­end ga­men in 4K en ver­brui­ken min­der ener­gie dan hun voor­gan­gers. Fa­bri­kan­ten als Asus, MSI en Zotac leg­gen elk de na­druk op een an­der as­pect. Maar niet al­le nieu­we toe­ters en bel­len zijn nu al bruik­baar.

Sinds eind sep­tem­ber zijn de GeFor­ce RTX 2080 en RTX 2080 Ti ver­krijg­baar. Bei­de gpu's zijn ge­richt op het high-end seg­ment en moe­ten ga­mes zelfs in 4K (of­te­wel 3840 × 2160 pixels) soe­pel weer­ge­ven. De Ti kan dat zelfs op het hoog­ste de­tail­ni­veau en met in­ge­scha­kel­de an­ti­a­li­a­sing. We heb­ben zes gra­fi­sche kaar­ten met een Tu­ring-chip eens na­der aan de tand ge­voeld. Vier daar­van zijn voor­zien van het 2080 Ti-top­mo­del.

Ze zijn al­le­maal be­hoor­lijk aan de prijs: de goed­koop­ste kaart in de test, de MSI, kost op het mo­ment van schrij­ven nog al­tijd zo'n 860 eu­ro. Dan komt de Gain­ward GeFor­ce RTX 2080 Phoe­nix GS met een prijs van 950 eu­ro, en die wordt op 5 eu­ro na ge­volgd door de Zotac Ga­ming GeFor­ce RTX 2080 Amp Edi­ti­on. Daar­na kom je dan al bo­ven de 1000 eu­ro uit: de Asus ROG Strix RTX 2080 OC zit op on­ge­veer 1050 eu­ro, de Gi­ga­by­te GeFor­ce RTX 2080 Ti Ga­ming OC 11G kost 1300 eu­ro en de duur­ste uit de test is de Asus ROG Strix GeFor­ce RTX 2080 Ti OC van 1400 eu­ro. De kaar­ten zijn in­mid­dels re­de­lijk goed ver­krijg­baar.

Tu­ring

Het klop­pend hart van de GeFor­ce RTX 2080 is de Tu­ring TU104 met zijn 2944 sha­der-co­res. Zo­als al­le Tu­ring-kaar­ten be­vat die twee nieu­we ty­pen exe­cu­ti­on­units: 46 zo­ge­naam­de RT-co­res voor zeer re­a­lis­ti­sche ray­tra­cing-ef­fec­ten in ga­mes, en 368 Ten­sor-co­res die je nog kent van de Vol­ta-ge­ne­ra­tie. Ze zijn ge­schikt voor ma­chi­ne-le­arning en an­de­re toe­pas­sin­gen op het ge­bied van kunst­ma­ti­ge in­tel­li­gen­tie. 8 GB aan GDDR6-ge­heu­gen is ver­bon­den met een 256-bit ge­heu­gen­in­ter­fa­ce. Dat zorgt voor een da­ta­snel­heid van 448 GB/s.

In het GeFor­ce RTX 2080 Ti-top­mo­del zit een TU102 met een chi­pop­per­vlak­te van 754 mm2. De TU102 heeft 4352 sha­der-units, 68 RT-co­res en 544 Ten­sor­co­res. De 11 GB aan GDDR6-ge­heu­gen is

ver­bon­den via 352 da­ta­lij­nen, waar­mee de da­ta dan met 616 GB/s wor­den door­ge­stuurd.

Bei­de gpu's on­der­steu­nen be­hal­ve Di­rect3D fe­a­tu­re-le­vel 12_1 ook de in­ter­fa­ces Vul­kan 1.1.78, OpenGL 4.6 en OpenCL 1.2. Nvi­dia vindt OpenCL 2.0 nog te ex­pe­ri­men­teel.

Aan­slui­tin­gen en mo­ge­lijk­he­den

Al­le Tu­ring-kaar­ten be­schik­ken over vijf dis­playaan­slui­tin­gen. Gain­ward, Gi­ga­by­te, MSI en Zotac stop­pen een HD­MI 2.0b-poort in het af­dek­plaat­je, waar­mee je een 4K-mo­ni­tor op 60 Hz kunt aan­stu­ren. Die kan daar­naast met HDR­con­tent over­weg. Dat kun je met de drie Dis­playPort-aan­slui­tin­gen (1.4a) ook voor el­kaar krij­gen. Die kun­nen via een en­ke­le ka­bel een 8K-scherm met 7680 × 4320 pixels op 60 Hz aan­stu­ren, bij een twee­de (so­wie­so zeer zeld­zaam) scherm houdt het dan ech­ter op. Asus va­ri­eert wat met de aan­slui­tin­gen en wis­selt de der­de Dis­playPort-aan­slui­ting om voor een twee­de HD­MI-poort.

De kaar­ten be­schik­ken al­le­maal over een USB-C-poort, die Nvi­dia to­voegt om daar via Vir­tu­alLink een VR-head­set op aan te slui­ten. Hij geeft niet al­leen een Dis­playPort 1.4-sig­naal door, maar ook tot aan 27 watt aan ener­gie. De aan­slui­ting is ook ge­schikt als pu­re da­tapoort. Bij de test haal­de een PCIe-ssd in een ex­ter­ne be­hui­zing 1 GB/s aan lees- en schrijf­snel­heid.

Push it to the li­mit

Nvi­dia heeft de GeFor­ce RTX 2080 een stan­daard klok­snel­heid van 1515 MHz ge­ge­ven en een boost tot 1710 MHz, de RTX 2080 Ti draait daar­en­te­gen stan­daard op 1350 MHz, waar­bij de boost tot maxi­maal 1545 MHz komt. Om het nog wat ver­war­rend te ma­ken, draait de Foun­ders Edi­ti­on van de kaart, die Nvi­dia zelf aan­biedt, met de boost 90 MHz snel­ler om­dat de­ze stan­daard al over­ge­klokt is. Dat is wel vreemd voor een zo­ge­naam­de 're­fe­ren­tie­kaart'. Dit maakt het voor an­de­re fa­bri­kan­ten erg las­tig om met hun top­mo­del­len bo­ven de Foun­ders Edi­ti­on van Nvi­dia uit te ko­men.

De boost­snel­heid van de mees­te kaar­ten (stan­daard tur­bo) ligt net een paar MHz bo­ven die van de Foun­ders Edi­ti­on. Gain­ward heeft er bij zijn RTX 2080 15 MHz bo­ven­op we­ten te krij­gen, Zotac 30 MHz. Als je meer wilt, moet je dat blijk­baar via soft­wa­re re­ge­len. Asus en Gi­ga­by­te bou­wen daar­om OC-pro­fie­len in hun GPU Tweak II en Gi­ga­by­te Aorus En­gi­ne in.

Dat kun je zelf ech­ter ook voor el­kaar krij­gen. In de nieuw­ste dri­ver zit na­me­lijk een in­ter­fa­ce met de naam OC Scan­ner, waar­mee je – mits je de juis­te soft­wa­re ge­bruikt – au­to­ma­tisch de maxi­ma­le sta­bie­le snel­heid kunt be­pa­len. Tools als MSI's Af­ter­bur­ner en EVGA's Pre­ci­si­on X1 heb­ben de be­no­dig­de op­ties stan­daard. Dat is wel han­dig, maar een meet­ba­re of merk­ba­re ver­be­te­ring merk je daar­bij niet echt. De stan­daard klok­snel­heid is im­mers al be­hoor­lijk hoog.

Per­for­man­ce

Net als bij de eer­de­re exem­pla­ren bie­den de nieu­we kaar­ten even­veel per­for­man­ce als hun voor­gan­ger uit de se­rie daar­voor met een stap­je ho­ger qua mo­del­num­mer. De 3D-per­for­man­ce van de GeFor­ce RTX 2080 (maakt niet uit wel­ke uit­voe­ring) ligt af­han­ke­lijk van het spel op het ni­veau van een GeFor­ce GTX 1080 Ti of net daar­bo­ven.

Als ver­ge­lij­ken­de kaart heb­ben we de Asus ROG Strix 1080 Ti Ga­ming OC ge­bruikt, met de stan­daard tur­bo. Met de Di­rec­tX 11-ga­mes GTA V en Far Cry 5 wa­ren de nieu­we kaar­ten 3 tot 10 pro­cent snel­ler. Bij de Di­rec­tX 12-ti­tel Sha­dow of the Tomb Rai­der lag de winst op maxi­maal 3 pro­cent. Re­ken je dat om naar fra­mes per se­con­de (fps), dan komt dat in het bes­te ge­val neer op 9 fps, maar meest­al slechts 2 of 3.

De syn­the­ti­sche ben­ch­marks ge­ven een wat be­te­re kijk op de ver­schil­len tus­sen de op­een­vol­gen­de ge­ne­ra­ties. De GeFor­ce GTX 1080 Ti ligt bij de Di­rec­tX11-test Fi­re­stri­ke Ex­tre­me (uit de 3DMark-sui­te) zo'n 9 pro­cent voor, ter­wijl bij de Di­rec­tX12-test Ti­me Spy de RTX 2080 net geen 6 pro­cent voor­sprong heeft. Dat laat­ste laat zien dat Nvi­dia de con­text-swit­ching (of­te­wel het wis­se­len tus­sen gra­fi­sche be­re­ke­nin­gen en an­der re­ken­werk) in­mid­dels be­ter voor el­kaar heeft.

De sce­ne LuxBall HDR uit de pa­thtra­cer Lux­mark 3.1 ren­dert een RTX 2080 cir­ca 72 pro­cent snel­ler dan de GTX 1080 Ti. Daar­bij ko­men niet eens RT-co­res om de hoek kij­ken, want daar kan Lux­mark nog niet mee over­weg.

De GeFor­ce RTX 2080 Ti haalt op zijn beurt nieu­we ben­ch­mark­re­cords en stuurt bij ga­mes tus­sen de 16 en 30 fps meer rich­ting het scherm dan de RTX 2080. Dat zorgt er­voor dat hij een ide­a­le kan­di­daat is om te com­bi­ne­ren met een scherm met GSync-tech­niek, dat re­freshra­tes tot 144 Hz aan­kan. Zelfs met 4K haalt hij op het hoog­ste de­tail­ni­veau en met SMAA-an­ti­a­li­a­sing ge­mid­deld de 60 fps die no­dig zijn om ga­mes soe­pel te la­ten draai­en. Bij Lux­mark heeft het nieu­we top­mo­del een rui­me 42 pro­cent voor­sprong op de RTX 2080.

Bij het mi­nen van de di­gi­ta­le munt Et­he­re­um met de mi­ner Clay­mo­re-Du­al 11.9 haal­de de GeFor­ce GTX 1080 Ti van Asus 24,4 Mhash/s bij een ener­gie­ver­bruik van 195 watt. De RTX 2080 van Gain­ward haal­de 36,6 Mhash/s bij 166 watt, en de RTX 2080 Ti hark­te de mun­ten met 58,8 Mhash/s bin­nen – maar had daar wel 278 watt voor no­dig. Bij de Tu­ring-kaar­ten was het ge­heu­gen over­ge­klokt tot 8000 MHz, bij de GTX 1080 Ti tot 5700 MHz.

De con­clu­sie is dan ook dat mi­nen met een Tu­ring-kaart niet lo­nend is. Zelfs met de ge­ste­gen per­for­man­ce bij de RTX-kaar­ten is de da­len­de prijs van Et­he­re­um niet op te van­gen.

NVLink en SLI

Ben je in het ge­luk­ki­ge be­zit van twee stuks GeFor­ce RTX 2080- of RTX 2080 Ti -kaar­ten, dan zijn die via SLI (Sca­la­ble Link In­ter­fa­ce) aan el­kaar te kop­pe­len. Voor de ver­bin­ding wordt NVLInk van de twee­de ge­ne­ra­tie ge­bruikt. Daar heb je dan wel een NVLink-brid­ge à 85 eu­ro voor no­dig.

Af­han­ke­lijk van de ga­me of het pro­gram­ma merk je goed dat je een ex­tra gpu hebt. Een set­je 2080-kaar­ten haal­de in Luxball HDR in Lux­mark 3.1 meer dan 60.500 Rays/s, twee keer zo­veel als met een en­ke­le kaart. Bij 3DMark Ti­me Spy liep de sco­re op van 10.300 naar 17.200 pun­ten. GTA V haal­de met 4K 92 fps in plaats van 56, Far Cry 5 ging van 60 naar 82 en Sha­dow of the Tomb Rai­der ging van 47 naar 84 fps.

Bij la­ge­re re­so­lu­ties maakt het ei­gen­lijk wei­nig tot niets uit dat je meer

ren­der­po­wer tot je be­schik­king hebt, de cpu is dan im­mers de be­per­ken­de fac­tor. As­sas­sin's Creed: Ori­gins had in dat ge­val zelfs last van een min­de­re per­for­man­ce. Bij full-hd zak­te de fra­me­ra­te in van 92 naar 72 fps. Of de groei in per­for­man­ce in ver­hou­ding is met de meer­prijs, waar­bij je be­hal­ve naar de aan­schaf­kos­ten na­tuur­lijk ook naar het ener­gie­ver­bruik moet kij­ken, moet je zelf be­pa­len. Maar feit is wel dat bij veel ga­mes een du­alg­pu set-up ook voor veel pro­ble­men (geen tot slech­te on­der­steu­ning) kan zor­gen. Het is dan vaak slim­mer en be­taal­baar­der om een en­ke­le snel­le­re kaart te ko­pen.

Ray­tra­cing en DLSS

Nvi­dia pre­sen­teer­de bij de in­tro­duc­tie van de nieu­we Tu­ring-gpu's een lijst met ga­mes die ge­bruik kun­nen ma­ken van ray­tra­cing. Die ga­mes zijn nog niet uit of heb­ben pat­ches no­dig om on­der­steu­ning te bie­den. Een an­der ver­eis­te is door Mi­cro­soft al in­ge­wil­ligd: de Di­rec­tX Ray­tra­cing-in­ter­fa­ce is be­schik­baar ge­maakt. Die maakt deel uit van de Win­dows 10-ver­sie Red­s­to­ne 5, waar­van de uit­rol op het mo­ment dat je dit leest als­nog – zij het ver­traagd – op gang moet zijn ge­ko­men.

Een an­der nieu­wig­heid­je is de nieu­we an­ti­a­li­a­sing-op­tie DLSS of­te­wel Deep Le­arning Su­perSam­pling. Die moet ook in het spel zit­ten. Het idee er­ach­ter klinkt heel span­nend: een re­ken­clus­ter ana­ly­seert de ga­me en ont­wik­kelt door­lo­pend een al­go­rit­me dat scè­nes en los­se stills ana­ly­seert en ze er zo smooth mo­ge­lijk uit laat zien. Dat wordt ge­re­geld via de dri­ver, ver­moe­de­lijk via de GeFor­ce Ex­pe­rien­ce, en via de Ten­sor-co­res los­ge­la­ten op de scè­nes. Nvi­dia be­looft dat daar mee een beeld­kwa­li­teit is te ha­len die ge­lijk is aan 64-vou­di­ge TXAA (Tem­po­ral An­ti Ali­a­sing) met een dui­de­lijk veel be­te­re per­for­man­ce. La­ter moet er nog een ge­ne­rie­ke ver­sie ko­men die ook ga­mes zon­der in­ge­bouw­de DLSS mooi­er kan ma­ken.

Tot nu toe zijn er slechts twee spe­ci­aal door Nvi­dia aan­ge­pas­te de­mo's waar­bij je DLSS kunt in­scha­ke­len. Dat zijn de In­fil­tra­tor-de­mo van Epic, die is ge­ba­seerd op Un­re­al En­gi­ne 4, en de de­mo van Fi­nal Fan­ta­sy XV voor het Win­dows­plat­form. We kre­gen voor bei­de een ge­heim­hou­dings­over­een­komst on­der on­ze neus ge­scho­ven, maar die heb­ben we niet on­der­te­kend, dus we heb­ben geen ei­gen in­druk van de per­for­man­ce kun­nen krij­gen. Dat pro­be­ren we als­nog te re­ge­len zo­dra er ti­tels met een DLSS-op­tie te koop zijn.

Le­ren met Tu­ring

Ma­chi­ne-le­arning is met de juis­te tool­kit nu al bruik­baar. Nvi­dia be­looft dat de Ten­sor-co­res ver­ge­le­ken met de voor­gan­gers van de Vol­ta-ge­ne­ra­tie ef­fi­cien­ter zijn. Dat test­ten we al bij de Ti­tan V met de DeepBench van de Chi­ne­se zoek­ma­chi­ne Bai­du. Die com­pi­leer­den we voor de Tu­ring-kaar­ten op­nieuw met ARCH=sm_75. De me­tin­gen van de Tu­rin­gen Pas­cal-kaar­ten wer­den uit­ge­voerd met Ubuntu Li­nux 18.04.1 met een In­tel Co­re i7-6900K met acht ker­nen en 32 GB RAM. Daar­bij wer­den zo­wel CUDA 10 als CuDNN 7.3 ge­bruikt. De re­sul­ta­ten van de Ti­tan V had­den we nog lig­gen uit een eer­de­re test.

De GeFor­ce RTX 2080 is de GTX 1080 Ti te snel af als het gaat om be­re­ke­nin­gen met mi­nif­lo­ats. Voor de trai­nings­ben­ch­mark 'gem­m_­bench train half' had de Pas­cal-kaart 60 keer zo lang no­dig, en voor de in­fe­ren­ce-ben­ch­mark cir­ca 32 keer zo­veel tijd. Bij de con­vo­lu­ties (conv) za­gen we net zul­ke gro­te ver­schil­len. Daar duur­de de trai­nin­gen met Pas­cal on­ge­veer 30 keer zo lang als die met Tu­ring, het toe­pas­sen zelfs 51 keer zo lang. Dat ligt voor­al aan het feit dat Nvi­dia de FP16-per­for­man­ce van de Pas­cal-kaar­ten be­perkt heeft. Bij sin­gle pre­ci­si­on (flo­at) lag dan weer de ene en dan weer de an­de­re kaart zo'n 8 à 10 pro­cent voor.

Ver­ge­le­ken met de Ti­tan V zien we daar ook een ge­mengd beeld. De Vol­ta­kaart haal­de tus­sen de 25 en 27 pro­cent meer GEMM-flo­ats, maar de GeFor­ce RTX 2080 was 38 pro­cent snel­ler bij con­vo­lu­tie­tests met FP32 en 32 pro­cent snel­ler met int8.

De GeFor­ce RTX 2080 Ti over­klast de Vol­ta nog­al en haalt tus­sen de 6 en 55 pro­cent meer dan de Ti­tan V. De in­terTu­ring-ver­ge­lij­king is weer in het voor­deel van de Ti met een ver­ge­lijk­baar ver­schil, al­leen bij con­v_­bench train flo­at, con­v_­bench train half en con­v_­bench in­ter­fe­ren­ce flo­at doet de klei­ne­re kaart het tus­sen de 5 en 25 pro­cent be­ter.

Newspapers in Dutch

Newspapers from Netherlands

© PressReader. All rights reserved.