Skip to main content

Recenzja GeForce RTX 2080 i RTX 2080 Ti

Jak szybkie są nowe karty Nvidii?

Nvidia potrzebowała aż dziesięciu lat, aby dopracować technologię Raytracingu w czasie rzeczywistym, którą możemy znaleźć w nowych kartach GeForce RTX. Niestety, recenzenci otrzymali zaledwie pięć dni na sprawdzenie, czy to faktycznie sprzęt graficzny nowej generacji. Na początku pokażemy więc oferowany przez nowe karty Nvidii potężny skok mocy obliczeniowej w stosunku do poprzedniczek.

Nakreślimy również, co może zaoferować w aspekcie zupełnie nowych funkcji architektura Turinga, ale będą to wyłącznie przypuszczenia - obsługuje bowiem ona technologię Raytracingu w czasie rzeczywistym oraz potencjalnie przełomowe techniki poprawiające wydajność rekonstrukcji obrazów - ale w tej chwili nie ma na rynku żadnej gry, która by z nich korzystała.

W tym artykule testujemy karty w wersji Founder's Edition, w których Nvidia odeszła od tradycyjnych konstrukcji dmuchaw na rzecz rozwiązań termicznych, podobnych do tego, co widzieliśmy w produktach innych firm. Podwójne wentylatory osiowe wdmuchują powietrze do wnętrza obudowy, a nie na jej tył, podczas gdy pracują o wiele ciszej niż w starszych kartach.

Nie miałem zbyt wiele czasu na dokładne przyjrzenie się temperaturom, ale najwyższa jaką zauważyłem to 78 stopni Celsjusza na Ti - do tej pory nie widziałem, aby którykolwiek z testowanych produktów zbliżył się do granicy 83 stopni, która zwykle inicjuje intensywniejszą pracę chłodzenia.

Zarówno przy RTX 2080 jak i RTX 2080 Ti wyraźnie wyczuwalny jest standard wysokiej jakości, odpowiednia waga oraz masa - obie wersje mają praktycznie identyczną obudowę, a jedyna zauważalna różnica sprowadza się do wtyczki PCIe 8x8 w konfiguracji Ti, podczas gdy w standardowej wersji RTX 2080 znajdziemy układ 8x16. Wejścia dla wyświetlacza są naturalną ewolucją tego, co widzieliśmy w GTX 1080 Ti. Po raz kolejny wejście DVI zostało skazane na zapomnienie, ale pozostawiono port HDMI 2.0.

Znajdziemy tu również, poza USB-C, trzy wejścia DisplayPort z VirtualLink - jest to nowy protokół zaprojektowany w celu redukcji koszmaru związanego z okablowaniem zestawów VR - ogranicza go do jednego, łatwego w obsłudze kabla. Za dodatkowe pieniądze możemy zamówić edycję Pascal Founder's. Tym razem dodatkowo wydane pieniądze idą w parze z jakością obudowy, a Nvidia dodaje do tego rozsądnie wykonany overclocking.

Recenzja GeForce RTX 2080 i 2080 TiZobacz na YouTube
RTX 2080 Ti RTX 2080 GTX 1080 Ti GTX 1080
Rdzenie CUDA 4352 2944 3584 2560
VRAM 11GB GDDR6 8GB GDDR6 11GB GDDR5X 8GB GDDR5X
Magistrala pamięci 352-bit 256-bit 352-bit 256-bit
Przepustowość 616GB/s 448GB/s 484GB/s 352GB/s
Taktowanie 1350MHz 1515MHz 1480MHz 1607MHz
Taktowanie podkręcone 1545MHz 1710MHz 1582MHz 1733MHz
TDP 250W 215W 250W 180W
Rozmiar procesora 754mm2 545mm2 471mm2 314mm2

Na poziomie fizycznym, Turing reprezentuje ryzykowną zagrywkę ze strony Nvidii. Technologia Raytracingu w czasie rzeczywistym oraz głęboko uczące się tensorowe rdzenie (deep-learning tensor cores) znacząco przyczyniły się do zwiększenia rozmiarów samego procesora, co przekłada się na znacznie wyższe koszty produkcyjne. Procesor TU102 znajdujący się w topowym RTX 2080 Ti jest o 60 procent większy niż jego poprzednik, podczas gdy procesor TU104 z RTX 2080 notuje zauważalne, 74-procentowe zwiększenie rozmiaru.

Połączenie tego z pamięcią GDDR6 najnowszej generacji - nie wspominając już o całkowitym braku konkurencji na rynku - tłumaczy wysoką cenę układów. RTX 2080 kosztuje więcej niż GTX 1080 Ti, podczas gdy cena RTX 2080 Ti jest bliższa terytorium cenowego Titana. Wraz ze zbliżającymi się znacznymi obniżkami GTX 1080 Ti, związanymi z opróżnianiem magazynów przez sprzedawców detalicznych, wielu zapewne skusi się na starszą technologię.

Jakie znaczenie mają kluczowe cechy Turinga? Raytracing w czasie rzeczywistym jest uznawany za świętego Graala renderingu 3D. W tym aspekcie byliśmy świadkami niezwykle udanych testów na RTX 2080 Ti, jednak istnieje spora liczba zastrzeżeń, które musimy uwzględnić. Po pierwsze, obecnie nie znajdziemy odpowiedniego oprogramowania, które by z tego korzystało.

Powinniśmy jednak oczekiwać, że Battlefield 5 zostanie pierwszą wielką wizytówką nowych układów - to co widzieliśmy do tej pory w aspekcie odbić w czasie rzeczywistym w tej grze jest naprawdę pięknie i zdecydowanie odbiega od różnych osiągnięć w tej dziedzinie z przeszłości. Kolejną wizytówką może zostać gra studia A4 Games, Metro Exodus, która pokazuje, w jaki sposób raytracing może zrewolucjonizować globalne oświetlenie.

Podczas rozważań trzeba zrozumieć trzy, kluczowe w obecnej chwili aspekty. Po pierwsze, deweloperzy mieli ograniczony dostęp do finalnej wersji sprzętu Turinga - twórcy Battlefield 5, podczas pracy nad demonstracją z Gamescomu, mogli skorzystać z finalnej wersji sprzętu dopiero na dwa tygodnie przed targami - i większość procesu została wykonana na starszych kartach opartych na architekturze Volta.

Krótko mówiąc, jesteśmy dopiero na początku drogi. Po drugie, jest problem z optymalizacją. Battlefield 5 na topowej karcie RTX 2080 Ti przy włączonym raytracingu ma kłopot z utrzymaniem stabilnej liczby 60 klatek na sekundę przy rozdzielczości 1080p. Jeżeli wydasz ponad 5000 zł na kartę graficzną, wystarczy ci rozdzielczość FullHD?

Podobną sytuację obserwujemy przy demie Metro Exodus, którego wydajność również spada poniżej 1080p60. Optymalizacja z pewnością nastąpi, a Turing ma na pewno kilka asów w rękawie, które pomogą w wykonaniu tej pracy - lecz wymaga to czasu. Bierzemy też pod uwagę, że wszystko, co do tej pory widzieliśmy w aspekcie gier, działało na RTX 2080 Ti. Tak więc gdzie stawia to mniej sprawne RTX 2080 i RTX 2070? W tej chwili tego nie wiemy.

Wstępne spojrzenie na raytracing w Battlefield 5Zobacz na YouTube

Możemy jednak spekulować. Obecnie Battlefield 5 i Metro Exodus łączą raytracing w czasie rzeczywistym z rozdzielczością natywną. Przynajmniej w teorii można to wykonać w taki sam sposób, jak niektóre tytuły radzą sobie z efektami przezroczystości - w celu zaoszczędzenia przepustowości, efekty są uruchamiane w rozdzielczości o połowę mniejszej.

Kolejnym potencjalnym kierunkiem jest rekonstrukcja obrazu odbitego dzięki raytracingowi w wyższej rozdzielczości - i właśnie w tym aspekcie inne funkcje Turinga mogą okazać się bezcenne. Głębokie uczenie superpróbkowania Nvidii - w skrócie DLSS (Deep Learning Super-Sampling) - zostało już wykorzystane w demonstracji Star Wars Reflections. Przy pomocy tej techniki udało się zwiększyć początkową rozdzielczość 1080p, oryginalnie osiąganej jedynie dzięki jednoczesnemu działaniu czterech kart w architekturze Volta, do 4K na pojedynczym RTX 2080 Ti, w 24 klatach.

Architektura Turinga jest tak przyszłościowa, że zawiera funkcje, z których nikt jeszcze nie zaczął korzystać. Weźmy na przykład, cieniowanie siatki. Zasadniczo, architektura radykalnie optymalizuje selekcje LOD i teselację, oferując dzięki temu potencjalnie ogromne korzyści. Widzieliśmy demo, ale niestety to na razie wszystko - niemniej sprzęt już istnieje, więc mamy ogromną nadzieję, że technika zostanie wykorzystana w przyszłych grach.

Następną ciekawą funkcją jest cieniowanie o zmiennej częstotliwości (Variable Rate Shading), która w teorii dostosowuje jakość cieniowania na podstawie rozdzielczości oraz poziomu i znaczenia szczegółów. Technologię widzieliśmy przy okazji demonstracji Wolfenstein 2 i musimy przyznać, że wygląda ona imponująco, a zarazem widocznie zwiększa wydajność - w granicach 15-20 procent. Niestety, tej demonstracji nie mogliśmy głębiej przeanalizować.

W drugiej części artykułu przyjrzymy się bliżej szczególnie jednej funkcji - głębokiemu uczeniu superpróbkowania (DLSS). Trzeba pamiętać, że ta technika nie jest obecnie wykorzystywana w żadnej grze, ale mamy dostęp do dwóch demonstracji, które pokazują, że może to być rzeczywisty przełom.

Analiza GeForce RTX 2080 / RTX 2080 Ti