Skip to main content

Subiektywnie o AMD RX 7xxx

Czy ostatnia seria kart graficznych od AMD jest udana?

Tak i nie. Od dawna nie było tak skomplikowanej sytuacji na rynku kart graficznych. To czy seria kart rx 7xxx jest udana czy nie, zależy od naszych preferencji. Niestety też, moje spekulacje skłaniają się lekko w stronę tej drugiej odpowiedzi (w sensie, że nie jest udana) i widać już tego pewne symptomy.

Co jakiś czas, w świecie grafiki w grach pojawia się nowość, która oferuje duży skok w jakości. Równolegle oprócz tego, mamy pewne małe ewolucyjne zmiany, które systematycznie z roku na rok sprawiają, że grafika wygląda coraz lepiej i przybliża nas do odmienianego przez wszystkie przypadki fotorealizmu.

Ostatnim, takim dużym skokiem jest ray-tracing oraz path-tracing. I przyznam, że obie te techniki naprawdę robią piorunujące wrażenie. Dawno nie doświadczyliśmy tak dużego skoku jakości.

Jeżeli się nie mylę, to w historii rozwoju grafiki w grach można wyróżnić na pewno kilka takich rewolucji:

  1. Akceleracja renderingu 3d ogólnie – czyli pojawienie się akceleratorów 3dfx Voodoo (końcówka lat 90tych XX wieku?), spowodowało, że gry mogły mieć wreszcie dużo bardziej złożone modele obiektów 3d, wyższą rozdzielczość, rozmycie tekstur, czy tekstury nakładane na obiekty w ogóle.
  2. Shadery – technika cieniowania w grach. Pamiętam, że dodanie technik shaderingu w grach powodowało opad szczęki 🙂
  3. Directx 10 – może nie jest rewolucją samą w sobie, ale uwolniło moc obliczeniową procesorów i kart graficznych. Skutkiem tego, było pojawienie się gier znowu z bardziej złożonymi obiektami, teksturami wyższej rozdzielczości itd itd.
  4. Directx 12, Vulcan – nowe API dla silników graficznych, znowu ograniczający narzut na procesory i karty graficzne
  5. Ray Tracing – Path Tracing

Tutaj wyróżniamy tak jakby 2 poziomy renderingu: tzw. zwykła rasteryzacja oraz ray-tracing/path-tracing.

Czy karty AMD rx 7xxx to dobre karty?

Tak. W tzw. standardowej rasteryzacji, górują nad aktualną generacją GeForców z serii GTX 4xxx. Bardzo często w danym przedziale cenowym, gdy porównamy np. RX 7600 z GTX 4060, to ten pierwszy będzie tańszy i szybszy (RX 7600 da się już znaleźć za kwoty ok 1200-1300 zł i będzie o ok 10-20% szybszy od droższego GTX 4060, którego ceny raczej oscylują w okolicach 1500zł. Geforce nie dość, że jest wolniejszy to jeszcze droższy).

Top of the top kart graficznych jest tu GTX 4090, ale ich cena, gabaryt i zapotrzebowanie na energię są absurdalne (ceny 10tyś zł, 500W poboru energii, co za tym idzie proporcjonalny układ chłodzenia, są to wartości absurdalne). Oczywiście jej wydajność robi ogromne wrażenie, podobnie jak cena, czy pobór energii. Jest to uzasadnione tym, że jest to układ na ten moment: best of the best, więc Nvidia może na taką ekstrawagancję sobie pozwolić. Co prawda np. RX 7900 XTX ( czyli top of the top od AMD) raczej nawiązuje do tańszego GTX 4080 nż 4090, ale już teraz najlepsze radeony można znaleźć w cenach 4300+zł o wydajności porównywalnej lub lepszej od GTX 4080 (tutaj ceny zaczynają się od 5000-6000+zł) – tak to wygląda.

Wspomniana różnica w wydajności (na korzyść AMD w danej cenie) dotyczy niestety, ale tylko tzw. zwykłej rasteryzacji, bez ray tracingu.

Czy karty AMD rx 7xxx to złe karty?

Niestety tak. Dużo zależy, od tego w jakm stopniu dana gra wykorzystuje wspomniany ray-tracing, i czy wykorzystuje technikę path-tracingu. Wszędzie tam, gdzie pojawia się ray-tracing, radeony dostają po … 4 literach i to bardzo mocno. Proporcje w wydajności całkowicie się odwracają. Np. w Spider-Man: Miles Morales, różnica między RX 7600 a GTX 4060 wynosi prawie 50-70% na korzyść geforce’a. W przypadku tej półki cenowej – jest to różnica typu: ledwo grywalny (okolice 30 kl/sek) a spokojnie grywalny (ok 55 kl/sek)

Prawdziwa „rzeź” zaczyna się w tytułach, które wkorzystują ray-tracing na dużą skalę. Jak narazie znam 2 takie tytuły: CyberPunk 2077 z patchem 2.0 oraz Alan Wake 2. w Cyberpunku gtx 4060 jest na poziomie duużo droższego (w zależności czy jest w promocji czy nie pułap 2200-2600zł) RX 7800XT. W przypadku Alana, jedynie topowy RX 7900 XTX (karta za ponad 4000zł) jest w stanie pokonać 4060 (aczkolwiek w jednym i drugim przypadku, można zapomnieć o graniu. wydajność na poziomie 15kl/sek kontra 19kl/sek, w obu przypadkach jest to pokaz slajdów).

Cyberpunk potrafi też wykorzystać path-tracing… ale tu chyba nie będę kopać leżącego.

Upłynniacze gry

Nvidia oprócz promowania ray-tracingu kładzie duży nacisk na techniki upłynniające grę, które nie wymagają od GPU pełnoklatkowego renderingu. W dużym uproszczeniu jest to: rendering w niższej rozdzielczości i skalowania grafiki do rozdzielczości, w której gracz gra oraz „wstawiania” pomiędzy wyrenderowane klatki, tzw. klatek pośrednich, które nie wynikają bezpośrednio z akcji gry, a są rodzajem interpolacji (uśrednienia) zmiany w obrazie między „normalnymi” klatkami. W przypadku tej drugiej techniki (potwierdzają to testerzy) niestety wiąże się ze zwiększeniem opóźnienia reakcji gry na akcję gracza, gdyż karta potrzebuje 2 wyrenderowanych klatek, aby dołożyć tą „trzecią”.

Różnice w płynności są jednak piorunujące. GTX 4060 w Alan Wake 2, który ledwo „zipie” w pełnoskalowym renderingu w okolicach 15kl/ sek, tak z technikami DLSS oraz FG (Frame Generation), uzyskujemy 45kl/sek, co z powrotem daje nam w pełni grywalną grę.

Oczywiście AMD rozwija swoje konkurencyjne odpowiedniki tych technik. Reklamuje, że ich FSR (konkurencja dla DLSS i FG) może być uruchamiany nie tylko na kartach AMD ale także, na starszych kartach konkurencji i ma oferować lepsze rezultaty.

Ale jeżeli w „pełnym” renderingu rxy mogą być około 4-5 razy wolniejsze od gtxów, to nawet jakby AMD było w stanie z pomocą FSR 3 nadrobić 300% straty w wydajności (czyli DLSS + FG), to i tak nie zpowoduje tego, że nagle Alan Wake 2 stanie się grywalny na kartach AMD dowolnej generacji.

Co w 2024 roku?

W styczniu lada moment, powinny ujrzeć światło dzienne ewolucyjnie poprawione karty od Nvidii z dopiskiem Super w nazwie. Już widać, że wywołało to obniżkę cen radeonów. W przypadku AMD jednak potrzebna tu jest jakaś rewolucja w architekturze, która pozwoli nawiązać rywalizację z Nvidią w ray/path tracingu. 2024 na pewno coraz mocniej będzie akcentował te techniki. Jest to technika na tyle przełomowa, że gamingowe korporacje na pewno tego tematu nie odpuszczą, a przy okazji napędzi sprzedaż geforców (mamy dla korporacji sytuację: win-win, wygrywa Nvidia, wygrywa wydawca, płaci klient).

Można się spodziewać, że w ciągu roku (trudno powiedzieć dzisiaj kiedy. Pojawiły się dopiero jakieś bardzo wczesne zapowiedzi, ale bez konkretów), albo na początku przyszłego AMD zaprezentuje nową generację radeonów, która miejmy nadzieję pokaże Nvidii jak robi się prawdziwy ray-tracing ;-).

Gdybym ja miałbym wybierać, to zdecydowałbym się na … kartę o wydajności GTX 4070 w lepszej niż teraz cenie. Jeżeli nie stanie się jakaś katastrofa, która wywróci trendy rynkowe do góry nogami, powinniśmy obserwować co prawda powolny, ale jednak spadek cen kart graficznych. Żeby mainstreamowy GTX 4060 kosztował 1500zł? Maksymalna cena powinna oscylować w okolicy 1000zł 🙂

P.S.

PS 5 i Xbox Series X też mają ray-tracing, mają GPU od AMD i takiej tragedii w wydajności nie ma! Czyli da się zoptymalizować te tytuły pod AMD, a tylko złośliwi wydawcy, wypuszczają niezoptymalizowane wersje alfa/beta na PC? Magia?

Niestety nie ma żadnej magii ani hiperoptymalizacji pod konsole. To jest ten sam kod źródłowy gry, te same silniki graficzne. W Playstation 5 i Xbox Series X mamy odpowiedniki GPU w architekturze RDNA 2 (czyli seria radeonów RX 6600XT +/-). Obcinane są detale + upscaling + frame generation. Analizy różnic w grafice pomiędzy np PS 5 a PC na różnych poziomach detali (low/medium/high/ultra, ray-tracing, szczególnie polecam przyjrzenie się artykułom z purePc, gdzie bardzo szczegółowo są omówione różnice w grafice różnych gier, konsole kontra PC) pokazują, że grafika w grze na Playstation 5 jest gorsza lub dużo gorsza niż na PC nawet na niższych ustawieniach. Poziom detali jest tak dobierany, aby konsola renderowała grafikę ze stałą prędkością klatek na sekundę. Nie są to ustawienia, które na PC będą dostępne. Mogą pojawić się różnice w ilości renderowanych obiektów w tle (takich jak, trawa, liście, itd.), tekstury niższej rozdzielczości, cienie gorszej jakości, itd.

P.S. 2

Co jakiś czas czytam w komentarzach pod recenzjami, czy artykułach porównujących wydajność kart graficznych w grach, utyskiwanie na poziom optymalizacji. „Kiedyś to było, teraz już nie ma”. Kiedyś optymalizowali, teraz nie optymalizują. Porównywanie sposobu tworzenia gier 20/30 lat temu, do tego co jest teraz jest absurdalne :). Nawet wielka korporacja jak Electronic Arts, Microsoft, Epic nie ma takich zasobów, aby wydawać potężne pieniądze na optymalizacje 1 czy kilku tytułów. Tytuły wychodzą na można powiedzieć „gotowych” silnikach graficznych, na wiele platform (PC, PS5, Xbox, Switch, Android, itd.). Silniki graficzne, rozwijane są czasami przy okazji nowej gry, ale z myślą jego wielokrotnego wykorzystania w przeróżnych tytułach i udostępniania licencji innym producentom, więc jest raczej „optymalizowany” pod kątem uniwersalności, niż wydajności 1 tylko tytułu.

Poza tym, silniki graficzne rozwijane są latami, latami! Kolejne nowe wersje opierają się na tym, co zostało zrobione w poprzednich wersjach. Oczywiście może być tak, że jakiś element (niech będzie np ray-tracing), zostanie całkowicie przebudowany, żeby był np. szybszy (czytaj: ten sam cpu, gpu – potrafi wyrenderować więcej klatek na sekundę), albo oferował szersze jego wykorzystanie, ale to już nie będzie tak, że nowa wersja silnika jest w całości zaprojektowana od zera – jest to niemożliwe w rozsądnym czasie.