Z racji tego, iż jakiś czas temu zaopatrzyłem się w nowe GPU oraz CPU, postanowiłem zrobić szybki benchmark na scenerii/stacji, która została wymieniona kilka postów wyżej jako ta z najniższym fps.
Specyfikacja:
CPU: AMD Ryzen 5 5600 (delikatny undervolting)
GPU: AMD Radeon RX 6800 16GB (najnowsze sterowniki z 1. grudnia)
RAM: 32 GB DDR4 3200MHz
SSD: M2 SATA
OS: Win10
EU07: 22.11 (czysta wersja)
Test wykonałem na scenerii Wrzosy, stacja Wolica (wrzosy_roj66582), w fullscreen 2560x1440, wszystkie ustawienia graficzne na ultra/max (screen w załączniku). Po uruchomieniu scenariusza, standardowy widok z kabiny to stałe 40 fps, przy obrotach kamerą na boki można dobić do 50-60 fps.
Obserwacje:
* Na ilość klatek nie ma wpływu rozdzielczość ekranu ani rozdzielczość bufora - zmieniłem z ciekawości na 1080p oba parametry i dalej jak wół 40 fps na widoku startowym - logika podpowiada że to nie jest normalne zachowanie, ale być może jest coś co pominąłem przy teście na szybko.
* Przesuwając suwaki dostępne z poziomu symulatora (F12), tj. pogoda, odbicia, cienie: wybierając bezchmurne niebo, np. latem, fps spadają, a dodając zachmurzenie/opad liczba klatek rośnie; odbicia w stopniu '2' drastycznie obniżają fps - po zmianie poziomu odbić z 2 na 0 uzyskałem blisko 2x więcej fps; odległość cieni nie ma wpływu na fps, lub niedokładnie zweryfikowałem zmianę tego parametru.
* Aberracja chromatyczna działa dziwnie, tj. na całym polu widzenia a nie na krawędziach ekranu - albo ten shader się sypie na kartach AMD, albo implementacja jest dosyć dziwna. Nie ma wpływu na fps.
* Pojawiają się artefakty przy renderowaniu cieni, zwykle tych cienkich - wzajemne przenikanie się z teksturami na które rzutują. Nie testowałem innych ustawień MaSzyny, ale jest ryzyko że karta od czerwonych tu coś psuje.
* FOV nie ma wpływu na wydajność, mimo większego kąta widzenia i obszaru/ilości obiektów do renderowania.
* Rozmywanie/wygładzanie krawędzi wg ustawień symulatora działa kiepsko - migotanie drobnych szczegółów (np. kratownica bramki od sieci trakcyjnej) przypomina to z SimRaila. Wycinek screena w 1:1 z rozdzielczości 1440p w załączniku. W najbliższym czasie spróbuje wykorzystać ustawienia sterowników AMD do wygładzania i dam znać jakie efekty wizualne/wydajnościowe.
Dla porównania, w SimRail Playtest (wersja na dzień 12.12.22) na stacji Sosnowiec, w kabinie Elfa miałem stałe 100 fps, po ostatniej aktualizacji jeszcze nie sprawdzałem.
Ponieważ sam wątek dotyczy kart graficznych a nie stricte benchmarków, dodaję ciekawostkę/subiektywne odczucia: niedawna wymiana sprzętu dotyczyła CPU (Ryzen 3500X), GPU (GTX 960) i RAM (16 GB) - przyznam szczerze, że na potrzeby 1440p@170Hz jak najbardziej było warto i nie żałuję zakupu. Jeśli interesuje kogoś koszt takiego ulepszenia, to łącznie za nowe CPU, GPU i dodatkowy RAM wyszło ok. 3500 zł, przy czym nie sprzedawałem starych podzespołów i posiadałem kupony rabatowe na amazon.pl oraz morele.net, które wykorzystałem na zakup dopiero gdy trafiła się bardzo dobra okazja.
Z uwagi na odświeżanie monitora, w sterownikach AMD ustawiłem fps limit: 172, aby nie obciążać niepotrzebnie karty - chociaż i tak uważam że te 170 fps to też raczej sztuka dla sztuki, bo z racji tego iż różnicę powyżej 100-120 fps realnie już ciężko jest wyczuć, to zmuszanie karty do intensywnej pracy nie ma najmniejszego sensu ekonomicznego. :)
Może nie napiszę niczego odkrywczego, ale może choć do jakiejś części osób uda mi się dotrzeć i oszczędzić im wydatków: podobna sytuacja z 'odczuwanymi wrażeniami' tyczy się również ślepego ustawienia 'wszystko na ultra' i różnej maści wykresów które można znaleźć w internecie - kilkukrotnie przeglądając przed zakupem te wszystkie zestawienia kart, filmy na YT z porównaniami etc., złapałem się na tym, że sugeruję się cyferkami i słupkami, zamiast racjonalnym podejściem - przecież bardzo często jest tak, że między ustawieniami ULTRA a np. WYSOKIMI nie ma znaczącej różnicy w detalach, a i tak im gra bardziej dynamiczna, tym mniej zwracamy uwagę na szczegóły. Morał z tego taki, iż nie należy się sugerować wykresami i tabelkami, bo one przedstawiają typowe benchmarki dla CPU/GPU, a nie reprezentują średni fps przy racjonalnie wyważonych ustawieniach graficznych. Jako przykład mogę podać Doom Eternal, gdzie na starym sprzęcie zmieniając niektóre ustawienia graficzne z Ultra (Nightmare) na Wysokie nie zauważyłem praktycznie żadnej różnicy w wyglądzie, ale za to zyskałem ok. 20-30% fps. Dlatego jestem zdania, że gdy gra nie jest w stanie wyciągnąć np. 60 czy 100 fps (w zależności od potrzeb/monitora), to zanim zaczniemy się napalać na RTX 4090 i szykować się do sprzedaży nerki, warto popróbować z obniżeniem ustawień graficznych - oczywiście bez przesady, nie ma sensu bawić się w 'lowspecgaming' i ustawiać grafikę na poziomie ziemniaka czy minecrafta. ;) Sam do np. MaSzyny nie mam zamiaru zostawiać tych ustawień które wykorzystałem do powyższych testów - po zakończonej zabawie w porównywanie wydajności na pewno zjadę z parametrami w dół.
Odpalałem również na szybko tytuły sprzed 4-5 lat w ustawieniach na ultra (na potrzeby testowania i porównywania wydajności z poprzednim sprzętem) i obecnie mój zestaw wyciąga w średnio-starszych tytułach spokojnie >150 fps, o ile sama optymalizacja gry na PC nie jest zepsuta. W najbliższych miesiącach mam zamiar bardziej intensywnie zweryfikować możliwości tej karty (przez zakup/uruchomienie gier które odkładałem 'na później' z racji posiadania słabego sprzętu), a także chcę przetestować technologię RSR/FSR (której btw. w MaSzynie nie udało mi się uruchomić), i jeśli nie będzie widocznych spadków poniżej ~100 fps przy racjonalnie dopasowanych ustawieniach graficznych (pomijam tytuły typu MSFS2020), to będę mógł polecić tę kartę każdemu 'przeciętnemu' graczowi do 1440p, ale w tej kwestii dam znać za jakiś czas - o ile rynek GPU nie wywróci się do góry nogami. :)
Za wszystkie błędy w tekście przepraszam, barbarzyńska godzina.