W nowych grach raczej nie da się nie używać upscalingu. Po pierwsze dlatego, że optymalizacja już nie istnieje. A po drugie dlatego, że większość nowych gier ma włączone domyślnie TAA (to jest ten "natywny" obraz) i włączenie upscalingu po prostu poprawia obraz względem TAA. Co by dużo nie mówić upscaling jest teraz najlepszą metodą AA w nowych grach. Niestety.
Ja osobiście to bym wolał aby deweloperzy nie byli tak leniwi jak są i zaczęli optymalizować gry i je dopracowywać, a nie day one patche ważące 100 GB.
@@emilos2495 nie zaczną bo nie wynika to z lenistwa ale z cięcia kosztów. Teraz finansiści i działy finansowe projektują gry. 90% deweloperów nie używa oświetlenia dostosowanego do danego typu gry, tylko domyślnych narzędzi z UE5, te pozostałe 10% to studia które używają własnego silnika.
Nie gram praktycznie w żadne nowsze gry i nie korzystam z tych technologii xD One miały pomagać wyciągać słaby sprzęt za uszy a twórcy gier zrobili sobie z nich powód do braku optymalizowanie gier.
@@NeoMartel podczas szybszej rozgrywki nawet się tego nie zauważa no chyba, że ktoś musi mieć krystalicznie czysty obraz na najwyższych możliwych ustawieniach to wtedy już może to zauważać, mi natomiast to nie przeszkadza i przeszedłem całego cyberpunka mając włączone FSR kiedy moja poprzednia karta nie wspierała dlss
Największą wadą FSR jest migotanie krawędzi. Szczególnie gdy gramy w 1080p. Naprawili to? Można padaczki dostać w niektórych grach, jak np. Cyberpunk ;) Mam Radeona 6650XT, ale wszędzie gdzie tylko mogę odpalam Intel XeSS zamiast FSR. Co brzmi absurdalnie. Intel zrobił lepszy upscalling na karty AMD, niż samo AMD... W Marvel Rivals też mam wrażenie, że XeSS działa lepiej, niż FSR. W zasadzie przez ten fakt który wymieniłem, mocno brakuje w tym materiale XeSS ;)
być może fsr 4.0 wszystko naprawi, ale gdy dojdzie "optical flow" jak w B580 czy RTX 4000 to wtedy (będzie działać na wektorach i w końcu będzie dobrej jakości) nie będzie wstecznej kompatybilności tzw. fsr 4.0 będzie działać tylko na RDNA4.
Dla mnie ciekawszym tematem byłoby połącznie upscalera DLSS z generatorem klatek FSR. Jest to możliwe w przy FSR 3.1 i coraz więcej gier to implementuje. Niestety nvidia ma w pomie użytkowników starych kart, a dla mnie temat jest super ciekawy. Wesołych świąt!
generator klatek od amd jest strasznie słaby bo nie przewiduje wektorów ruchu. Coś w temacie się ruszyło dopiero teraz ale nadal wypada to słabo w stosunku do nvidii.
No ja sobie włączam właśnie taką kombinacje np. W Spider-Manie. DLSS quality i amd frame generation w 4K. I stabilne 120 klatek jak na konsoli tyle że grafika nieporównywalnie lepsza bo wszystko na ultra. Na 55 calowym tv oled ze 120Hz matrycą robi to niesamowitą robotę. Zastosowanie tej kombinacji jest o tyle lepsze bo pozwala włączyć V-Sync. Przy generatorze od NVidia takiej opcji nie ma i mimo że FPS jest więcej niż 120, obraz nie jest płynny.
Zobacz gry takie jak ghost of tsushima, god of war, które mają świetne implementacje fsr 3.1 jeśli chodzi o fg. Jakość bardzo podobna do dlss fg.@@キウィキウィ
7:00 wzrosty 80% , 140% ... , może jestem idiotą , więc proszę o wytłumaczenie , gdzie na tych wykresach jest pokazany wzrost np. 140% i w jaki sposów można to z tych wykresów odczytać?
Z tym upscalingiem to jest jakbyś chciał zrobić z igły widły, ile to już wersji było, czemu się nie rozwija technologii temporal antialiasing bez utraty jakości obrazu? co z tego że w statycznych scenach jest fajnie, tutaj na teście postać nie przemieszcza się na boki, wtedy dopiero jest lipa, w nowym stalkerze ghosting na roślinności to norma przy fsr i dlss, dobrze jest jak idziesz do przodu ale gorzej jak przemieszczasz postać na boki.
Rok temu kupowałem RX7800XT pod ekran 4k z zamiarem używania upscalingu, czekając kolejne kilka lat na przystępne cenowo karty do 4k. Póki co żadnego zamiennika nie widać.
Dzieki za materiał. Polecam zainteresować się modem opicscaler, który umożliwia włączenie xess lub fsr 3 w grach które natywnie posiadają tylko dlss. Testowałem to narzędzie na Metro Exodus EE i działa bardzo dobrze xess w jakości Q i rozdzielczości 1080p na bardzo wysokich detalach z rt na karcie rx6600xt.
Zdrowych i spokojnych świąt blacku ! Co do upscallingu, nigdy nie używałem w 1080p ze wzgledu na słabą jakość obrazu, a w 1440p czy po podlaczeniu tv 4k to jak najbardziej. Daje to drugie życie karcie oferując darmową wydajność, plus nie muszę myśleć o wymianie GPU co 2 lata, tak więc nvidia sama sobie strzeliła w stopę. Niestety jak większość osób zauważyło, słowo optymalizacja przestaje pomału istnieć, dodatkowo bardzo nie podoba mi się marketing nvidii gdzie w slajdach porównujących starszą generację do najnowszej nie używa się czystej rasteryzacji, tylko techniki upscallingu z dodatkowym uzyciem FG....
Akurat DF przyznało że PCtowa implementacja FSR 3.1 w Space Marine 2 jest co najwyżej średnia, zdecydowanie lepiej wypada FSR na konsolach. Mega dzięki za test, problem z grami na PC jest taki, że ogromna część z nich ma ten FSR zaimplementowany byle jak.
A jak wyglada sytuacja z frametime? Tego nik nie przedstawia. Tylko czysta rasteryzacja. Po co kilka klatek wiecej jak gra jest pływająca i mniej responsywna. Smużenia i migania to norma.
Jak w gierce jest tak 45/60 fps z dlss na trybie jakość w 4k to jak do tego fg odpalę to złoto. Gram właśnie w space marine 2 na 4070 ti super to 90% gry w 4 k dlss i fg ponad 100 fps na telewizorze 120k z vrr nie ma żadnego rwania obrazu też mogłeś wspomnieć bo teraz dużo telewizorów, monitorów neguje mocno te efekty. W dragon's dogma 2 właśnie też zauważyłem, że rozdzielczość natywna przegrywa z trybem jakości dlss co jest dziwne jak dla mnie, ale tez dobrze świadczy o samej technologii. Znając życie to pewnie w serii 5000 cos nvidia dołoży i oleje serie 4000...
Szkoda, że developerzy często źle implememtują fsr 3.1 i występują problemy z płynnością fg/frametime. Dodatkowo pomijają implementację Anti-Lag 2 z jakiegoś powodu, polecam optiscaler(mod) do gier z chu**** implementacją.
1:55 chyba spadki jakości obrazu, nie wydajności ;) Nieważne jak bardzo bym się nie starał, chciwa nvidia zawsze wygrywa. Dlss w 90% gier wygląda lepiej i chodzi lepiej niż fsr. Nie wspominając już o tym, że 70% gier obsługuje tylko dlss. Ta gra jest niestety kolejnym potworem zniszczonym przez TAA unreala. Bez filtra wyostrzającego nie da się w to mydło grać
Fajnie tylko fsr (fx, integer scaling, fluid motion frames) nie działa z eyefinity, a dlss i fg z nvsurround już tak - a w trzymonitorowych konfiguracjach takie skalowanie rozdzielczości i wygładzanie daje efekty.
Tak/nie, zależy od tytułu, na pewno przewagą 7900XTX jest 20 GB VRAM nad ledwie 12GB 4070 Ti, ostatni Indiana Jones pokazuje że ten RAM zaczyna nabierać wartości i że może warto byłoby celować powyżej 12GB w tym temacie.
I tak kupiłem AMD XD Nvidia nic ode mnie nie dostanie za te kastraty po zawyżonych cenach. Żebym nie wyszedł na fanboya tłumacze swoje poglądy tym, że nie interesują mnie tytuły gier, w których gpu nvidii daje solidne korzyści. Kiedy porównanie generatorów klatek? A może nawet w połączeniu z metodami upscalingu
AMD robi tańsze i słabe karty graficzne. Miałem RX 580 w dwóch wersja i był dramat. Czarne ekrany wysokie temperatury i słabe działanie dodatkowych funkcji oraz sterowników.
Ja gram na1080p z wlaczonym fsr w trybie jakosc i jak dla mnie jest świetnie. Chodzi o FS25 ustawienia b.wysokie gdzie gracze z kartami zielonych ciut narzekaja
W teorii natywnie generowana klatka zawsze powinna być ostrzejsza, bo FSR i DLSS generują klatkę niższej rozdzielczości i podbijają do natywnej wyświetlanej
@@jazon9 co wynika z kiepskiego AA w natywnym obrazie. wystarczy sobie ustawić AA jako FSR/DLSS w 100% i wszelkie FSR/DLSS zostają wyjaśnione. I jest to zabieg celowy oszustwa nVidii, żeby właśnie takim nie kumającym 'udowodnić' że DLSS jest 'lepszy'. Kupa a nie jest lepszy. Przy tych samych warunkach jest zawsze gorszy. Bo jest to technika stratna z natury, teoria informacji się kłania, a nie jedzenie marketingowych bełtów nVidii.
@@jazon9 Tak jest, dokładnie tak, detal w DLSS jest większy niż natywnie xD gdzie go nie było bo AI wygenerowało cokolwiek z zaniżonej rozdzielczości i Jensem wmawia ludziom, że tak powinna wyglądać natywna klatka, ale tak nie wygląda bo nie, bo generowanie natywnych klatek po prostu jest gorsze od upscalowania xD Weź leki i idź spać albo klękać przed Jensenem. Możesz od razu dać linki do tych "niesławnych" screenów z Death Stranding dla prawdziwych dzbanów co łykają wszystko IKS DE xD
Grając ostatnio w Hunt Showdown trochę męczyłem się z dropami klatkarzu w natywnym 3440X1440 (nierówne 60 fps) Niestety DLSS w tej grze daje więcej klatek ale rysowanie na dalekim dystansie cierpi na nieostry obraz o ile w grach akcji singlowych to bez znaczenia dla mnie to w takim kompetytywnym tytule jest to ważne. Postanowiłem spróbować patentu który używany przez graczy w Alien Isolation by zminimalizować efekt postrzępionych krawędzi odpalało się grę z włączonym upscalerem z poziomu sterownika (DSR) w moim przypadku Hunt renderowany jest do rozdzielczości o 33% wyższej od 3440X1440 czyli do 4587X1920px do tego ustawiam DLSS na tryb płynności i mam 60 klatek solid a ostrość obrazu jest po prostu doskonała. Pewnie nie w każdej grze to będzie dobrze działać a i trzeba mieć zapas mocy ale jak już się ma to efekty są naprawdę warte uwagi.
Dzieki za prownianie, fajny film. Migotanie widać rowniez w odbiciach na wodzie roslin na srodku ekranu. Mógłbyś porównać jakość Path tracingu, nie udalo mi sie znaleźć porównań, jedynie filmy wychwalajace jakosc na nvidii
Do generowania klatek to używam Lossless Scaling - monitor 3440x1440, karta RTX 3070. Dokupiłem do tego RX 6500XT. Tak więc monitor mam ustawiony na 120Hz, w sterowniku nV mam zablokowane klatki na 60Hz. Monitor podłączony pod RX 6500XT aby nie obciążać lini PCIe - bo niestety mam chipset b550 i karta (RX 6500) jest ograniczona do PCIe 3.0x4 (fabrycznie obsługuje 4.0x4). A i w ustawieniach trzeba wybrać aby w trybie obciążenia renderował na RTX 3070 a najlepiej każdą aplikację ręcznie przypisać do lepszej karty bo zauważyłem np. w Wieśku scenę 3D renderowało na RTXie a mapę na RXie tak więc lepiej przypisać każdą aplikację do karty. No i trochę poustawiać sam program ale jak już się wyhaczy o co chodzi to chodzi świetnie. Zaletą tego programu jest to że mogę sobie odpalić generator w każdej grze, nawet tych które były zablokowane np. na 30FPS. Drugą zaletą jest możliwość wybrania na której karcie ma pracować generator klatek. A zaletą generowania na drugiej karcie to podwojenie liczby klatek i mniejsze opóźnienia. Bo jak miałem normalnie np. 60 klatek i włączyłem generator na tej samej karcie to klatki natywne spadały do ok. 40. Nie ma nic za darmo, a z drugą kartą to jak mam 60FPS + generator = 120FPS. Ale się rozpisałem😁
Ja używam FSR w grze gatcha Wuthering Waves, gram w 2160p na Radeonie 6950XT. Bez FSR mam 90-100 klatek, z FSR gra dobija mi do sztywnego limitu klatek, ustalonego w grze, czyli 120. Ja tam nie widzę jakichś defektów graficznych, a przynajniej nie rzucaja się w oczy w trakcie grania.
Mi się wykrzacza ARK: Survival Ascended po kilku sekundach, już wszystkiego próbowałem, wszelkie ustawienia graficzne, bios i sterowniki najnowsze, górne taktowanie GPU ograniczone do 2500MHz i bez zmian.
U mnie ziomek używa fsr mimo, że ma kartę nvidi. Dlaczego? Bo 3080 z ebaya była tańsza o 400zł od 4060 :) A kochana nvidia jakimś niewiarygodnym cudem nie potrafi umożliwić kartom serii 30 odpalić swojego fg. Najczęściej opłaca się fsr+fsr fg chociaż w niektórych grach dostępny jest mod na odpalenie dlssa wraz frame genem od fsr. Cały komp mu złożyłem za około 3600 (r5 7500f, aorus 3080, 1tb 7000/6800, 850w gold modularny od msi, 32gb 6000/30 i płyta z wifi) Dzięki bogu to fsr istnieje bo inaczej trzeba by kupić tą śmieszną 4060 która przy upsaclingu obu kart przegrywa często nawet dwukrotnie
@@Starbunio morele, ebay, proline, obudowa z xkomu, ramy z olxa. Bez karty wyszło poniżej 2700. Początkowo w planie był zasilacz 750w, ale w dzień zakupu idealnie akurat wpadła promka na a850gl w cenie 300zł. Wystarczy czekać na dobre promki
DLSS, FSR, XeSS robia tak, że z 720p zrobia ci 1080p, przez co masz wiecej fps a Frame Generation nie robi nic z rozdzielczościa tylko generuje klatke miedzy już istniejące
@@xGodix Wpłynie na opoźnienie plus mogą wystepować też artefakty jeżeli argorytm źle wygeneruje klatke miedzy prawdziwe zaleca się używać FG jeżeli mamy, chociaż stabilne 60, bo FG musi mieć skąd brać informacje o obrazie wiec nim wiecej bazowych FPS tym lepiej
Według mnie obniżenie jakości elementów nie jest tak denerwujące jak migotanie, które automatycznie zwraca twoją uwagę podczas rozgrywki i bardzo denerwuje.
Nowe gry mają zero optymalizacji i są maksymalnie rozmazane. Raczej będę omijał nowe tytuły dopóki nie wyjdzie jakaś stabilna technologia niwelująca schody i ząbkowanie dla Full HD. MSAA dawało radę a teraz to jest jakieś nieporozumienie z TAA. Nie dość, że gierki są coraz gorzej zrobione to jeszcze wyglądają jak kasza manna... nic dziwnego, że studia i duzi wydawcy masowo plajtują... ahh jeszcze ten system pre-orderów xD. Niestety mi się Stalker wysypuje na 4060Ti jak ustawiłem FSR 3.1.
Spoko materiał ale jedna gra to trochę mało na materiał testowy. Jak wiadomo, w zależności od gry te techniki wypadają raz lepiej lub gorzej( ponoć w takim np Ghosts Of Tsushima jakość FSR jest porównywalna do DLSS), bo różnie wychodzi ich implementacja. Oczywistym jednak jest, że w większości gier DLSS wypada lepiej.
W call of duty porownywalem w 4k dlss do fsr, twarz z bliska, broda na dlss zbalansowanym wygladala lepiej jak fsr jakosc, a dlss jakosc lepiej jak natywnie :)
tiaaa... i wtedy sie obudziles... dlls lepiej jak natywnie... na zblizeniu... no po prostu panie cuda marketingu.. teoria informacji w d*pie bo ja widzialem... przypomina audiofili co to slyszeli i wiedza ze ten kabel gra lepiej.
A mógłbyś wytłumaczyć, tak na logikę, jakim cudem przeskalowany z mniejszej rozdzielczości obraz może wyglądać lepiej, niż ten w rozdzielczości natywnej?
@@hoobiwoobi To wcale nie nie jest niemożliwe. DLSS może wyostrzyć lub zblurować obraz, zależy jak jest dobrze zaimplementowane. Nasz mózg może go odebrać jako "lepszą jakość/większą ostrość". Było wiele takich przykładów w necie ;) Obraz owszem będzie skalowany ale algorytmy tak go wyostrzą, ze wyda Ci się lepszy niż natywny.
Trochę mi to przypomina: FSR - Niech wszystko będzie rozmyte (Blur) DLLS - Nie lubimy "rozmycia" (Blur`a) z FSR wyjątek dla mnie to Starfield tam jest OK pozostałe gry wole natywną choć FS25 namawiam "włącz mnie" bo optymalizacja tam jest ..... słaba jeszcze STALKER 2 - Ciężki tytuł na PC, sam korzystam z generatora klatek, ponieważ lubię epickie detale. Osiągam 40-55 FPS w Zonie (60-70 FPS w mniej wymagających miejscach) z generatorem klatek 70-95 FPS (R7 5800X -25 Curve, RX 6700 XT 32GB 3600 MHz) i, o dziwo, różnica jest odczuwalna. Fakt, że nie jest to wystarczająca płynność dla monitora o częstotliwości odświeżania 144 Hz, ale i tak wystarcza. Zawsze można dostosować detale, jednak z tego, co sprawdzałem, czasami wystarczy zmiana jednej opcji, aby spadło o 20 FPS, podczas gdy inne zmieniają wynik o 2-3 FPS. Tak więc, da się samodzielnie zoptymalizować ustawienia pod kątem detali, aczkolwiek trudniej jest, kiedy zmiany nic nie wnoszą - wtedy to dopiero bywa frustrujące. Najbardziej wydajność zabijają shadery (np. cienie, światła itd.), roślinność i dystans renderowania. Wliczając w to również kosmetyczne cienie kontaktowe itd., które czasami wpływają na niekorzyść jakości. - Nie wiem, po co robią tyle detali, a jeszcze jak tego nie zoptymalizują, to nawet najwydajniejsze GPU potrafi klęknąć. :D
Z tym rozmyciem to bywa różnie ale dlss też potrafi mydlić. Niektóre gry nie mają w ogóle suwaka Sharpening albo załączają go domyślnie na zbyt wysoką wartość. Problem przy FSR to ta dyskoteka (migotanie) i pikseloza.
@@kaelos4 Z tym migotaniem zauważyłem problem od jakiegoś czasu i nie wiem, czy wynika to z którejś wersji sterownika, czy jest związane z odświeżaniem 144 Hz. Sprawdzałem różne opcje, takie jak input lag, ulepszony refresh rate, tryb gry oraz zmienną częstotliwość odświeżania, ale problem nadal występuje. Nie pojawia się wszędzie, nawet w grze Satisfactory, w której wcześniej nigdy nie miałem podobnego problemu. Z tego, co dowiedziałem się w najnowszej aktualizacji FS25, wspomniano o poprawieniu "migotania", ale nie wiem, co dokładnie może być tego przyczyną. Rozwinięcie: Migotanie obrazu w grach, szczególnie w kontekście odświeżania 144 Hz, może wynikać z kilku różnych czynników. Może to być związane z ustawieniami sterowników karty graficznej, specyficznymi opcjami odświeżania ekranu, a także różnymi technologiami optymalizacji obrazu, takimi jak FSR (FidelityFX Super Resolution) czy G-Sync. Problem migotania w grach, mimo braku takich trudności wcześniej, może wynikać z wprowadzenia nowych aktualizacji sterowników lub zmian w systemie operacyjnym, które wpływają na synchronizację obrazu z częstotliwością odświeżania monitora. Warto też zauważyć, że różne gry mogą mieć różne reakcje na te ustawienia. Nawet jeśli problem nie występuje w innych tytułach, w przypadku gier takich jak Satisfactory, może to wynikać z subtelnych różnic w silniku gry, co może prowadzić do problemów z synchronizacją. Aktualizacja, o której wspomniano w FS25, sugeruje, że problem migotania mógł zostać zidentyfikowany i zaadresowany przez deweloperów, ale ostateczne rozwiązanie może zależeć od pełnej kompatybilności sterowników, ustawień ekranu oraz samej gry.
Czyli FSR jak był na śmietnik tak nadal jest na śmietnik. Wzieliby się za optymalizacje a nie robią te gry na od***dol, a potem no nasz klient na RTX 4090 odpali sobie FSR ktore natywnie bedzie renderowac wazeline z 720p do 4K.
@@Wodagazowana5000 Ja w kapeli pt. konsola gram od paru dekad. nigdy gorszego upscalowania nie widzialem jak na bazowej PS5 czy XSX gdzie widzisz logo unreal engine 5 i juz wiesz ze bedzie dramat. PS5 Pro troche ratuje sytuacje z PSSR ale to tylko dlatego ze FSR to jest absolutny smietnik a deweloperzy naduzywaja tego ponad granice ludzkiej przyzwoitości. PS3 mialo wiecej pikseli na ekranie niz te badziewie na UE5 z FSR.
@reapzzer planuje zakup pc z nvidią bo mi szkoda zycia na granie w 720p na ps5 xD ale sa gry gdzie mam wrazenie ze gram w 4k. God of War, Ratchet albo remaster The Last of Us czy spiderman 2. Ale w 40 fps
@@Wodagazowana5000 Spoko spoko kupisz nowego kompa w cenie 3 ps5 pro, a i tak DLSS na balanced bedzie odpalany bo deweloper z dwoma szarymi komorkami mysli ze kazdy ma PC z 1TB ramu i 3 RTX 5090. Gry sprzed ery UE5 smigaja az miło na ultra i wysokich rozdzielczościach, a to co wychodzi na świeżo temu nawet 5090 nie pomoże.
Powtarzam to od dawna, że FSR do niczego się nie nadaje. Jedynie w 4K na "jakość" jeszcze ujdzie. W 2K nawet na "jakość" dla mnie osobiście robi dramat z obrazu. Natomiast DLSS w wielu grach wręcz poprawia jakość obrazu i wygląda lepiej niż natywne ustawienie. Korzystam z DLSS (jedynie na "jakość") wszędzie gdzie się da 👍 To samo z RT, od trzech lat tłumaczę, że bez tego nie ma sensu grać, że to przyszłość, to "po co? Na co to komu? Zrobimy testy amd vs nvidia w czystej rasteryzacji! RT nic nie daje". A teraz każdy youtuber się zachwyca RT (nawet hipokryci co jeszcze kilka miesięcy temu negowali jego zasadność, zapewne siedząc na Radeonach, które im RT nie ogarniały). I nareszcie pojawiają się pierwsze gry w których nawet tej opcji nie wyłączysz 💁♂️ Koniec taryfy ulgowej dla Radeonów. Czas testów w czystym rasterze dobiega końca.
Nie przesadzaj z tym RT, ktoś może mieć tak samo gdzieś RT jak wysoka jakość cieni. Co do FSR, ludzie chyba są ślepi a w 1080p dziwię się że w ogóle do domu trafiają. FSR jak rozmydlal obraz tak robi to nadal, FG od amd natomiast robi pływający obraz w niektórych grach. Dlss w zależności od gry czy 2.0 lub 3.0 i jak to ai zostalo wyuczone. Miałem kartę od amd, teraz Rtx 4070 więc widzę faktycznie jak jest a nie na RUclips. Wnioski - FSR nawet nie ma podejścia do dlss i fg NVidii.
FSR 3.1 powoduje straszne artefakty wokół postaci i jak np jakieś particle latają. Widać też czasami miganie tekstur. Można to sprawdzić w takim ghost of tsuhima, czy final fantasy 16.
Jak dla mnie FSR realnie smuży bardziej niż DLSS i jest więcej szumów i artefaktów. To nie zawsze widać na YT ale podczas grania róznica jest duzo bardziej widoczna. Plus FSR nadal ma tendencje do pozaostrzania obrazu bo brakuje mu jakości. Co też jest trudniej do uchwycenia na YT niż podczas patrzenia się na monitor.
Mając RTX 3060 Ti G6X i monitor 1440p to jestem wręcz zmuszony do grania z DLSS, nawet żeby tym sposobem obniżyć użycie vram, 8gb to robi się już za mało pod koniec roku. Korzystam z trybu jakość jak i balans, zależnie od gry ciężko się dopatrzyć różnicy, chyba, że będziemy ślęczeć nad ekranem i szukać różnicy, nie zawsze jest to widoczne gołym okiem. Dużo szybciej idzie dostrzec mając 2 obrazy obok siebie, ja mam jeden monitor, więc czasem sprawdzam na screenach z gry czy jest różnica. Dlatego wybrałem RTX zamiast RX 6700XT, wiedziałem, że DLSS jest dużo lepszy, a przy takich kartach i tak muszę się ratować tego typu techniką by zyskać trochu fps. Czekam na nowe karty, na nowe rtx jak i rx
Ja siedzę na RTX 2070 z DLSS jeszcze daje rade, ale czekam już na serię 5000, widzę, że jest teraz ogólny spam serią RTX 4000 by sprzedać leżaki magazynowe 😂
@@ard1an307 Sterowniki u AMD to tragedia aktualizacje i stabilność również tragedia wydawane raz na jakiś czas a Nvidia zawsze jakiś nowy sterownik wychodzi jak jakaś nowa gra się pojawi
Poczekaj na nową serię bo stara z ceną spadnie. W obecnej generacji raczej 4080 Super jeżeli interesuje Cię Ray Tracing, 4080S będzie droższa ale ma mniejszy pobór mocy i lepszą kulturę pracy. RX 7900XTX też jest spoko ale bardziej grzeje i zjada więcej prądu i przy tym jest tańszy o około 1000zł, wydajność w rasterze to 1:1 zależy od tytułu. Jakbyś chciał RX'a to odradzam Ci Redevila i cokolwiek od PowerColor w tej generacji, celowałbym w Sapphire lub XFX. Z AMD też dostaniesz FrameGen I FSR tylko, że jak to Blacku pokazał jest gorszy obecnie, następna iteracja będzie pewnie miała AI bo ten tutaj to po prostu algorytm bez AI.
A gdzie xess? Tylko jeden tytuł? Pasowałoby dać choć ze trzy. Brakuje testu disocclusion, animowanych czy przezroczystych tekstur. Tak widocznych na wodzie. Nie ma nawet zoomu na migoczące elementy. Nie wspominając o ray reconstruction.
DLSS też jest brzydkie jak się przyjrzysz dokładnie. Więc ani jedni jednych, ani drugich nie ma za co chwalić czy ganić. Inna sprawa, że FSR włączysz wszędzie a różnicy podczas intensywnego ruchu nie zobaczysz, bo nikt nie siedzi i nie szuka szczegółów. Najlepsza natywka lub DLDSR.
@@Forioous Nie zgadzam się, ostatnio robiłem porównanie w CP2077 i jest to widoczne gołym okiem. DLSS jest bardziej dopracowane i nie kłuje w oczy jak FSR 3. AMD dalej w tyle za Zielonymi.
@@NeoMartel ale wiesz z czego to wynika i nie powinno cię to dziwić... I tak, jest różnica, ale chyba wiesz dlaczego. FSR też ma plusy, szczególnie 3.1, nie 3 a 3.1.
nie wiem kto jeszcze w 2024 gra w 1080p, oprócz e-sportowców cs2, a w 2k i 4k przy quality różnica jest minimalna. czekamy na nowe pokolenie kart od AMD, bo chyba Nvidia znowu będzie nam sprzedawać karty z 8 gb vramu w cenach z kosmosu xD
Wydaje mi się, że dla przeciętnego gracza to, że FSR odpalisz na każdej karcie przystaje mieć już znaczenie. GPU, na jakich odpalisz DLSS są już na rynku od 6 lat. 6 lat, bądźmy poważni, mało jaki gracz ma tak stare GPU, chyba, że do kopa do internetu a nie gier. Wiadomo, zdarzają się osoby co jeszcze mają RTX np. 1080Ti, ale jaka to jest nisza.
@@AjTiOfficial A ktoś tu coś pisał o generacji klatek? Mówimy o DLSS a nie FG. To,że devsi przerzucają się na chujowy UE5 i nie potrafią go optymalizować to inna sprawa, wtedy gry na każdej karcie źle chodzą.
Ogólnie przebijanie bariery 60 klatek za pomocą FG jest kiepskim ruchem. Nie dość że generowane klatki będą bardzo widoczne, to opóźnienie również będzie mocno odczuwalne. Generator najlepiej odpalić przy minimum 50fps+. Moim zdaniem FG najlepiej się sprawdza, gdy chcemy osiągnąć poziom klatek zbliżony do maksymalnego odświeżania naszego monitora typu 120-240hz itd.
porownywanie dlss z fsr to troche glupota? dlss jest za paywallem w postaci kupienia RTXa a fsr dziala nawet na 1080 ti. intel xess jak juz jest bardziej sensownym przeciwnikiem dlss
Market share Nvidii i ilość sprzedanych GPU miażdzy Amd wiec jednozacznie można stwierdzić, że większość ludzi korzysta z Nvidii. Mówienie o byciu za Paywallem jest pomyłką z Twojej strony. Po co testować Intel XESS skoro większość graczy korzysta z DLSS.
Jaki poważny gracz uzywa jeszcze rtx 10xx. GPU obsługujące DLSS są na rynku od ponad 6 lat. 6 lat, bądźmy poważni, gracze nie używają GPU przez 6 lat, GPU zmienia się częściej.
Nie używam rozmydlaczy i generatorów oraz najnowszej mody czyli kompresji tekstur u NVIDIA. Moj RX6900XT Nitro+ daje na razie radę w 1440p w to w co gram 😊
fsr w trybie jakość - bo mam rx7800xt. Nie odczuwam spadku jakości obrazu, widzę znaczną poprawę klatkażu. Kolejna karta raczej jednak będzie od zielonych - rt jest wymagany w większej ilości tytułów, a amd nieco przysypia. Zostanę z czerwonymi jak się poprawią, ale to za kilka lat dopiero :)
Porównywanie FSR quality z DLSS quality jest bezcelowe. Niestety Nvidia straszne dominuje w tym aspekcie. Polecam odpalić sobie powyższy filmik w 2 oknach tak aby mieć FSR Quality po jednej stronie i DLSS Performance po drugiej. Nawet przy takich forach FSR zostaje mega w tyle.
dopóki ci wystarczy w tańszych kartach 8gb vram, za chwile to bedzie za mało i nvidia będzie z padaczką a amd dalej płynne bo dają 12, 16gb vram w budzetowych kartach. To dłużej budzetowiec pożyje. Software jest dobry dopóki hardware daje rade. A w drogich kartach i tak tych bajerów lepiej nie używać bo nie po to sie kupuje drogą karte aby psuć grafikę. No i jak ktoś lubi grać na linuxie to tylko amd.
Jakość implementacji technik różni się co gra, ale z reguły FSR wygląda gorzej i źle na jakimkolwiek presecie. Porównania porównaniami, ale mając RTXa warto wyrobić sobie zdanie bardziej życiowo - przełączając się pomiędzy technikami. Wtedy zasadniczą różnicą jest, że przy FSR artefakty rzucają się w oczy, a po przełączeniu na DLSS łagodzą się albo wcale nie występują. Różnica jest tak duża, że mając dostęp tylko do FSR, wolałbym radzić sobie bez niego, a DLSS Quality już od 2.0 traktuję jak darmowy pakiet fpsu i wygładzania krawędzi.
Używacie upscalingu, czy raczej obniżacie detale w grach?
Ja nigdy nie widziałem różnicy między dlss quality a natywną rozdzielczością więc używam zawsze dlssa bo zawsze jest wzrost klatek
W nowych grach raczej nie da się nie używać upscalingu. Po pierwsze dlatego, że optymalizacja już nie istnieje. A po drugie dlatego, że większość nowych gier ma włączone domyślnie TAA (to jest ten "natywny" obraz) i włączenie upscalingu po prostu poprawia obraz względem TAA. Co by dużo nie mówić upscaling jest teraz najlepszą metodą AA w nowych grach. Niestety.
Ja osobiście to bym wolał aby deweloperzy nie byli tak leniwi jak są i zaczęli optymalizować gry i je dopracowywać, a nie day one patche ważące 100 GB.
tak ;)
@@emilos2495 nie zaczną bo nie wynika to z lenistwa ale z cięcia kosztów. Teraz finansiści i działy finansowe projektują gry. 90% deweloperów nie używa oświetlenia dostosowanego do danego typu gry, tylko domyślnych narzędzi z UE5, te pozostałe 10% to studia które używają własnego silnika.
Neon z kurvinoxem dodaje jakże świątecznej atmosfery wraz z unoszącą się w powietrzu wonią solnika.
Te wszystkie dlssy tylko rozleniwiają twórców gier którzy nie znają już słowa OPTYMALIZACJA.
powiedział co wiedział
@@nskubix3196powiedział to językiem faktów
@@nskubix3196twój ojciec też myślał że wie ale skończyło się na podróży po mleko
@@nskubix3196 ?????????
Optymalizacja to dodatkowy koszt, lepiej dowalić 10 dlc za hajs w tym czasie.
Nie gram praktycznie w żadne nowsze gry i nie korzystam z tych technologii xD One miały pomagać wyciągać słaby sprzęt za uszy a twórcy gier zrobili sobie z nich powód do braku optymalizowanie gier.
Ważne że FSR wciąż jest poprawiane👍plus dla amd.
Tia, a dalej paskudne jak cholera.
@@NeoMartel Darmowe,dzialajace na kazdej karcie,nie wymagajace placenia za dodatkowe rdzenie w karcie ;) Paskudne?Nie powiedzialbym.
@@NeoMartel podczas szybszej rozgrywki nawet się tego nie zauważa
no chyba, że ktoś musi mieć krystalicznie czysty obraz na najwyższych możliwych ustawieniach to wtedy już może to zauważać, mi natomiast to nie przeszkadza i przeszedłem całego cyberpunka mając włączone FSR kiedy moja poprzednia karta nie wspierała dlss
@@NeoMartel tak samo tragiczne jak i dlss xd
dalej daaaleko w tyle od xess
Dziękuję za materiał, aż miło posłuchać jak zawszę od ponad 10 lat, Wesołych świąt.... życzę :)
Szkoda że nie ma porównania do XESS 2.
Największą wadą FSR jest migotanie krawędzi. Szczególnie gdy gramy w 1080p.
Naprawili to?
Można padaczki dostać w niektórych grach, jak np. Cyberpunk ;)
Mam Radeona 6650XT, ale wszędzie gdzie tylko mogę odpalam Intel XeSS zamiast FSR. Co brzmi absurdalnie. Intel zrobił lepszy upscalling na karty AMD, niż samo AMD...
W Marvel Rivals też mam wrażenie, że XeSS działa lepiej, niż FSR.
W zasadzie przez ten fakt który wymieniłem, mocno brakuje w tym materiale XeSS ;)
być może fsr 4.0 wszystko naprawi, ale gdy dojdzie "optical flow" jak w B580 czy RTX 4000 to wtedy (będzie działać na wektorach i w końcu będzie dobrej jakości) nie będzie wstecznej kompatybilności tzw. fsr 4.0 będzie działać tylko na RDNA4.
Też używam w cymbergaju XESS, bo lepiej działa niż FSR i DLSS.
Dla mnie ciekawszym tematem byłoby połącznie upscalera DLSS z generatorem klatek FSR. Jest to możliwe w przy FSR 3.1 i coraz więcej gier to implementuje. Niestety nvidia ma w pomie użytkowników starych kart, a dla mnie temat jest super ciekawy. Wesołych świąt!
generator klatek od amd jest strasznie słaby bo nie przewiduje wektorów ruchu. Coś w temacie się ruszyło dopiero teraz ale nadal wypada to słabo w stosunku do nvidii.
No ja sobie włączam właśnie taką kombinacje np. W Spider-Manie. DLSS quality i amd frame generation w 4K. I stabilne 120 klatek jak na konsoli tyle że grafika nieporównywalnie lepsza bo wszystko na ultra. Na 55 calowym tv oled ze 120Hz matrycą robi to niesamowitą robotę. Zastosowanie tej kombinacji jest o tyle lepsze bo pozwala włączyć V-Sync. Przy generatorze od NVidia takiej opcji nie ma i mimo że FPS jest więcej niż 120, obraz nie jest płynny.
@@キウィキウィjuz przewiduje wektor i w bo6 mozna wlaczyc dlss i tylko generator amd
Zobacz gry takie jak ghost of tsushima, god of war, które mają świetne implementacje fsr 3.1 jeśli chodzi o fg. Jakość bardzo podobna do dlss fg.@@キウィキウィ
@@キウィキウィ dlatego chętnie bym zobaczył testy
7:00 wzrosty 80% , 140% ... , może jestem idiotą , więc proszę o wytłumaczenie , gdzie na tych wykresach jest pokazany wzrost np. 140% i w jaki sposów można to z tych wykresów odczytać?
@@wsobczak9860 masz FPSy w rozdzielczości natywnej i później w poszczególnych trybach 😉
Z tym upscalingiem to jest jakbyś chciał zrobić z igły widły, ile to już wersji było, czemu się nie rozwija technologii temporal antialiasing bez utraty jakości obrazu? co z tego że w statycznych scenach jest fajnie, tutaj na teście postać nie przemieszcza się na boki, wtedy dopiero jest lipa, w nowym stalkerze ghosting na roślinności to norma przy fsr i dlss, dobrze jest jak idziesz do przodu ale gorzej jak przemieszczasz postać na boki.
Rok temu kupowałem RX7800XT pod ekran 4k z zamiarem używania upscalingu, czekając kolejne kilka lat na przystępne cenowo karty do 4k. Póki co żadnego zamiennika nie widać.
Ja mam RTX 4070 Super i monitor 1440p i używam zawsze DLSS w ustawieniu jakość. Detale staram się ustawiać ultra lub wysokie / bardzo wysokie.
Dzieki za materiał. Polecam zainteresować się modem opicscaler, który umożliwia włączenie xess lub fsr 3 w grach które natywnie posiadają tylko dlss. Testowałem to narzędzie na Metro Exodus EE i działa bardzo dobrze xess w jakości Q i rozdzielczości 1080p na bardzo wysokich detalach z rt na karcie rx6600xt.
Zdrowych i spokojnych świąt blacku !
Co do upscallingu, nigdy nie używałem w 1080p ze wzgledu na słabą jakość obrazu, a w 1440p czy po podlaczeniu tv 4k to jak najbardziej. Daje to drugie życie karcie oferując darmową wydajność, plus nie muszę myśleć o wymianie GPU co 2 lata, tak więc nvidia sama sobie strzeliła w stopę.
Niestety jak większość osób zauważyło, słowo optymalizacja przestaje pomału istnieć, dodatkowo bardzo nie podoba mi się marketing nvidii gdzie w slajdach porównujących starszą generację do najnowszej nie używa się czystej rasteryzacji, tylko techniki upscallingu z dodatkowym uzyciem FG....
kiedy do warhamerra dodano 3 bo jak gralem miesac temu na radeonie 7700XT to 2 byla tylko
@@blazeyt1383 jakoś niedawno
A jak to wygląda na starych RTX ? na Serii 2xxx jest DLSS 1 na RTX 3xxxx jest Dlss 2 ?
Akurat DF przyznało że PCtowa implementacja FSR 3.1 w Space Marine 2 jest co najwyżej średnia, zdecydowanie lepiej wypada FSR na konsolach. Mega dzięki za test, problem z grami na PC jest taki, że ogromna część z nich ma ten FSR zaimplementowany byle jak.
Nie wiem jak konsole vo nie gram, ale moze faktycznie.Natomiast w Stalkerze jest jesszcze gorzej 😉
A jak wyglada sytuacja z frametime? Tego nik nie przedstawia. Tylko czysta rasteryzacja. Po co kilka klatek wiecej jak gra jest pływająca i mniej responsywna. Smużenia i migania to norma.
Jak w gierce jest tak 45/60 fps z dlss na trybie jakość w 4k to jak do tego fg odpalę to złoto. Gram właśnie w space marine 2 na 4070 ti super to 90% gry w 4 k dlss i fg ponad 100 fps na telewizorze 120k z vrr nie ma żadnego rwania obrazu też mogłeś wspomnieć bo teraz dużo telewizorów, monitorów neguje mocno te efekty. W dragon's dogma 2 właśnie też zauważyłem, że rozdzielczość natywna przegrywa z trybem jakości dlss co jest dziwne jak dla mnie, ale tez dobrze świadczy o samej technologii. Znając życie to pewnie w serii 5000 cos nvidia dołoży i oleje serie 4000...
Szkoda, że developerzy często źle implememtują fsr 3.1 i występują problemy z płynnością fg/frametime. Dodatkowo pomijają implementację Anti-Lag 2 z jakiegoś powodu, polecam optiscaler(mod) do gier z chu**** implementacją.
1:55 chyba spadki jakości obrazu, nie wydajności ;) Nieważne jak bardzo bym się nie starał, chciwa nvidia zawsze wygrywa. Dlss w 90% gier wygląda lepiej i chodzi lepiej niż fsr. Nie wspominając już o tym, że 70% gier obsługuje tylko dlss. Ta gra jest niestety kolejnym potworem zniszczonym przez TAA unreala. Bez filtra wyostrzającego nie da się w to mydło grać
W stalker 2 wolałem zejść z detalami na high z epic żeby mieć 60 FPS, niż odpalać FSR w 1440p.
Zgadza się w tej grze FSR wygląda bardzo słabo
Jak nie stać cie na średnia kartę graficzną to twój problem. Sorry.... Jak nie stać twoich starych
😂 Przegryw siedzi i wyzywa, prawdopodobnie stać go na więcej niż ciebie. Takie psy jak ty zawsze szczękają w necie @@czechugawron
Fajnie tylko fsr (fx, integer scaling, fluid motion frames) nie działa z eyefinity, a dlss i fg z nvsurround już tak - a w trzymonitorowych konfiguracjach takie skalowanie rozdzielczości i wygładzanie daje efekty.
czy dlss 3.8 dziala na rtx3000?
A mam takie pytanie, czy RX 7900 XTX lepiej sobie poradzi z rodziałką 3440x1440 jak 4070Ti? A monitor to MSI Mag 345CQR
Zdecydowanie, jednak bez RT.
Tak/nie, zależy od tytułu, na pewno przewagą 7900XTX jest 20 GB VRAM nad ledwie 12GB 4070 Ti, ostatni Indiana Jones pokazuje że ten RAM zaczyna nabierać wartości i że może warto byłoby celować powyżej 12GB w tym temacie.
RX oczywiście że poradzi sobie lepiej, w końcu jest on porównywany do rtx 4080s nie bez powodów
chyba że korzystasz z fsr lub innych dobrodziejstw nvidii, wtedy można się zastanowić
@@MichaelZi 24GB ma.
1:35 UP teraz potrafi naprawde dobrze wyglądać, ostatnio zauważyłem to w black ops 6. naprawde nieźle jak na UP i to na 1080p.
I tak kupiłem AMD XD Nvidia nic ode mnie nie dostanie za te kastraty po zawyżonych cenach. Żebym nie wyszedł na fanboya tłumacze swoje poglądy tym, że nie interesują mnie tytuły gier, w których gpu nvidii daje solidne korzyści. Kiedy porównanie generatorów klatek? A może nawet w połączeniu z metodami upscalingu
AMD robi tańsze i słabe karty graficzne. Miałem RX 580 w dwóch wersja i był dramat. Czarne ekrany wysokie temperatury i słabe działanie dodatkowych funkcji oraz sterowników.
Ok 😂✌️
Czy nie można by zaprząc AI do optymalizacji kodu? A, jeszcze jedno: "migoczą", nie "migotają".
Ja gram na1080p z wlaczonym fsr w trybie jakosc i jak dla mnie jest świetnie. Chodzi o FS25 ustawienia b.wysokie gdzie gracze z kartami zielonych ciut narzekaja
w cyberpunku DLSS powoduje denerwujące powidoki, ale bez niego jest jeszcze gorzej, wszystko jakby rozmyte
Pytanie laika. Czyli neatywnie jest najwieksza jakosc obrazu? Bez wspomagaczy?
W teorii natywnie generowana klatka zawsze powinna być ostrzejsza, bo FSR i DLSS generują klatkę niższej rozdzielczości i podbijają do natywnej wyświetlanej
@@amonitowy nie zawsze
To zależy, w wielu przypadkach detal w DLSS jest większy niż natywnie, szczególnie na odległych obiektach.
@@jazon9 co wynika z kiepskiego AA w natywnym obrazie. wystarczy sobie ustawić AA jako FSR/DLSS w 100% i wszelkie FSR/DLSS zostają wyjaśnione. I jest to zabieg celowy oszustwa nVidii, żeby właśnie takim nie kumającym 'udowodnić' że DLSS jest 'lepszy'. Kupa a nie jest lepszy. Przy tych samych warunkach jest zawsze gorszy. Bo jest to technika stratna z natury, teoria informacji się kłania, a nie jedzenie marketingowych bełtów nVidii.
@@jazon9 Tak jest, dokładnie tak, detal w DLSS jest większy niż natywnie xD gdzie go nie było bo AI wygenerowało cokolwiek z zaniżonej rozdzielczości i Jensem wmawia ludziom, że tak powinna wyglądać natywna klatka, ale tak nie wygląda bo nie, bo generowanie natywnych klatek po prostu jest gorsze od upscalowania xD Weź leki i idź spać albo klękać przed Jensenem. Możesz od razu dać linki do tych "niesławnych" screenów z Death Stranding dla prawdziwych dzbanów co łykają wszystko IKS DE xD
Grając ostatnio w Hunt Showdown trochę męczyłem się z dropami klatkarzu w natywnym 3440X1440 (nierówne 60 fps) Niestety DLSS w tej grze daje więcej klatek ale rysowanie na dalekim dystansie cierpi na nieostry obraz o ile w grach akcji singlowych to bez znaczenia dla mnie to w takim kompetytywnym tytule jest to ważne. Postanowiłem spróbować patentu który używany przez graczy w Alien Isolation by zminimalizować efekt postrzępionych krawędzi odpalało się grę z włączonym upscalerem z poziomu sterownika (DSR) w moim przypadku Hunt renderowany jest do rozdzielczości o 33% wyższej od 3440X1440 czyli do 4587X1920px do tego ustawiam DLSS na tryb płynności i mam 60 klatek solid a ostrość obrazu jest po prostu doskonała. Pewnie nie w każdej grze to będzie dobrze działać a i trzeba mieć zapas mocy ale jak już się ma to efekty są naprawdę warte uwagi.
Ja gram na Xbox Series X w Space Marine 2. W trybie wydajność jest ok, choć na dużym tv widać upscaling
Dzieki za prownianie, fajny film. Migotanie widać rowniez w odbiciach na wodzie roslin na srodku ekranu.
Mógłbyś porównać jakość Path tracingu, nie udalo mi sie znaleźć porównań, jedynie filmy wychwalajace jakosc na nvidii
Przy mojej rozdzielczości to nie mam wyboru xD dlss na quality i gdzie jest to frame generator
Do generowania klatek to używam Lossless Scaling - monitor 3440x1440, karta RTX 3070. Dokupiłem do tego RX 6500XT. Tak więc monitor mam ustawiony na 120Hz, w sterowniku nV mam zablokowane klatki na 60Hz. Monitor podłączony pod RX 6500XT aby nie obciążać lini PCIe - bo niestety mam chipset b550 i karta (RX 6500) jest ograniczona do PCIe 3.0x4 (fabrycznie obsługuje 4.0x4). A i w ustawieniach trzeba wybrać aby w trybie obciążenia renderował na RTX 3070 a najlepiej każdą aplikację ręcznie przypisać do lepszej karty bo zauważyłem np. w Wieśku scenę 3D renderowało na RTXie a mapę na RXie tak więc lepiej przypisać każdą aplikację do karty. No i trochę poustawiać sam program ale jak już się wyhaczy o co chodzi to chodzi świetnie. Zaletą tego programu jest to że mogę sobie odpalić generator w każdej grze, nawet tych które były zablokowane np. na 30FPS. Drugą zaletą jest możliwość wybrania na której karcie ma pracować generator klatek. A zaletą generowania na drugiej karcie to podwojenie liczby klatek i mniejsze opóźnienia. Bo jak miałem normalnie np. 60 klatek i włączyłem generator na tej samej karcie to klatki natywne spadały do ok. 40. Nie ma nic za darmo, a z drugą kartą to jak mam 60FPS + generator = 120FPS. Ale się rozpisałem😁
Lepiej zakupić Rx 7900xtx czy nvida Rtx 4080 super ?
Poczekaj na serię 5000 i wtedy zdecyduj
Ja używam FSR w grze gatcha Wuthering Waves, gram w 2160p na Radeonie 6950XT. Bez FSR mam 90-100 klatek, z FSR gra dobija mi do sztywnego limitu klatek, ustalonego w grze, czyli 120. Ja tam nie widzę jakichś defektów graficznych, a przynajniej nie rzucaja się w oczy w trakcie grania.
Ja ogólnie na 7900XT wszystko elegancko śmiga polecam i pozdrawiam
Mi się wykrzacza ARK: Survival Ascended po kilku sekundach, już wszystkiego próbowałem, wszelkie ustawienia graficzne, bios i sterowniki najnowsze, górne taktowanie GPU ograniczone do 2500MHz i bez zmian.
Używam FSR na moim 6700XT i działa to spoko, podczas gry rzadko skupiam się na widokach, więc drobne niedoskonałości obrazu mi nie przeszkadzają.
ja sobie działam na rx6800xt i jak dotąd nigdy nie odpaliłem FSR, ale to głównie dlatego że mam monitor 1440p 75hz (podkręcony do 95)
wszystko zależy jaką ma się kartę graficzną jak nie masz nvidi rtx to tylko fsr zostaje jak masz słabszego radeona lub gtxa
nie wiem gdzie wy tu jakieś zmiany widzicie dla mnie wszystko wygląda tak samo
RUclips bardzo kompresuje jakość więc takie filmiki nie pokazują w sumie jak to wygląda
U mnie ziomek używa fsr mimo, że ma kartę nvidi. Dlaczego? Bo 3080 z ebaya była tańsza o 400zł od 4060 :)
A kochana nvidia jakimś niewiarygodnym cudem nie potrafi umożliwić kartom serii 30 odpalić swojego fg.
Najczęściej opłaca się fsr+fsr fg chociaż w niektórych grach dostępny jest mod na odpalenie dlssa wraz frame genem od fsr.
Cały komp mu złożyłem za około 3600 (r5 7500f, aorus 3080, 1tb 7000/6800, 850w gold modularny od msi, 32gb 6000/30 i płyta z wifi)
Dzięki bogu to fsr istnieje bo inaczej trzeba by kupić tą śmieszną 4060 która przy upsaclingu obu kart przegrywa często nawet dwukrotnie
gdzieś konkretnie kupowałeś czesci? Wydaje się tanio coś :)
@@Starbunio morele, ebay, proline, obudowa z xkomu, ramy z olxa.
Bez karty wyszło poniżej 2700.
Początkowo w planie był zasilacz 750w, ale w dzień zakupu idealnie akurat wpadła promka na a850gl w cenie 300zł. Wystarczy czekać na dobre promki
Zawsze używam FSR na jakość w 1440p, straty na jakości obrazu marginalne, a zyski w klatkarzu zacne.
Gubię się już czym jest w końcu DLSS i FSR a FG
DLSS, FSR, XeSS robia tak, że z 720p zrobia ci 1080p, przez co masz wiecej fps a Frame Generation nie robi nic z rozdzielczościa tylko generuje klatke miedzy już istniejące
@ czyli samo FG może wystarczyć do płynnego grania bez utraty jakości?
@@xGodix Wpłynie na opoźnienie plus mogą wystepować też artefakty jeżeli argorytm źle wygeneruje klatke miedzy prawdziwe zaleca się używać FG jeżeli mamy, chociaż stabilne 60, bo FG musi mieć skąd brać informacje o obrazie wiec nim wiecej bazowych FPS tym lepiej
@@amonitowy czyli niezalecane do gier nazwijmy to e sportowych, zalecane do gier fabularnych typu GoW i RDR
@@xGodix Dokładnie
Oby co szybciej iść w 8k i uznać 4k60 za standard do którego się dąży optymalizacją...
Według mnie obniżenie jakości elementów nie jest tak denerwujące jak migotanie, które automatycznie zwraca twoją uwagę podczas rozgrywki i bardzo denerwuje.
mam dziwne wrażenie że ktoś tu się z kimś dogadał i karty co raz droższe a gry coraz bardziej skopane optymalizacyjnie i jest jak jest :c.
Ciekawe jak dlss 4.0 w 5xxx 😅
ja 4070 używam do dekrypcji powietrza, ale miło widzieć jak to działa w grach
Musze przyznać że FSR 3.1 bardzo ładnie goni DLSS
1:25 Nie lepiej powiedzieć "Full HD, 2K i 4K"
1440p to nie 2K xD
@@maks571 a co?
@@kilimandzaro5552K to 2048x1080,
1440P najlepiej określić mianem QHD.
Było Jakoś a jest Jakość
Nowe gry mają zero optymalizacji i są maksymalnie rozmazane. Raczej będę omijał nowe tytuły dopóki nie wyjdzie jakaś stabilna technologia niwelująca schody i ząbkowanie dla Full HD. MSAA dawało radę a teraz to jest jakieś nieporozumienie z TAA. Nie dość, że gierki są coraz gorzej zrobione to jeszcze wyglądają jak kasza manna... nic dziwnego, że studia i duzi wydawcy masowo plajtują... ahh jeszcze ten system pre-orderów xD. Niestety mi się Stalker wysypuje na 4060Ti jak ustawiłem FSR 3.1.
najwyzsze ustawienia i generator>>>
Spoko materiał ale jedna gra to trochę mało na materiał testowy.
Jak wiadomo, w zależności od gry te techniki wypadają raz lepiej lub gorzej( ponoć w takim np Ghosts Of Tsushima jakość FSR jest porównywalna do DLSS), bo różnie wychodzi ich implementacja.
Oczywistym jednak jest, że w większości gier DLSS wypada lepiej.
@@Ggggg-cu9co Sprawdzałem jeszcze Stalkera 2, jest jeszcze gorzej
Zabrakło Intela :(
Ja to zawsze dlss na jakość 😎 i wszystko na full oczywiście 🤩😎 pozdrawiam 😉🫡😎
W call of duty porownywalem w 4k dlss do fsr, twarz z bliska, broda na dlss zbalansowanym wygladala lepiej jak fsr jakosc, a dlss jakosc lepiej jak natywnie :)
tiaaa... i wtedy sie obudziles... dlls lepiej jak natywnie... na zblizeniu... no po prostu panie cuda marketingu.. teoria informacji w d*pie bo ja widzialem... przypomina audiofili co to slyszeli i wiedza ze ten kabel gra lepiej.
A mógłbyś wytłumaczyć, tak na logikę, jakim cudem przeskalowany z mniejszej rozdzielczości obraz może wyglądać lepiej, niż ten w rozdzielczości natywnej?
@Magia :) nie wiem jak ale tak jest
Może i magia, albo placebo. 😁
Wszystkiego dobrego!
@@hoobiwoobi To wcale nie nie jest niemożliwe. DLSS może wyostrzyć lub zblurować obraz, zależy jak jest dobrze zaimplementowane. Nasz mózg może go odebrać jako "lepszą jakość/większą ostrość". Było wiele takich przykładów w necie ;) Obraz owszem będzie skalowany ale algorytmy tak go wyostrzą, ze wyda Ci się lepszy niż natywny.
Nie korzystam z tych gimmickow.
Idź lepiej pierogi lep a nie jutuby!
Komu bysię chciało lepić xD Wesołych ;)
@ Tobie również!
Kiedy był nagrywany film? Bo jest już DLSS 3.8.10
a czemu porownanie do 3.7 a nie 3.8 dlss?
A dlaczego nie DLSS 2, skoro 3 nie jest oficjalnie wspierane przez starsze karty, na których będzie szczególnie użyteczne? :)
@@hoobiwoobi mylisz sie, dlls 3.8 jest normalnie pbslugiwany. Nie jest obslugiwane tylko fg z dlls 3 a nie sam upscaling
@@Sisay1982 Masz rację. Na szybko znalazłem inne informacje.
Na stronie Nvidii jest mowa, że są obsługiwane na wszystkich RTX.
Trochę mi to przypomina:
FSR - Niech wszystko będzie rozmyte (Blur)
DLLS - Nie lubimy "rozmycia" (Blur`a)
z FSR wyjątek dla mnie to Starfield tam jest OK pozostałe gry wole natywną choć FS25 namawiam "włącz mnie" bo optymalizacja tam jest ..... słaba jeszcze
STALKER 2 - Ciężki tytuł na PC, sam korzystam z generatora klatek, ponieważ lubię epickie detale. Osiągam 40-55 FPS w Zonie (60-70 FPS w mniej wymagających miejscach) z generatorem klatek 70-95 FPS (R7 5800X -25 Curve, RX 6700 XT 32GB 3600 MHz) i, o dziwo, różnica jest odczuwalna. Fakt, że nie jest to wystarczająca płynność dla monitora o częstotliwości odświeżania 144 Hz, ale i tak wystarcza. Zawsze można dostosować detale, jednak z tego, co sprawdzałem, czasami wystarczy zmiana jednej opcji, aby spadło o 20 FPS, podczas gdy inne zmieniają wynik o 2-3 FPS. Tak więc, da się samodzielnie zoptymalizować ustawienia pod kątem detali, aczkolwiek trudniej jest, kiedy zmiany nic nie wnoszą - wtedy to dopiero bywa frustrujące. Najbardziej wydajność zabijają shadery (np. cienie, światła itd.), roślinność i dystans renderowania. Wliczając w to również kosmetyczne cienie kontaktowe itd., które czasami wpływają na niekorzyść jakości. - Nie wiem, po co robią tyle detali, a jeszcze jak tego nie zoptymalizują, to nawet najwydajniejsze GPU potrafi klęknąć. :D
Z tym rozmyciem to bywa różnie ale dlss też potrafi mydlić. Niektóre gry nie mają w ogóle suwaka Sharpening albo załączają go domyślnie na zbyt wysoką wartość. Problem przy FSR to ta dyskoteka (migotanie) i pikseloza.
@@kaelos4 Z tym migotaniem zauważyłem problem od jakiegoś czasu i nie wiem, czy wynika to z którejś wersji sterownika, czy jest związane z odświeżaniem 144 Hz. Sprawdzałem różne opcje, takie jak input lag, ulepszony refresh rate, tryb gry oraz zmienną częstotliwość odświeżania, ale problem nadal występuje. Nie pojawia się wszędzie, nawet w grze Satisfactory, w której wcześniej nigdy nie miałem podobnego problemu. Z tego, co dowiedziałem się w najnowszej aktualizacji FS25, wspomniano o poprawieniu "migotania", ale nie wiem, co dokładnie może być tego przyczyną.
Rozwinięcie:
Migotanie obrazu w grach, szczególnie w kontekście odświeżania 144 Hz, może wynikać z kilku różnych czynników. Może to być związane z ustawieniami sterowników karty graficznej, specyficznymi opcjami odświeżania ekranu, a także różnymi technologiami optymalizacji obrazu, takimi jak FSR (FidelityFX Super Resolution) czy G-Sync. Problem migotania w grach, mimo braku takich trudności wcześniej, może wynikać z wprowadzenia nowych aktualizacji sterowników lub zmian w systemie operacyjnym, które wpływają na synchronizację obrazu z częstotliwością odświeżania monitora.
Warto też zauważyć, że różne gry mogą mieć różne reakcje na te ustawienia. Nawet jeśli problem nie występuje w innych tytułach, w przypadku gier takich jak Satisfactory, może to wynikać z subtelnych różnic w silniku gry, co może prowadzić do problemów z synchronizacją. Aktualizacja, o której wspomniano w FS25, sugeruje, że problem migotania mógł zostać zidentyfikowany i zaadresowany przez deweloperów, ale ostateczne rozwiązanie może zależeć od pełnej kompatybilności sterowników, ustawień ekranu oraz samej gry.
Czyli FSR jak był na śmietnik tak nadal jest na śmietnik. Wzieliby się za optymalizacje a nie robią te gry na od***dol, a potem no nasz klient na RTX 4090 odpali sobie FSR ktore natywnie bedzie renderowac wazeline z 720p do 4K.
To samo mamy na konsolach od lat witaj w zespole😂
@@Wodagazowana5000 Ja w kapeli pt. konsola gram od paru dekad. nigdy gorszego upscalowania nie widzialem jak na bazowej PS5 czy XSX gdzie widzisz logo unreal engine 5 i juz wiesz ze bedzie dramat. PS5 Pro troche ratuje sytuacje z PSSR ale to tylko dlatego ze FSR to jest absolutny smietnik a deweloperzy naduzywaja tego ponad granice ludzkiej przyzwoitości. PS3 mialo wiecej pikseli na ekranie niz te badziewie na UE5 z FSR.
@reapzzer planuje zakup pc z nvidią bo mi szkoda zycia na granie w 720p na ps5 xD ale sa gry gdzie mam wrazenie ze gram w 4k. God of War, Ratchet albo remaster The Last of Us czy spiderman 2. Ale w 40 fps
@@Wodagazowana5000 Spoko spoko kupisz nowego kompa w cenie 3 ps5 pro, a i tak DLSS na balanced bedzie odpalany bo deweloper z dwoma szarymi komorkami mysli ze kazdy ma PC z 1TB ramu i 3 RTX 5090. Gry sprzed ery UE5 smigaja az miło na ultra i wysokich rozdzielczościach, a to co wychodzi na świeżo temu nawet 5090 nie pomoże.
Bo FSR trzeba dobrze zaimplementować patrz Gow i Horizon to samo tyczy się dodatkowej funkcji generowania klatek.
Jak można obwiniać technologie za lenistwo develwopera? Dlss i fsr oraz intelowska technologia to świetna rzecz.
Powtarzam to od dawna, że FSR do niczego się nie nadaje. Jedynie w 4K na "jakość" jeszcze ujdzie. W 2K nawet na "jakość" dla mnie osobiście robi dramat z obrazu. Natomiast DLSS w wielu grach wręcz poprawia jakość obrazu i wygląda lepiej niż natywne ustawienie. Korzystam z DLSS (jedynie na "jakość") wszędzie gdzie się da 👍 To samo z RT, od trzech lat tłumaczę, że bez tego nie ma sensu grać, że to przyszłość, to "po co? Na co to komu? Zrobimy testy amd vs nvidia w czystej rasteryzacji! RT nic nie daje". A teraz każdy youtuber się zachwyca RT (nawet hipokryci co jeszcze kilka miesięcy temu negowali jego zasadność, zapewne siedząc na Radeonach, które im RT nie ogarniały). I nareszcie pojawiają się pierwsze gry w których nawet tej opcji nie wyłączysz 💁♂️ Koniec taryfy ulgowej dla Radeonów. Czas testów w czystym rasterze dobiega końca.
Nie przesadzaj z tym RT, ktoś może mieć tak samo gdzieś RT jak wysoka jakość cieni. Co do FSR, ludzie chyba są ślepi a w 1080p dziwię się że w ogóle do domu trafiają. FSR jak rozmydlal obraz tak robi to nadal, FG od amd natomiast robi pływający obraz w niektórych grach. Dlss w zależności od gry czy 2.0 lub 3.0 i jak to ai zostalo wyuczone. Miałem kartę od amd, teraz Rtx 4070 więc widzę faktycznie jak jest a nie na RUclips. Wnioski - FSR nawet nie ma podejścia do dlss i fg NVidii.
Upscaling to rak.
Dlaczego nie testujecie rozdzielczosci 3440x1440 wiekszosć moich znajomych ja ma ewentualnie 4k a full hd to spotykam tylko w laptopach
Bo full hd jest standardem 1440 p dogania ale nie na tyle. Poza tym przy 1080 p widac najwieksza roznice w klatkach niz wyzej.
@@maslo32 na 4k to grają koniobijcy z upscalerami
FSR 3.1 powoduje straszne artefakty wokół postaci i jak np jakieś particle latają. Widać też czasami miganie tekstur. Można to sprawdzić w takim ghost of tsuhima, czy final fantasy 16.
dlss tez to ma. to zalezy od gry
@ImotekhtheStormlord-tx2it przełączając na dlss od razu mi znikały artefakty
@@szymonpotorak9161 zalezy od sceny
aha testowanie technologii amd na karftach nvidii... amd software ma funkcje image sharpening która wyostrza obraz
Jak dla mnie FSR realnie smuży bardziej niż DLSS i jest więcej szumów i artefaktów. To nie zawsze widać na YT ale podczas grania róznica jest duzo bardziej widoczna. Plus FSR nadal ma tendencje do pozaostrzania obrazu bo brakuje mu jakości. Co też jest trudniej do uchwycenia na YT niż podczas patrzenia się na monitor.
Tylko dlss
Mając RTX 3060 Ti G6X i monitor 1440p to jestem wręcz zmuszony do grania z DLSS, nawet żeby tym sposobem obniżyć użycie vram, 8gb to robi się już za mało pod koniec roku. Korzystam z trybu jakość jak i balans, zależnie od gry ciężko się dopatrzyć różnicy, chyba, że będziemy ślęczeć nad ekranem i szukać różnicy, nie zawsze jest to widoczne gołym okiem. Dużo szybciej idzie dostrzec mając 2 obrazy obok siebie, ja mam jeden monitor, więc czasem sprawdzam na screenach z gry czy jest różnica. Dlatego wybrałem RTX zamiast RX 6700XT, wiedziałem, że DLSS jest dużo lepszy, a przy takich kartach i tak muszę się ratować tego typu techniką by zyskać trochu fps. Czekam na nowe karty, na nowe rtx jak i rx
Native czyli antyaliasing wylaczony?
TAA włączone
Ja siedzę na RTX 2070 z DLSS jeszcze daje rade, ale czekam już na serię 5000, widzę, że jest teraz ogólny spam serią RTX 4000 by sprzedać leżaki magazynowe 😂
Lepiej kupić rx7900xtx czy rtx 4080 super ?
Super
RTX 4080 Super a dla czego dostajesz Frame genarator i DLLS i RT, a u amd masz niestabilne sterowniki itp więcej dostajesz od Nvidia nieżeli od amd
@@MDgameplayLive Można by wszystko powiedzieć, że Super lepszy bo pobór mocy, RT, kwestia chłodzenia i kultury pracy ale dojebią ze sterownikami XDDDD
@@ard1an307 Sterowniki u AMD to tragedia aktualizacje i stabilność również tragedia wydawane raz na jakiś czas a Nvidia zawsze jakiś nowy sterownik wychodzi jak jakaś nowa gra się pojawi
Poczekaj na nową serię bo stara z ceną spadnie. W obecnej generacji raczej 4080 Super jeżeli interesuje Cię Ray Tracing, 4080S będzie droższa ale ma mniejszy pobór mocy i lepszą kulturę pracy. RX 7900XTX też jest spoko ale bardziej grzeje i zjada więcej prądu i przy tym jest tańszy o około 1000zł, wydajność w rasterze to 1:1 zależy od tytułu. Jakbyś chciał RX'a to odradzam Ci Redevila i cokolwiek od PowerColor w tej generacji, celowałbym w Sapphire lub XFX. Z AMD też dostaniesz FrameGen I FSR tylko, że jak to Blacku pokazał jest gorszy obecnie, następna iteracja będzie pewnie miała AI bo ten tutaj to po prostu algorytm bez AI.
Co by nie mówić o zielonych... DLSS na quality jest świetne . Używam już od dawna w single player. Nje jedną grę już ta opcja uratowała...
W nowszych wersja DLSS nawet balance jest spoko, gdzie kiedyś wyglądał znacznie gorzej ten tryb.
A gdzie xess? Tylko jeden tytuł? Pasowałoby dać choć ze trzy. Brakuje testu disocclusion, animowanych czy przezroczystych tekstur. Tak widocznych na wodzie. Nie ma nawet zoomu na migoczące elementy. Nie wspominając o ray reconstruction.
Jezu jakie to kurwa brzydkie. Cieszę się, że mam kartę zielonych. Przepraszam, że tak powiedziałem i dziękuję za wypowiedź.
DLSS też jest brzydkie jak się przyjrzysz dokładnie. Więc ani jedni jednych, ani drugich nie ma za co chwalić czy ganić. Inna sprawa, że FSR włączysz wszędzie a różnicy podczas intensywnego ruchu nie zobaczysz, bo nikt nie siedzi i nie szuka szczegółów. Najlepsza natywka lub DLDSR.
@@Forioous Nie zgadzam się, ostatnio robiłem porównanie w CP2077 i jest to widoczne gołym okiem. DLSS jest bardziej dopracowane i nie kłuje w oczy jak FSR 3. AMD dalej w tyle za Zielonymi.
@@NeoMartel ale wiesz z czego to wynika i nie powinno cię to dziwić... I tak, jest różnica, ale chyba wiesz dlaczego. FSR też ma plusy, szczególnie 3.1, nie 3 a 3.1.
Super testy wydajnościowe
Fabian zostaw ten RUclips i spadaj do lepienia pierogów na wigilię
Super topka mega giga spoko
nie wiem kto jeszcze w 2024 gra w 1080p, oprócz e-sportowców cs2, a w 2k i 4k przy quality różnica jest minimalna. czekamy na nowe pokolenie kart od AMD, bo chyba Nvidia znowu będzie nam sprzedawać karty z 8 gb vramu w cenach z kosmosu xD
Fsr został poprawiony jest wydajniej
Przecież ty nawet nie wiesz co to jest :-D
A teraz do kuchni i barszcz gotuj a nie siedź na komputerze
@mkskrakusnh bez komentarza
Wydaje mi się, że dla przeciętnego gracza to, że FSR odpalisz na każdej karcie przystaje mieć już znaczenie. GPU, na jakich odpalisz DLSS są już na rynku od 6 lat. 6 lat, bądźmy poważni, mało jaki gracz ma tak stare GPU, chyba, że do kopa do internetu a nie gier. Wiadomo, zdarzają się osoby co jeszcze mają RTX np. 1080Ti, ale jaka to jest nisza.
Frame generation jest tylko dla kart 40, w niektórych grach samo DLSS może już nie dawać rady i bez FG nie da się przebić 60 fps.
@@AjTiOfficial A ktoś tu coś pisał o generacji klatek? Mówimy o DLSS a nie FG. To,że devsi przerzucają się na chujowy UE5 i nie potrafią go optymalizować to inna sprawa, wtedy gry na każdej karcie źle chodzą.
@@AjTiOfficial generator klatek jest dostępny również dla innych kart. Oczywiście zrobiony przez amd
Ogólnie przebijanie bariery 60 klatek za pomocą FG jest kiepskim ruchem. Nie dość że generowane klatki będą bardzo widoczne, to opóźnienie również będzie mocno odczuwalne. Generator najlepiej odpalić przy minimum 50fps+. Moim zdaniem FG najlepiej się sprawdza, gdy chcemy osiągnąć poziom klatek zbliżony do maksymalnego odświeżania naszego monitora typu 120-240hz itd.
Może się czepiam, ale brakło XeSS jednak do porównania
porownywanie dlss z fsr to troche glupota? dlss jest za paywallem w postaci kupienia RTXa a fsr dziala nawet na 1080 ti. intel xess jak juz jest bardziej sensownym przeciwnikiem dlss
Nie, to nie jest głupota. Takie porównanie ma bezpośredni wpływ na to, jakie GPU kupisz.
Market share Nvidii i ilość sprzedanych GPU miażdzy Amd wiec jednozacznie można stwierdzić, że większość ludzi korzysta z Nvidii. Mówienie o byciu za Paywallem jest pomyłką z Twojej strony. Po co testować Intel XESS skoro większość graczy korzysta z DLSS.
Jaki poważny gracz uzywa jeszcze rtx 10xx. GPU obsługujące DLSS są na rynku od ponad 6 lat. 6 lat, bądźmy poważni, gracze nie używają GPU przez 6 lat, GPU zmienia się częściej.
@@jazon9 Zdziwiłbyś się ;)
@@jazon9tymczasem ja w tamtym roku robiący upgrade z 750 2GB na 1060 6GB XD
Nie używam rozmydlaczy i generatorów oraz najnowszej mody czyli kompresji tekstur u NVIDIA. Moj RX6900XT Nitro+ daje na razie radę w 1440p w to w co gram 😊
fsr w trybie jakość - bo mam rx7800xt. Nie odczuwam spadku jakości obrazu, widzę znaczną poprawę klatkażu. Kolejna karta raczej jednak będzie od zielonych - rt jest wymagany w większej ilości tytułów, a amd nieco przysypia. Zostanę z czerwonymi jak się poprawią, ale to za kilka lat dopiero :)
Porównywanie FSR quality z DLSS quality jest bezcelowe. Niestety Nvidia straszne dominuje w tym aspekcie. Polecam odpalić sobie powyższy filmik w 2 oknach tak aby mieć FSR Quality po jednej stronie i DLSS Performance po drugiej. Nawet przy takich forach FSR zostaje mega w tyle.
dopóki ci wystarczy w tańszych kartach 8gb vram, za chwile to bedzie za mało i nvidia będzie z padaczką a amd dalej płynne bo dają 12, 16gb vram w budzetowych kartach.
To dłużej budzetowiec pożyje. Software jest dobry dopóki hardware daje rade. A w drogich kartach i tak tych bajerów lepiej nie używać bo nie po to sie kupuje drogą karte aby psuć grafikę. No i jak ktoś lubi grać na linuxie to tylko amd.
Czemu nie złożyłeś nam życzeń? Tak szanujesz widzów?
A skąd wiesz kiedy nagrywałem film? Wesołych
Tak przy okazji życzenia raczej szacunku nie wyrażają :)
W ogole nie ma o czym rozmawiac.
Trochę spóźnione bo mamy już DLSS 3.8
Jakość implementacji technik różni się co gra, ale z reguły FSR wygląda gorzej i źle na jakimkolwiek presecie. Porównania porównaniami, ale mając RTXa warto wyrobić sobie zdanie bardziej życiowo - przełączając się pomiędzy technikami. Wtedy zasadniczą różnicą jest, że przy FSR artefakty rzucają się w oczy, a po przełączeniu na DLSS łagodzą się albo wcale nie występują. Różnica jest tak duża, że mając dostęp tylko do FSR, wolałbym radzić sobie bez niego, a DLSS Quality już od 2.0 traktuję jak darmowy pakiet fpsu i wygładzania krawędzi.
Na moim :KTC M27P20Pro Mini LED HDMI v2.1 3840x2160 160Hz CertyfikatHDR1000 SUPER SIĘ OGLĄDA KANAŁ WYKORZYSTUJE PREZENTACJE MATERIAŁU 4K