W nowych grach raczej nie da się nie używać upscalingu. Po pierwsze dlatego, że optymalizacja już nie istnieje. A po drugie dlatego, że większość nowych gier ma włączone domyślnie TAA (to jest ten "natywny" obraz) i włączenie upscalingu po prostu poprawia obraz względem TAA. Co by dużo nie mówić upscaling jest teraz najlepszą metodą AA w nowych grach. Niestety.
Ja osobiście to bym wolał aby deweloperzy nie byli tak leniwi jak są i zaczęli optymalizować gry i je dopracowywać, a nie day one patche ważące 100 GB.
@@emilos2495 nie zaczną bo nie wynika to z lenistwa ale z cięcia kosztów. Teraz finansiści i działy finansowe projektują gry. 90% deweloperów nie używa oświetlenia dostosowanego do danego typu gry, tylko domyślnych narzędzi z UE5, te pozostałe 10% to studia które używają własnego silnika.
@@NeoMartel podczas szybszej rozgrywki nawet się tego nie zauważa no chyba, że ktoś musi mieć krystalicznie czysty obraz na najwyższych możliwych ustawieniach to wtedy już może to zauważać, mi natomiast to nie przeszkadza i przeszedłem całego cyberpunka mając włączone FSR kiedy moja poprzednia karta nie wspierała dlss
Nie gram praktycznie w żadne nowsze gry i nie korzystam z tych technologii xD One miały pomagać wyciągać słaby sprzęt za uszy a twórcy gier zrobili sobie z nich powód do braku optymalizowanie gier.
Dla mnie ciekawszym tematem byłoby połącznie upscalera DLSS z generatorem klatek FSR. Jest to możliwe w przy FSR 3.1 i coraz więcej gier to implementuje. Niestety nvidia ma w pomie użytkowników starych kart, a dla mnie temat jest super ciekawy. Wesołych świąt!
generator klatek od amd jest strasznie słaby bo nie przewiduje wektorów ruchu. Coś w temacie się ruszyło dopiero teraz ale nadal wypada to słabo w stosunku do nvidii.
No ja sobie włączam właśnie taką kombinacje np. W Spider-Manie. DLSS quality i amd frame generation w 4K. I stabilne 120 klatek jak na konsoli tyle że grafika nieporównywalnie lepsza bo wszystko na ultra. Na 55 calowym tv oled ze 120Hz matrycą robi to niesamowitą robotę. Zastosowanie tej kombinacji jest o tyle lepsze bo pozwala włączyć V-Sync. Przy generatorze od NVidia takiej opcji nie ma i mimo że FPS jest więcej niż 120, obraz nie jest płynny.
Zobacz gry takie jak ghost of tsushima, god of war, które mają świetne implementacje fsr 3.1 jeśli chodzi o fg. Jakość bardzo podobna do dlss fg.@@キウィキウィ
Największą wadą FSR jest migotanie krawędzi. Szczególnie gdy gramy w 1080p. Naprawili to? Można padaczki dostać w niektórych grach, jak np. Cyberpunk ;) Mam Radeona 6650XT, ale wszędzie gdzie tylko mogę odpalam Intel XeSS zamiast FSR. Co brzmi absurdalnie. Intel zrobił lepszy upscalling na karty AMD, niż samo AMD... W Marvel Rivals też mam wrażenie, że XeSS działa lepiej, niż FSR. W zasadzie przez ten fakt który wymieniłem, mocno brakuje w tym materiale XeSS ;)
być może fsr 4.0 wszystko naprawi, ale gdy dojdzie "optical flow" jak w B580 czy RTX 4000 to wtedy (będzie działać na wektorach i w końcu będzie dobrej jakości) nie będzie wstecznej kompatybilności tzw. fsr 4.0 będzie działać tylko na RDNA4.
Do generowania klatek to używam Lossless Scaling - monitor 3440x1440, karta RTX 3070. Dokupiłem do tego RX 6500XT. Tak więc monitor mam ustawiony na 120Hz, w sterowniku nV mam zablokowane klatki na 60Hz. Monitor podłączony pod RX 6500XT aby nie obciążać lini PCIe - bo niestety mam chipset b550 i karta (RX 6500) jest ograniczona do PCIe 3.0x4 (fabrycznie obsługuje 4.0x4). A i w ustawieniach trzeba wybrać aby w trybie obciążenia renderował na RTX 3070 a najlepiej każdą aplikację ręcznie przypisać do lepszej karty bo zauważyłem np. w Wieśku scenę 3D renderowało na RTXie a mapę na RXie tak więc lepiej przypisać każdą aplikację do karty. No i trochę poustawiać sam program ale jak już się wyhaczy o co chodzi to chodzi świetnie. Zaletą tego programu jest to że mogę sobie odpalić generator w każdej grze, nawet tych które były zablokowane np. na 30FPS. Drugą zaletą jest możliwość wybrania na której karcie ma pracować generator klatek. A zaletą generowania na drugiej karcie to podwojenie liczby klatek i mniejsze opóźnienia. Bo jak miałem normalnie np. 60 klatek i włączyłem generator na tej samej karcie to klatki natywne spadały do ok. 40. Nie ma nic za darmo, a z drugą kartą to jak mam 60FPS + generator = 120FPS. Ale się rozpisałem😁
Zdrowych i spokojnych świąt blacku ! Co do upscallingu, nigdy nie używałem w 1080p ze wzgledu na słabą jakość obrazu, a w 1440p czy po podlaczeniu tv 4k to jak najbardziej. Daje to drugie życie karcie oferując darmową wydajność, plus nie muszę myśleć o wymianie GPU co 2 lata, tak więc nvidia sama sobie strzeliła w stopę. Niestety jak większość osób zauważyło, słowo optymalizacja przestaje pomału istnieć, dodatkowo bardzo nie podoba mi się marketing nvidii gdzie w slajdach porównujących starszą generację do najnowszej nie używa się czystej rasteryzacji, tylko techniki upscallingu z dodatkowym uzyciem FG....
Dzieki za materiał. Polecam zainteresować się modem opicscaler, który umożliwia włączenie xess lub fsr 3 w grach które natywnie posiadają tylko dlss. Testowałem to narzędzie na Metro Exodus EE i działa bardzo dobrze xess w jakości Q i rozdzielczości 1080p na bardzo wysokich detalach z rt na karcie rx6600xt.
Z tym upscalingiem to jest jakbyś chciał zrobić z igły widły, ile to już wersji było, czemu się nie rozwija technologii temporal antialiasing bez utraty jakości obrazu? co z tego że w statycznych scenach jest fajnie, tutaj na teście postać nie przemieszcza się na boki, wtedy dopiero jest lipa, w nowym stalkerze ghosting na roślinności to norma przy fsr i dlss, dobrze jest jak idziesz do przodu ale gorzej jak przemieszczasz postać na boki.
Rok temu kupowałem RX7800XT pod ekran 4k z zamiarem używania upscalingu, czekając kolejne kilka lat na przystępne cenowo karty do 4k. Póki co żadnego zamiennika nie widać.
A jak wyglada sytuacja z frametime? Tego nik nie przedstawia. Tylko czysta rasteryzacja. Po co kilka klatek wiecej jak gra jest pływająca i mniej responsywna. Smużenia i migania to norma.
Grając ostatnio w Hunt Showdown trochę męczyłem się z dropami klatkarzu w natywnym 3440X1440 (nierówne 60 fps) Niestety DLSS w tej grze daje więcej klatek ale rysowanie na dalekim dystansie cierpi na nieostry obraz o ile w grach akcji singlowych to bez znaczenia dla mnie to w takim kompetytywnym tytule jest to ważne. Postanowiłem spróbować patentu który używany przez graczy w Alien Isolation by zminimalizować efekt postrzępionych krawędzi odpalało się grę z włączonym upscalerem z poziomu sterownika (DSR) w moim przypadku Hunt renderowany jest do rozdzielczości o 33% wyższej od 3440X1440 czyli do 4587X1920px do tego ustawiam DLSS na tryb płynności i mam 60 klatek solid a ostrość obrazu jest po prostu doskonała. Pewnie nie w każdej grze to będzie dobrze działać a i trzeba mieć zapas mocy ale jak już się ma to efekty są naprawdę warte uwagi.
Szkoda, że developerzy często źle implememtują fsr 3.1 i występują problemy z płynnością fg/frametime. Dodatkowo pomijają implementację Anti-Lag 2 z jakiegoś powodu, polecam optiscaler(mod) do gier z chu**** implementacją.
Nowe gry mają zero optymalizacji i są maksymalnie rozmazane. Raczej będę omijał nowe tytuły dopóki nie wyjdzie jakaś stabilna technologia niwelująca schody i ząbkowanie dla Full HD. MSAA dawało radę a teraz to jest jakieś nieporozumienie z TAA. Nie dość, że gierki są coraz gorzej zrobione to jeszcze wyglądają jak kasza manna... nic dziwnego, że studia i duzi wydawcy masowo plajtują... ahh jeszcze ten system pre-orderów xD. Niestety mi się Stalker wysypuje na 4060Ti jak ustawiłem FSR 3.1.
Jak w gierce jest tak 45/60 fps z dlss na trybie jakość w 4k to jak do tego fg odpalę to złoto. Gram właśnie w space marine 2 na 4070 ti super to 90% gry w 4 k dlss i fg ponad 100 fps na telewizorze 120k z vrr nie ma żadnego rwania obrazu też mogłeś wspomnieć bo teraz dużo telewizorów, monitorów neguje mocno te efekty. W dragon's dogma 2 właśnie też zauważyłem, że rozdzielczość natywna przegrywa z trybem jakości dlss co jest dziwne jak dla mnie, ale tez dobrze świadczy o samej technologii. Znając życie to pewnie w serii 5000 cos nvidia dołoży i oleje serie 4000...
1:55 chyba spadki jakości obrazu, nie wydajności ;) Nieważne jak bardzo bym się nie starał, chciwa nvidia zawsze wygrywa. Dlss w 90% gier wygląda lepiej i chodzi lepiej niż fsr. Nie wspominając już o tym, że 70% gier obsługuje tylko dlss. Ta gra jest niestety kolejnym potworem zniszczonym przez TAA unreala. Bez filtra wyostrzającego nie da się w to mydło grać
Dzieki za prownianie, fajny film. Migotanie widać rowniez w odbiciach na wodzie roslin na srodku ekranu. Mógłbyś porównać jakość Path tracingu, nie udalo mi sie znaleźć porównań, jedynie filmy wychwalajace jakosc na nvidii
Fajnie tylko fsr (fx, integer scaling, fluid motion frames) nie działa z eyefinity, a dlss i fg z nvsurround już tak - a w trzymonitorowych konfiguracjach takie skalowanie rozdzielczości i wygładzanie daje efekty.
I tak kupiłem AMD XD Nvidia nic ode mnie nie dostanie za te kastraty po zawyżonych cenach. Żebym nie wyszedł na fanboya tłumacze swoje poglądy tym, że nie interesują mnie tytuły gier, w których gpu nvidii daje solidne korzyści. Kiedy porównanie generatorów klatek? A może nawet w połączeniu z metodami upscalingu
AMD robi tańsze i słabe karty graficzne. Miałem RX 580 w dwóch wersja i był dramat. Czarne ekrany wysokie temperatury i słabe działanie dodatkowych funkcji oraz sterowników.
W call of duty porownywalem w 4k dlss do fsr, twarz z bliska, broda na dlss zbalansowanym wygladala lepiej jak fsr jakosc, a dlss jakosc lepiej jak natywnie :)
tiaaa... i wtedy sie obudziles... dlls lepiej jak natywnie... na zblizeniu... no po prostu panie cuda marketingu.. teoria informacji w d*pie bo ja widzialem... przypomina audiofili co to slyszeli i wiedza ze ten kabel gra lepiej.
Tak/nie, zależy od tytułu, na pewno przewagą 7900XTX jest 20 GB VRAM nad ledwie 12GB 4070 Ti, ostatni Indiana Jones pokazuje że ten RAM zaczyna nabierać wartości i że może warto byłoby celować powyżej 12GB w tym temacie.
W teorii natywnie generowana klatka zawsze powinna być ostrzejsza, bo FSR i DLSS generują klatkę niższej rozdzielczości i podbijają do natywnej wyświetlanej
@@jazon9 co wynika z kiepskiego AA w natywnym obrazie. wystarczy sobie ustawić AA jako FSR/DLSS w 100% i wszelkie FSR/DLSS zostają wyjaśnione. I jest to zabieg celowy oszustwa nVidii, żeby właśnie takim nie kumającym 'udowodnić' że DLSS jest 'lepszy'. Kupa a nie jest lepszy. Przy tych samych warunkach jest zawsze gorszy. Bo jest to technika stratna z natury, teoria informacji się kłania, a nie jedzenie marketingowych bełtów nVidii.
@@jazon9 Tak jest, dokładnie tak, detal w DLSS jest większy niż natywnie xD gdzie go nie było bo AI wygenerowało cokolwiek z zaniżonej rozdzielczości i Jensem wmawia ludziom, że tak powinna wyglądać natywna klatka, ale tak nie wygląda bo nie, bo generowanie natywnych klatek po prostu jest gorsze od upscalowania xD Weź leki i idź spać albo klękać przed Jensenem. Możesz od razu dać linki do tych "niesławnych" screenów z Death Stranding dla prawdziwych dzbanów co łykają wszystko IKS DE xD
U mnie ziomek używa fsr mimo, że ma kartę nvidi. Dlaczego? Bo 3080 z ebaya była tańsza o 400zł od 4060 :) A kochana nvidia jakimś niewiarygodnym cudem nie potrafi umożliwić kartom serii 30 odpalić swojego fg. Najczęściej opłaca się fsr+fsr fg chociaż w niektórych grach dostępny jest mod na odpalenie dlssa wraz frame genem od fsr. Cały komp mu złożyłem za około 3600 (r5 7500f, aorus 3080, 1tb 7000/6800, 850w gold modularny od msi, 32gb 6000/30 i płyta z wifi) Dzięki bogu to fsr istnieje bo inaczej trzeba by kupić tą śmieszną 4060 która przy upsaclingu obu kart przegrywa często nawet dwukrotnie
Ja gram na1080p z wlaczonym fsr w trybie jakosc i jak dla mnie jest świetnie. Chodzi o FS25 ustawienia b.wysokie gdzie gracze z kartami zielonych ciut narzekaja
Ja używam FSR w grze gatcha Wuthering Waves, gram w 2160p na Radeonie 6950XT. Bez FSR mam 90-100 klatek, z FSR gra dobija mi do sztywnego limitu klatek, ustalonego w grze, czyli 120. Ja tam nie widzę jakichś defektów graficznych, a przynajniej nie rzucaja się w oczy w trakcie grania.
Według mnie obniżenie jakości elementów nie jest tak denerwujące jak migotanie, które automatycznie zwraca twoją uwagę podczas rozgrywki i bardzo denerwuje.
DLSS, FSR, XeSS robia tak, że z 720p zrobia ci 1080p, przez co masz wiecej fps a Frame Generation nie robi nic z rozdzielczościa tylko generuje klatke miedzy już istniejące
@@xGodix Wpłynie na opoźnienie plus mogą wystepować też artefakty jeżeli argorytm źle wygeneruje klatke miedzy prawdziwe zaleca się używać FG jeżeli mamy, chociaż stabilne 60, bo FG musi mieć skąd brać informacje o obrazie wiec nim wiecej bazowych FPS tym lepiej
Jak dla mnie FSR realnie smuży bardziej niż DLSS i jest więcej szumów i artefaktów. To nie zawsze widać na YT ale podczas grania róznica jest duzo bardziej widoczna. Plus FSR nadal ma tendencje do pozaostrzania obrazu bo brakuje mu jakości. Co też jest trudniej do uchwycenia na YT niż podczas patrzenia się na monitor.
Powtarzam to od dawna, że FSR do niczego się nie nadaje. Jedynie w 4K na "jakość" jeszcze ujdzie. W 2K nawet na "jakość" dla mnie osobiście robi dramat z obrazu. Natomiast DLSS w wielu grach wręcz poprawia jakość obrazu i wygląda lepiej niż natywne ustawienie. Korzystam z DLSS (jedynie na "jakość") wszędzie gdzie się da 👍 To samo z RT, od trzech lat tłumaczę, że bez tego nie ma sensu grać, że to przyszłość, to "po co? Na co to komu? Zrobimy testy amd vs nvidia w czystej rasteryzacji! RT nic nie daje". A teraz każdy youtuber się zachwyca RT (nawet hipokryci co jeszcze kilka miesięcy temu negowali jego zasadność, zapewne siedząc na Radeonach, które im RT nie ogarniały). I nareszcie pojawiają się pierwsze gry w których nawet tej opcji nie wyłączysz 💁♂️ Koniec taryfy ulgowej dla Radeonów. Czas testów w czystym rasterze dobiega końca.
Nie przesadzaj z tym RT, ktoś może mieć tak samo gdzieś RT jak wysoka jakość cieni. Co do FSR, ludzie chyba są ślepi a w 1080p dziwię się że w ogóle do domu trafiają. FSR jak rozmydlal obraz tak robi to nadal, FG od amd natomiast robi pływający obraz w niektórych grach. Dlss w zależności od gry czy 2.0 lub 3.0 i jak to ai zostalo wyuczone. Miałem kartę od amd, teraz Rtx 4070 więc widzę faktycznie jak jest a nie na RUclips. Wnioski - FSR nawet nie ma podejścia do dlss i fg NVidii.
Trochę mi to przypomina: FSR - Niech wszystko będzie rozmyte (Blur) DLLS - Nie lubimy "rozmycia" (Blur`a) z FSR wyjątek dla mnie to Starfield tam jest OK pozostałe gry wole natywną choć FS25 namawiam "włącz mnie" bo optymalizacja tam jest ..... słaba jeszcze STALKER 2 - Ciężki tytuł na PC, sam korzystam z generatora klatek, ponieważ lubię epickie detale. Osiągam 40-55 FPS w Zonie (60-70 FPS w mniej wymagających miejscach) z generatorem klatek 70-95 FPS (R7 5800X -25 Curve, RX 6700 XT 32GB 3600 MHz) i, o dziwo, różnica jest odczuwalna. Fakt, że nie jest to wystarczająca płynność dla monitora o częstotliwości odświeżania 144 Hz, ale i tak wystarcza. Zawsze można dostosować detale, jednak z tego, co sprawdzałem, czasami wystarczy zmiana jednej opcji, aby spadło o 20 FPS, podczas gdy inne zmieniają wynik o 2-3 FPS. Tak więc, da się samodzielnie zoptymalizować ustawienia pod kątem detali, aczkolwiek trudniej jest, kiedy zmiany nic nie wnoszą - wtedy to dopiero bywa frustrujące. Najbardziej wydajność zabijają shadery (np. cienie, światła itd.), roślinność i dystans renderowania. Wliczając w to również kosmetyczne cienie kontaktowe itd., które czasami wpływają na niekorzyść jakości. - Nie wiem, po co robią tyle detali, a jeszcze jak tego nie zoptymalizują, to nawet najwydajniejsze GPU potrafi klęknąć. :D
Z tym rozmyciem to bywa różnie ale dlss też potrafi mydlić. Niektóre gry nie mają w ogóle suwaka Sharpening albo załączają go domyślnie na zbyt wysoką wartość. Problem przy FSR to ta dyskoteka (migotanie) i pikseloza.
@@kaelos4 Z tym migotaniem zauważyłem problem od jakiegoś czasu i nie wiem, czy wynika to z którejś wersji sterownika, czy jest związane z odświeżaniem 144 Hz. Sprawdzałem różne opcje, takie jak input lag, ulepszony refresh rate, tryb gry oraz zmienną częstotliwość odświeżania, ale problem nadal występuje. Nie pojawia się wszędzie, nawet w grze Satisfactory, w której wcześniej nigdy nie miałem podobnego problemu. Z tego, co dowiedziałem się w najnowszej aktualizacji FS25, wspomniano o poprawieniu "migotania", ale nie wiem, co dokładnie może być tego przyczyną. Rozwinięcie: Migotanie obrazu w grach, szczególnie w kontekście odświeżania 144 Hz, może wynikać z kilku różnych czynników. Może to być związane z ustawieniami sterowników karty graficznej, specyficznymi opcjami odświeżania ekranu, a także różnymi technologiami optymalizacji obrazu, takimi jak FSR (FidelityFX Super Resolution) czy G-Sync. Problem migotania w grach, mimo braku takich trudności wcześniej, może wynikać z wprowadzenia nowych aktualizacji sterowników lub zmian w systemie operacyjnym, które wpływają na synchronizację obrazu z częstotliwością odświeżania monitora. Warto też zauważyć, że różne gry mogą mieć różne reakcje na te ustawienia. Nawet jeśli problem nie występuje w innych tytułach, w przypadku gier takich jak Satisfactory, może to wynikać z subtelnych różnic w silniku gry, co może prowadzić do problemów z synchronizacją. Aktualizacja, o której wspomniano w FS25, sugeruje, że problem migotania mógł zostać zidentyfikowany i zaadresowany przez deweloperów, ale ostateczne rozwiązanie może zależeć od pełnej kompatybilności sterowników, ustawień ekranu oraz samej gry.
FSR 3.1 powoduje straszne artefakty wokół postaci i jak np jakieś particle latają. Widać też czasami miganie tekstur. Można to sprawdzić w takim ghost of tsuhima, czy final fantasy 16.
Mając RTX 3060 Ti G6X i monitor 1440p to jestem wręcz zmuszony do grania z DLSS, nawet żeby tym sposobem obniżyć użycie vram, 8gb to robi się już za mało pod koniec roku. Korzystam z trybu jakość jak i balans, zależnie od gry ciężko się dopatrzyć różnicy, chyba, że będziemy ślęczeć nad ekranem i szukać różnicy, nie zawsze jest to widoczne gołym okiem. Dużo szybciej idzie dostrzec mając 2 obrazy obok siebie, ja mam jeden monitor, więc czasem sprawdzam na screenach z gry czy jest różnica. Dlatego wybrałem RTX zamiast RX 6700XT, wiedziałem, że DLSS jest dużo lepszy, a przy takich kartach i tak muszę się ratować tego typu techniką by zyskać trochu fps. Czekam na nowe karty, na nowe rtx jak i rx
@@ard1an307 Sterowniki u AMD to tragedia aktualizacje i stabilność również tragedia wydawane raz na jakiś czas a Nvidia zawsze jakiś nowy sterownik wychodzi jak jakaś nowa gra się pojawi
Poczekaj na nową serię bo stara z ceną spadnie. W obecnej generacji raczej 4080 Super jeżeli interesuje Cię Ray Tracing, 4080S będzie droższa ale ma mniejszy pobór mocy i lepszą kulturę pracy. RX 7900XTX też jest spoko ale bardziej grzeje i zjada więcej prądu i przy tym jest tańszy o około 1000zł, wydajność w rasterze to 1:1 zależy od tytułu. Jakbyś chciał RX'a to odradzam Ci Redevila i cokolwiek od PowerColor w tej generacji, celowałbym w Sapphire lub XFX. Z AMD też dostaniesz FrameGen I FSR tylko, że jak to Blacku pokazał jest gorszy obecnie, następna iteracja będzie pewnie miała AI bo ten tutaj to po prostu algorytm bez AI.
Czyli FSR jak był na śmietnik tak nadal jest na śmietnik. Wzieliby się za optymalizacje a nie robią te gry na od***dol, a potem no nasz klient na RTX 4090 odpali sobie FSR ktore natywnie bedzie renderowac wazeline z 720p do 4K.
@@Wodagazowana5000 Ja w kapeli pt. konsola gram od paru dekad. nigdy gorszego upscalowania nie widzialem jak na bazowej PS5 czy XSX gdzie widzisz logo unreal engine 5 i juz wiesz ze bedzie dramat. PS5 Pro troche ratuje sytuacje z PSSR ale to tylko dlatego ze FSR to jest absolutny smietnik a deweloperzy naduzywaja tego ponad granice ludzkiej przyzwoitości. PS3 mialo wiecej pikseli na ekranie niz te badziewie na UE5 z FSR.
@reapzzer planuje zakup pc z nvidią bo mi szkoda zycia na granie w 720p na ps5 xD ale sa gry gdzie mam wrazenie ze gram w 4k. God of War, Ratchet albo remaster The Last of Us czy spiderman 2. Ale w 40 fps
@@Wodagazowana5000 Spoko spoko kupisz nowego kompa w cenie 3 ps5 pro, a i tak DLSS na balanced bedzie odpalany bo deweloper z dwoma szarymi komorkami mysli ze kazdy ma PC z 1TB ramu i 3 RTX 5090. Gry sprzed ery UE5 smigaja az miło na ultra i wysokich rozdzielczościach, a to co wychodzi na świeżo temu nawet 5090 nie pomoże.
Wydaje mi się, że dla przeciętnego gracza to, że FSR odpalisz na każdej karcie przystaje mieć już znaczenie. GPU, na jakich odpalisz DLSS są już na rynku od 6 lat. 6 lat, bądźmy poważni, mało jaki gracz ma tak stare GPU, chyba, że do kopa do internetu a nie gier. Wiadomo, zdarzają się osoby co jeszcze mają RTX np. 1080Ti, ale jaka to jest nisza.
@@AjTiOfficial A ktoś tu coś pisał o generacji klatek? Mówimy o DLSS a nie FG. To,że devsi przerzucają się na chujowy UE5 i nie potrafią go optymalizować to inna sprawa, wtedy gry na każdej karcie źle chodzą.
Ogólnie przebijanie bariery 60 klatek za pomocą FG jest kiepskim ruchem. Nie dość że generowane klatki będą bardzo widoczne, to opóźnienie również będzie mocno odczuwalne. Generator najlepiej odpalić przy minimum 50fps+. Moim zdaniem FG najlepiej się sprawdza, gdy chcemy osiągnąć poziom klatek zbliżony do maksymalnego odświeżania naszego monitora typu 120-240hz itd.
A gdzie xess? Tylko jeden tytuł? Pasowałoby dać choć ze trzy. Brakuje testu disocclusion, animowanych czy przezroczystych tekstur. Tak widocznych na wodzie. Nie ma nawet zoomu na migoczące elementy. Nie wspominając o ray reconstruction.
fsr w trybie jakość - bo mam rx7800xt. Nie odczuwam spadku jakości obrazu, widzę znaczną poprawę klatkażu. Kolejna karta raczej jednak będzie od zielonych - rt jest wymagany w większej ilości tytułów, a amd nieco przysypia. Zostanę z czerwonymi jak się poprawią, ale to za kilka lat dopiero :)
Nie używam rozmydlaczy i generatorów oraz najnowszej mody czyli kompresji tekstur u NVIDIA. Moj RX6900XT Nitro+ daje na razie radę w 1440p w to w co gram 😊
DLSS też jest brzydkie jak się przyjrzysz dokładnie. Więc ani jedni jednych, ani drugich nie ma za co chwalić czy ganić. Inna sprawa, że FSR włączysz wszędzie a różnicy podczas intensywnego ruchu nie zobaczysz, bo nikt nie siedzi i nie szuka szczegółów. Najlepsza natywka lub DLDSR.
@@Forioous Nie zgadzam się, ostatnio robiłem porównanie w CP2077 i jest to widoczne gołym okiem. DLSS jest bardziej dopracowane i nie kłuje w oczy jak FSR 3. AMD dalej w tyle za Zielonymi.
@@NeoMartel ale wiesz z czego to wynika i nie powinno cię to dziwić... I tak, jest różnica, ale chyba wiesz dlaczego. FSR też ma plusy, szczególnie 3.1, nie 3 a 3.1.
Jakość implementacji technik różni się co gra, ale z reguły FSR wygląda gorzej i źle na jakimkolwiek presecie. Porównania porównaniami, ale mając RTXa warto wyrobić sobie zdanie bardziej życiowo - przełączając się pomiędzy technikami. Wtedy zasadniczą różnicą jest, że przy FSR artefakty rzucają się w oczy, a po przełączeniu na DLSS łagodzą się albo wcale nie występują. Różnica jest tak duża, że mając dostęp tylko do FSR, wolałbym radzić sobie bez niego, a DLSS Quality już od 2.0 traktuję jak darmowy pakiet fpsu i wygładzania krawędzi.
Porównywanie FSR quality z DLSS quality jest bezcelowe. Niestety Nvidia straszne dominuje w tym aspekcie. Polecam odpalić sobie powyższy filmik w 2 oknach tak aby mieć FSR Quality po jednej stronie i DLSS Performance po drugiej. Nawet przy takich forach FSR zostaje mega w tyle.
dopóki ci wystarczy w tańszych kartach 8gb vram, za chwile to bedzie za mało i nvidia będzie z padaczką a amd dalej płynne bo dają 12, 16gb vram w budzetowych kartach. To dłużej budzetowiec pożyje. Software jest dobry dopóki hardware daje rade. A w drogich kartach i tak tych bajerów lepiej nie używać bo nie po to sie kupuje drogą karte aby psuć grafikę. No i jak ktoś lubi grać na linuxie to tylko amd.
nie wiem kto jeszcze w 2024 gra w 1080p, oprócz e-sportowców cs2, a w 2k i 4k przy quality różnica jest minimalna. czekamy na nowe pokolenie kart od AMD, bo chyba Nvidia znowu będzie nam sprzedawać karty z 8 gb vramu w cenach z kosmosu xD
Ja siedzę na RTX 2070 z DLSS jeszcze daje rade, ale czekam już na serię 5000, widzę, że jest teraz ogólny spam serią RTX 4000 by sprzedać leżaki magazynowe 😂
porownywanie dlss z fsr to troche glupota? dlss jest za paywallem w postaci kupienia RTXa a fsr dziala nawet na 1080 ti. intel xess jak juz jest bardziej sensownym przeciwnikiem dlss
Market share Nvidii i ilość sprzedanych GPU miażdzy Amd wiec jednozacznie można stwierdzić, że większość ludzi korzysta z Nvidii. Mówienie o byciu za Paywallem jest pomyłką z Twojej strony. Po co testować Intel XESS skoro większość graczy korzysta z DLSS.
Jaki poważny gracz uzywa jeszcze rtx 10xx. GPU obsługujące DLSS są na rynku od ponad 6 lat. 6 lat, bądźmy poważni, gracze nie używają GPU przez 6 lat, GPU zmienia się częściej.
Używacie upscalingu, czy raczej obniżacie detale w grach?
Ja nigdy nie widziałem różnicy między dlss quality a natywną rozdzielczością więc używam zawsze dlssa bo zawsze jest wzrost klatek
W nowych grach raczej nie da się nie używać upscalingu. Po pierwsze dlatego, że optymalizacja już nie istnieje. A po drugie dlatego, że większość nowych gier ma włączone domyślnie TAA (to jest ten "natywny" obraz) i włączenie upscalingu po prostu poprawia obraz względem TAA. Co by dużo nie mówić upscaling jest teraz najlepszą metodą AA w nowych grach. Niestety.
Ja osobiście to bym wolał aby deweloperzy nie byli tak leniwi jak są i zaczęli optymalizować gry i je dopracowywać, a nie day one patche ważące 100 GB.
tak ;)
@@emilos2495 nie zaczną bo nie wynika to z lenistwa ale z cięcia kosztów. Teraz finansiści i działy finansowe projektują gry. 90% deweloperów nie używa oświetlenia dostosowanego do danego typu gry, tylko domyślnych narzędzi z UE5, te pozostałe 10% to studia które używają własnego silnika.
Neon z kurvinoxem dodaje jakże świątecznej atmosfery wraz z unoszącą się w powietrzu wonią solnika.
Te wszystkie dlssy tylko rozleniwiają twórców gier którzy nie znają już słowa OPTYMALIZACJA.
powiedział co wiedział
@@nskubix3196powiedział to językiem faktów
@@nskubix3196twój ojciec też myślał że wie ale skończyło się na podróży po mleko
@@nskubix3196 ?????????
Optymalizacja to dodatkowy koszt, lepiej dowalić 10 dlc za hajs w tym czasie.
Ważne że FSR wciąż jest poprawiane👍plus dla amd.
Tia, a dalej paskudne jak cholera.
@@NeoMartel Darmowe,dzialajace na kazdej karcie,nie wymagajace placenia za dodatkowe rdzenie w karcie ;) Paskudne?Nie powiedzialbym.
@@NeoMartel podczas szybszej rozgrywki nawet się tego nie zauważa
no chyba, że ktoś musi mieć krystalicznie czysty obraz na najwyższych możliwych ustawieniach to wtedy już może to zauważać, mi natomiast to nie przeszkadza i przeszedłem całego cyberpunka mając włączone FSR kiedy moja poprzednia karta nie wspierała dlss
@@NeoMartel tak samo tragiczne jak i dlss xd
dalej daaaleko w tyle od xess
Nie gram praktycznie w żadne nowsze gry i nie korzystam z tych technologii xD One miały pomagać wyciągać słaby sprzęt za uszy a twórcy gier zrobili sobie z nich powód do braku optymalizowanie gier.
Dziękuję za materiał, aż miło posłuchać jak zawszę od ponad 10 lat, Wesołych świąt.... życzę :)
Dla mnie ciekawszym tematem byłoby połącznie upscalera DLSS z generatorem klatek FSR. Jest to możliwe w przy FSR 3.1 i coraz więcej gier to implementuje. Niestety nvidia ma w pomie użytkowników starych kart, a dla mnie temat jest super ciekawy. Wesołych świąt!
generator klatek od amd jest strasznie słaby bo nie przewiduje wektorów ruchu. Coś w temacie się ruszyło dopiero teraz ale nadal wypada to słabo w stosunku do nvidii.
No ja sobie włączam właśnie taką kombinacje np. W Spider-Manie. DLSS quality i amd frame generation w 4K. I stabilne 120 klatek jak na konsoli tyle że grafika nieporównywalnie lepsza bo wszystko na ultra. Na 55 calowym tv oled ze 120Hz matrycą robi to niesamowitą robotę. Zastosowanie tej kombinacji jest o tyle lepsze bo pozwala włączyć V-Sync. Przy generatorze od NVidia takiej opcji nie ma i mimo że FPS jest więcej niż 120, obraz nie jest płynny.
@@キウィキウィjuz przewiduje wektor i w bo6 mozna wlaczyc dlss i tylko generator amd
Zobacz gry takie jak ghost of tsushima, god of war, które mają świetne implementacje fsr 3.1 jeśli chodzi o fg. Jakość bardzo podobna do dlss fg.@@キウィキウィ
@@キウィキウィ dlatego chętnie bym zobaczył testy
Największą wadą FSR jest migotanie krawędzi. Szczególnie gdy gramy w 1080p.
Naprawili to?
Można padaczki dostać w niektórych grach, jak np. Cyberpunk ;)
Mam Radeona 6650XT, ale wszędzie gdzie tylko mogę odpalam Intel XeSS zamiast FSR. Co brzmi absurdalnie. Intel zrobił lepszy upscalling na karty AMD, niż samo AMD...
W Marvel Rivals też mam wrażenie, że XeSS działa lepiej, niż FSR.
W zasadzie przez ten fakt który wymieniłem, mocno brakuje w tym materiale XeSS ;)
być może fsr 4.0 wszystko naprawi, ale gdy dojdzie "optical flow" jak w B580 czy RTX 4000 to wtedy (będzie działać na wektorach i w końcu będzie dobrej jakości) nie będzie wstecznej kompatybilności tzw. fsr 4.0 będzie działać tylko na RDNA4.
Też używam w cymbergaju XESS, bo lepiej działa niż FSR i DLSS.
Do generowania klatek to używam Lossless Scaling - monitor 3440x1440, karta RTX 3070. Dokupiłem do tego RX 6500XT. Tak więc monitor mam ustawiony na 120Hz, w sterowniku nV mam zablokowane klatki na 60Hz. Monitor podłączony pod RX 6500XT aby nie obciążać lini PCIe - bo niestety mam chipset b550 i karta (RX 6500) jest ograniczona do PCIe 3.0x4 (fabrycznie obsługuje 4.0x4). A i w ustawieniach trzeba wybrać aby w trybie obciążenia renderował na RTX 3070 a najlepiej każdą aplikację ręcznie przypisać do lepszej karty bo zauważyłem np. w Wieśku scenę 3D renderowało na RTXie a mapę na RXie tak więc lepiej przypisać każdą aplikację do karty. No i trochę poustawiać sam program ale jak już się wyhaczy o co chodzi to chodzi świetnie. Zaletą tego programu jest to że mogę sobie odpalić generator w każdej grze, nawet tych które były zablokowane np. na 30FPS. Drugą zaletą jest możliwość wybrania na której karcie ma pracować generator klatek. A zaletą generowania na drugiej karcie to podwojenie liczby klatek i mniejsze opóźnienia. Bo jak miałem normalnie np. 60 klatek i włączyłem generator na tej samej karcie to klatki natywne spadały do ok. 40. Nie ma nic za darmo, a z drugą kartą to jak mam 60FPS + generator = 120FPS. Ale się rozpisałem😁
Szkoda że nie ma porównania do XESS 2.
Zdrowych i spokojnych świąt blacku !
Co do upscallingu, nigdy nie używałem w 1080p ze wzgledu na słabą jakość obrazu, a w 1440p czy po podlaczeniu tv 4k to jak najbardziej. Daje to drugie życie karcie oferując darmową wydajność, plus nie muszę myśleć o wymianie GPU co 2 lata, tak więc nvidia sama sobie strzeliła w stopę.
Niestety jak większość osób zauważyło, słowo optymalizacja przestaje pomału istnieć, dodatkowo bardzo nie podoba mi się marketing nvidii gdzie w slajdach porównujących starszą generację do najnowszej nie używa się czystej rasteryzacji, tylko techniki upscallingu z dodatkowym uzyciem FG....
Ja mam RTX 4070 Super i monitor 1440p i używam zawsze DLSS w ustawieniu jakość. Detale staram się ustawiać ultra lub wysokie / bardzo wysokie.
Dzieki za materiał. Polecam zainteresować się modem opicscaler, który umożliwia włączenie xess lub fsr 3 w grach które natywnie posiadają tylko dlss. Testowałem to narzędzie na Metro Exodus EE i działa bardzo dobrze xess w jakości Q i rozdzielczości 1080p na bardzo wysokich detalach z rt na karcie rx6600xt.
Z tym upscalingiem to jest jakbyś chciał zrobić z igły widły, ile to już wersji było, czemu się nie rozwija technologii temporal antialiasing bez utraty jakości obrazu? co z tego że w statycznych scenach jest fajnie, tutaj na teście postać nie przemieszcza się na boki, wtedy dopiero jest lipa, w nowym stalkerze ghosting na roślinności to norma przy fsr i dlss, dobrze jest jak idziesz do przodu ale gorzej jak przemieszczasz postać na boki.
Rok temu kupowałem RX7800XT pod ekran 4k z zamiarem używania upscalingu, czekając kolejne kilka lat na przystępne cenowo karty do 4k. Póki co żadnego zamiennika nie widać.
A jak wyglada sytuacja z frametime? Tego nik nie przedstawia. Tylko czysta rasteryzacja. Po co kilka klatek wiecej jak gra jest pływająca i mniej responsywna. Smużenia i migania to norma.
Grając ostatnio w Hunt Showdown trochę męczyłem się z dropami klatkarzu w natywnym 3440X1440 (nierówne 60 fps) Niestety DLSS w tej grze daje więcej klatek ale rysowanie na dalekim dystansie cierpi na nieostry obraz o ile w grach akcji singlowych to bez znaczenia dla mnie to w takim kompetytywnym tytule jest to ważne. Postanowiłem spróbować patentu który używany przez graczy w Alien Isolation by zminimalizować efekt postrzępionych krawędzi odpalało się grę z włączonym upscalerem z poziomu sterownika (DSR) w moim przypadku Hunt renderowany jest do rozdzielczości o 33% wyższej od 3440X1440 czyli do 4587X1920px do tego ustawiam DLSS na tryb płynności i mam 60 klatek solid a ostrość obrazu jest po prostu doskonała. Pewnie nie w każdej grze to będzie dobrze działać a i trzeba mieć zapas mocy ale jak już się ma to efekty są naprawdę warte uwagi.
Szkoda, że developerzy często źle implememtują fsr 3.1 i występują problemy z płynnością fg/frametime. Dodatkowo pomijają implementację Anti-Lag 2 z jakiegoś powodu, polecam optiscaler(mod) do gier z chu**** implementacją.
Nowe gry mają zero optymalizacji i są maksymalnie rozmazane. Raczej będę omijał nowe tytuły dopóki nie wyjdzie jakaś stabilna technologia niwelująca schody i ząbkowanie dla Full HD. MSAA dawało radę a teraz to jest jakieś nieporozumienie z TAA. Nie dość, że gierki są coraz gorzej zrobione to jeszcze wyglądają jak kasza manna... nic dziwnego, że studia i duzi wydawcy masowo plajtują... ahh jeszcze ten system pre-orderów xD. Niestety mi się Stalker wysypuje na 4060Ti jak ustawiłem FSR 3.1.
Jak w gierce jest tak 45/60 fps z dlss na trybie jakość w 4k to jak do tego fg odpalę to złoto. Gram właśnie w space marine 2 na 4070 ti super to 90% gry w 4 k dlss i fg ponad 100 fps na telewizorze 120k z vrr nie ma żadnego rwania obrazu też mogłeś wspomnieć bo teraz dużo telewizorów, monitorów neguje mocno te efekty. W dragon's dogma 2 właśnie też zauważyłem, że rozdzielczość natywna przegrywa z trybem jakości dlss co jest dziwne jak dla mnie, ale tez dobrze świadczy o samej technologii. Znając życie to pewnie w serii 5000 cos nvidia dołoży i oleje serie 4000...
1:55 chyba spadki jakości obrazu, nie wydajności ;) Nieważne jak bardzo bym się nie starał, chciwa nvidia zawsze wygrywa. Dlss w 90% gier wygląda lepiej i chodzi lepiej niż fsr. Nie wspominając już o tym, że 70% gier obsługuje tylko dlss. Ta gra jest niestety kolejnym potworem zniszczonym przez TAA unreala. Bez filtra wyostrzającego nie da się w to mydło grać
Dzieki za prownianie, fajny film. Migotanie widać rowniez w odbiciach na wodzie roslin na srodku ekranu.
Mógłbyś porównać jakość Path tracingu, nie udalo mi sie znaleźć porównań, jedynie filmy wychwalajace jakosc na nvidii
Musze przyznać że FSR 3.1 bardzo ładnie goni DLSS
W stalker 2 wolałem zejść z detalami na high z epic żeby mieć 60 FPS, niż odpalać FSR w 1440p.
Zgadza się w tej grze FSR wygląda bardzo słabo
Jak nie stać cie na średnia kartę graficzną to twój problem. Sorry.... Jak nie stać twoich starych
😂 Przegryw siedzi i wyzywa, prawdopodobnie stać go na więcej niż ciebie. Takie psy jak ty zawsze szczękają w necie @@czechugawron
Używam FSR na moim 6700XT i działa to spoko, podczas gry rzadko skupiam się na widokach, więc drobne niedoskonałości obrazu mi nie przeszkadzają.
Fajnie tylko fsr (fx, integer scaling, fluid motion frames) nie działa z eyefinity, a dlss i fg z nvsurround już tak - a w trzymonitorowych konfiguracjach takie skalowanie rozdzielczości i wygładzanie daje efekty.
1:35 UP teraz potrafi naprawde dobrze wyglądać, ostatnio zauważyłem to w black ops 6. naprawde nieźle jak na UP i to na 1080p.
I tak kupiłem AMD XD Nvidia nic ode mnie nie dostanie za te kastraty po zawyżonych cenach. Żebym nie wyszedł na fanboya tłumacze swoje poglądy tym, że nie interesują mnie tytuły gier, w których gpu nvidii daje solidne korzyści. Kiedy porównanie generatorów klatek? A może nawet w połączeniu z metodami upscalingu
AMD robi tańsze i słabe karty graficzne. Miałem RX 580 w dwóch wersja i był dramat. Czarne ekrany wysokie temperatury i słabe działanie dodatkowych funkcji oraz sterowników.
Ok 😂✌️
Zawsze używam FSR na jakość w 1440p, straty na jakości obrazu marginalne, a zyski w klatkarzu zacne.
Ja gram na Xbox Series X w Space Marine 2. W trybie wydajność jest ok, choć na dużym tv widać upscaling
W call of duty porownywalem w 4k dlss do fsr, twarz z bliska, broda na dlss zbalansowanym wygladala lepiej jak fsr jakosc, a dlss jakosc lepiej jak natywnie :)
tiaaa... i wtedy sie obudziles... dlls lepiej jak natywnie... na zblizeniu... no po prostu panie cuda marketingu.. teoria informacji w d*pie bo ja widzialem... przypomina audiofili co to slyszeli i wiedza ze ten kabel gra lepiej.
Ja ogólnie na 7900XT wszystko elegancko śmiga polecam i pozdrawiam
A mam takie pytanie, czy RX 7900 XTX lepiej sobie poradzi z rodziałką 3440x1440 jak 4070Ti? A monitor to MSI Mag 345CQR
Zdecydowanie, jednak bez RT.
Tak/nie, zależy od tytułu, na pewno przewagą 7900XTX jest 20 GB VRAM nad ledwie 12GB 4070 Ti, ostatni Indiana Jones pokazuje że ten RAM zaczyna nabierać wartości i że może warto byłoby celować powyżej 12GB w tym temacie.
RX oczywiście że poradzi sobie lepiej, w końcu jest on porównywany do rtx 4080s nie bez powodów
chyba że korzystasz z fsr lub innych dobrodziejstw nvidii, wtedy można się zastanowić
@@MichaelZi 24GB ma.
Pytanie laika. Czyli neatywnie jest najwieksza jakosc obrazu? Bez wspomagaczy?
W teorii natywnie generowana klatka zawsze powinna być ostrzejsza, bo FSR i DLSS generują klatkę niższej rozdzielczości i podbijają do natywnej wyświetlanej
@@amonitowy nie zawsze
To zależy, w wielu przypadkach detal w DLSS jest większy niż natywnie, szczególnie na odległych obiektach.
@@jazon9 co wynika z kiepskiego AA w natywnym obrazie. wystarczy sobie ustawić AA jako FSR/DLSS w 100% i wszelkie FSR/DLSS zostają wyjaśnione. I jest to zabieg celowy oszustwa nVidii, żeby właśnie takim nie kumającym 'udowodnić' że DLSS jest 'lepszy'. Kupa a nie jest lepszy. Przy tych samych warunkach jest zawsze gorszy. Bo jest to technika stratna z natury, teoria informacji się kłania, a nie jedzenie marketingowych bełtów nVidii.
@@jazon9 Tak jest, dokładnie tak, detal w DLSS jest większy niż natywnie xD gdzie go nie było bo AI wygenerowało cokolwiek z zaniżonej rozdzielczości i Jensem wmawia ludziom, że tak powinna wyglądać natywna klatka, ale tak nie wygląda bo nie, bo generowanie natywnych klatek po prostu jest gorsze od upscalowania xD Weź leki i idź spać albo klękać przed Jensenem. Możesz od razu dać linki do tych "niesławnych" screenów z Death Stranding dla prawdziwych dzbanów co łykają wszystko IKS DE xD
U mnie ziomek używa fsr mimo, że ma kartę nvidi. Dlaczego? Bo 3080 z ebaya była tańsza o 400zł od 4060 :)
A kochana nvidia jakimś niewiarygodnym cudem nie potrafi umożliwić kartom serii 30 odpalić swojego fg.
Najczęściej opłaca się fsr+fsr fg chociaż w niektórych grach dostępny jest mod na odpalenie dlssa wraz frame genem od fsr.
Cały komp mu złożyłem za około 3600 (r5 7500f, aorus 3080, 1tb 7000/6800, 850w gold modularny od msi, 32gb 6000/30 i płyta z wifi)
Dzięki bogu to fsr istnieje bo inaczej trzeba by kupić tą śmieszną 4060 która przy upsaclingu obu kart przegrywa często nawet dwukrotnie
gdzieś konkretnie kupowałeś czesci? Wydaje się tanio coś :)
Ja gram na1080p z wlaczonym fsr w trybie jakosc i jak dla mnie jest świetnie. Chodzi o FS25 ustawienia b.wysokie gdzie gracze z kartami zielonych ciut narzekaja
Ja używam FSR w grze gatcha Wuthering Waves, gram w 2160p na Radeonie 6950XT. Bez FSR mam 90-100 klatek, z FSR gra dobija mi do sztywnego limitu klatek, ustalonego w grze, czyli 120. Ja tam nie widzę jakichś defektów graficznych, a przynajniej nie rzucaja się w oczy w trakcie grania.
wszystko zależy jaką ma się kartę graficzną jak nie masz nvidi rtx to tylko fsr zostaje jak masz słabszego radeona lub gtxa
w cyberpunku DLSS powoduje denerwujące powidoki, ale bez niego jest jeszcze gorzej, wszystko jakby rozmyte
ja sobie działam na rx6800xt i jak dotąd nigdy nie odpaliłem FSR, ale to głównie dlatego że mam monitor 1440p 75hz (podkręcony do 95)
Według mnie obniżenie jakości elementów nie jest tak denerwujące jak migotanie, które automatycznie zwraca twoją uwagę podczas rozgrywki i bardzo denerwuje.
Przy mojej rozdzielczości to nie mam wyboru xD dlss na quality i gdzie jest to frame generator
Gubię się już czym jest w końcu DLSS i FSR a FG
DLSS, FSR, XeSS robia tak, że z 720p zrobia ci 1080p, przez co masz wiecej fps a Frame Generation nie robi nic z rozdzielczościa tylko generuje klatke miedzy już istniejące
@ czyli samo FG może wystarczyć do płynnego grania bez utraty jakości?
@@xGodix Wpłynie na opoźnienie plus mogą wystepować też artefakty jeżeli argorytm źle wygeneruje klatke miedzy prawdziwe zaleca się używać FG jeżeli mamy, chociaż stabilne 60, bo FG musi mieć skąd brać informacje o obrazie wiec nim wiecej bazowych FPS tym lepiej
@@amonitowy czyli niezalecane do gier nazwijmy to e sportowych, zalecane do gier fabularnych typu GoW i RDR
@@xGodix Dokładnie
mam dziwne wrażenie że ktoś tu się z kimś dogadał i karty co raz droższe a gry coraz bardziej skopane optymalizacyjnie i jest jak jest :c.
Było Jakoś a jest Jakość
Lepiej zakupić Rx 7900xtx czy nvida Rtx 4080 super ?
Poczekaj na serię 5000 i wtedy zdecyduj
najwyzsze ustawienia i generator>>>
1:25 Nie lepiej powiedzieć "Full HD, 2K i 4K"
1440p to nie 2K xD
nie wiem gdzie wy tu jakieś zmiany widzicie dla mnie wszystko wygląda tak samo
RUclips bardzo kompresuje jakość więc takie filmiki nie pokazują w sumie jak to wygląda
Jak dla mnie FSR realnie smuży bardziej niż DLSS i jest więcej szumów i artefaktów. To nie zawsze widać na YT ale podczas grania róznica jest duzo bardziej widoczna. Plus FSR nadal ma tendencje do pozaostrzania obrazu bo brakuje mu jakości. Co też jest trudniej do uchwycenia na YT niż podczas patrzenia się na monitor.
Ciekawe jak dlss 4.0 w 5xxx 😅
Powtarzam to od dawna, że FSR do niczego się nie nadaje. Jedynie w 4K na "jakość" jeszcze ujdzie. W 2K nawet na "jakość" dla mnie osobiście robi dramat z obrazu. Natomiast DLSS w wielu grach wręcz poprawia jakość obrazu i wygląda lepiej niż natywne ustawienie. Korzystam z DLSS (jedynie na "jakość") wszędzie gdzie się da 👍 To samo z RT, od trzech lat tłumaczę, że bez tego nie ma sensu grać, że to przyszłość, to "po co? Na co to komu? Zrobimy testy amd vs nvidia w czystej rasteryzacji! RT nic nie daje". A teraz każdy youtuber się zachwyca RT (nawet hipokryci co jeszcze kilka miesięcy temu negowali jego zasadność, zapewne siedząc na Radeonach, które im RT nie ogarniały). I nareszcie pojawiają się pierwsze gry w których nawet tej opcji nie wyłączysz 💁♂️ Koniec taryfy ulgowej dla Radeonów. Czas testów w czystym rasterze dobiega końca.
Nie przesadzaj z tym RT, ktoś może mieć tak samo gdzieś RT jak wysoka jakość cieni. Co do FSR, ludzie chyba są ślepi a w 1080p dziwię się że w ogóle do domu trafiają. FSR jak rozmydlal obraz tak robi to nadal, FG od amd natomiast robi pływający obraz w niektórych grach. Dlss w zależności od gry czy 2.0 lub 3.0 i jak to ai zostalo wyuczone. Miałem kartę od amd, teraz Rtx 4070 więc widzę faktycznie jak jest a nie na RUclips. Wnioski - FSR nawet nie ma podejścia do dlss i fg NVidii.
Trochę mi to przypomina:
FSR - Niech wszystko będzie rozmyte (Blur)
DLLS - Nie lubimy "rozmycia" (Blur`a)
z FSR wyjątek dla mnie to Starfield tam jest OK pozostałe gry wole natywną choć FS25 namawiam "włącz mnie" bo optymalizacja tam jest ..... słaba jeszcze
STALKER 2 - Ciężki tytuł na PC, sam korzystam z generatora klatek, ponieważ lubię epickie detale. Osiągam 40-55 FPS w Zonie (60-70 FPS w mniej wymagających miejscach) z generatorem klatek 70-95 FPS (R7 5800X -25 Curve, RX 6700 XT 32GB 3600 MHz) i, o dziwo, różnica jest odczuwalna. Fakt, że nie jest to wystarczająca płynność dla monitora o częstotliwości odświeżania 144 Hz, ale i tak wystarcza. Zawsze można dostosować detale, jednak z tego, co sprawdzałem, czasami wystarczy zmiana jednej opcji, aby spadło o 20 FPS, podczas gdy inne zmieniają wynik o 2-3 FPS. Tak więc, da się samodzielnie zoptymalizować ustawienia pod kątem detali, aczkolwiek trudniej jest, kiedy zmiany nic nie wnoszą - wtedy to dopiero bywa frustrujące. Najbardziej wydajność zabijają shadery (np. cienie, światła itd.), roślinność i dystans renderowania. Wliczając w to również kosmetyczne cienie kontaktowe itd., które czasami wpływają na niekorzyść jakości. - Nie wiem, po co robią tyle detali, a jeszcze jak tego nie zoptymalizują, to nawet najwydajniejsze GPU potrafi klęknąć. :D
Z tym rozmyciem to bywa różnie ale dlss też potrafi mydlić. Niektóre gry nie mają w ogóle suwaka Sharpening albo załączają go domyślnie na zbyt wysoką wartość. Problem przy FSR to ta dyskoteka (migotanie) i pikseloza.
@@kaelos4 Z tym migotaniem zauważyłem problem od jakiegoś czasu i nie wiem, czy wynika to z którejś wersji sterownika, czy jest związane z odświeżaniem 144 Hz. Sprawdzałem różne opcje, takie jak input lag, ulepszony refresh rate, tryb gry oraz zmienną częstotliwość odświeżania, ale problem nadal występuje. Nie pojawia się wszędzie, nawet w grze Satisfactory, w której wcześniej nigdy nie miałem podobnego problemu. Z tego, co dowiedziałem się w najnowszej aktualizacji FS25, wspomniano o poprawieniu "migotania", ale nie wiem, co dokładnie może być tego przyczyną.
Rozwinięcie:
Migotanie obrazu w grach, szczególnie w kontekście odświeżania 144 Hz, może wynikać z kilku różnych czynników. Może to być związane z ustawieniami sterowników karty graficznej, specyficznymi opcjami odświeżania ekranu, a także różnymi technologiami optymalizacji obrazu, takimi jak FSR (FidelityFX Super Resolution) czy G-Sync. Problem migotania w grach, mimo braku takich trudności wcześniej, może wynikać z wprowadzenia nowych aktualizacji sterowników lub zmian w systemie operacyjnym, które wpływają na synchronizację obrazu z częstotliwością odświeżania monitora.
Warto też zauważyć, że różne gry mogą mieć różne reakcje na te ustawienia. Nawet jeśli problem nie występuje w innych tytułach, w przypadku gier takich jak Satisfactory, może to wynikać z subtelnych różnic w silniku gry, co może prowadzić do problemów z synchronizacją. Aktualizacja, o której wspomniano w FS25, sugeruje, że problem migotania mógł zostać zidentyfikowany i zaadresowany przez deweloperów, ale ostateczne rozwiązanie może zależeć od pełnej kompatybilności sterowników, ustawień ekranu oraz samej gry.
FSR 3.1 powoduje straszne artefakty wokół postaci i jak np jakieś particle latają. Widać też czasami miganie tekstur. Można to sprawdzić w takim ghost of tsuhima, czy final fantasy 16.
dlss tez to ma. to zalezy od gry
@ImotekhtheStormlord-tx2it przełączając na dlss od razu mi znikały artefakty
@@szymonpotorak9161 zalezy od sceny
Jak można obwiniać technologie za lenistwo develwopera? Dlss i fsr oraz intelowska technologia to świetna rzecz.
Mając RTX 3060 Ti G6X i monitor 1440p to jestem wręcz zmuszony do grania z DLSS, nawet żeby tym sposobem obniżyć użycie vram, 8gb to robi się już za mało pod koniec roku. Korzystam z trybu jakość jak i balans, zależnie od gry ciężko się dopatrzyć różnicy, chyba, że będziemy ślęczeć nad ekranem i szukać różnicy, nie zawsze jest to widoczne gołym okiem. Dużo szybciej idzie dostrzec mając 2 obrazy obok siebie, ja mam jeden monitor, więc czasem sprawdzam na screenach z gry czy jest różnica. Dlatego wybrałem RTX zamiast RX 6700XT, wiedziałem, że DLSS jest dużo lepszy, a przy takich kartach i tak muszę się ratować tego typu techniką by zyskać trochu fps. Czekam na nowe karty, na nowe rtx jak i rx
Zabrakło Intela :(
Co by nie mówić o zielonych... DLSS na quality jest świetne . Używam już od dawna w single player. Nje jedną grę już ta opcja uratowała...
W nowszych wersja DLSS nawet balance jest spoko, gdzie kiedyś wyglądał znacznie gorzej ten tryb.
Idź lepiej pierogi lep a nie jutuby!
Komu bysię chciało lepić xD Wesołych ;)
@ Tobie również!
Dlaczego nie testujecie rozdzielczosci 3440x1440 wiekszosć moich znajomych ja ma ewentualnie 4k a full hd to spotykam tylko w laptopach
Bo full hd jest standardem 1440 p dogania ale nie na tyle. Poza tym przy 1080 p widac najwieksza roznice w klatkach niz wyzej.
@@maslo32 na 4k to grają koniobijcy z upscalerami
Lepiej kupić rx7900xtx czy rtx 4080 super ?
Super
RTX 4080 Super a dla czego dostajesz Frame genarator i DLLS i RT, a u amd masz niestabilne sterowniki itp więcej dostajesz od Nvidia nieżeli od amd
@@MDgameplayLive Można by wszystko powiedzieć, że Super lepszy bo pobór mocy, RT, kwestia chłodzenia i kultury pracy ale dojebią ze sterownikami XDDDD
@@ard1an307 Sterowniki u AMD to tragedia aktualizacje i stabilność również tragedia wydawane raz na jakiś czas a Nvidia zawsze jakiś nowy sterownik wychodzi jak jakaś nowa gra się pojawi
Poczekaj na nową serię bo stara z ceną spadnie. W obecnej generacji raczej 4080 Super jeżeli interesuje Cię Ray Tracing, 4080S będzie droższa ale ma mniejszy pobór mocy i lepszą kulturę pracy. RX 7900XTX też jest spoko ale bardziej grzeje i zjada więcej prądu i przy tym jest tańszy o około 1000zł, wydajność w rasterze to 1:1 zależy od tytułu. Jakbyś chciał RX'a to odradzam Ci Redevila i cokolwiek od PowerColor w tej generacji, celowałbym w Sapphire lub XFX. Z AMD też dostaniesz FrameGen I FSR tylko, że jak to Blacku pokazał jest gorszy obecnie, następna iteracja będzie pewnie miała AI bo ten tutaj to po prostu algorytm bez AI.
Czyli FSR jak był na śmietnik tak nadal jest na śmietnik. Wzieliby się za optymalizacje a nie robią te gry na od***dol, a potem no nasz klient na RTX 4090 odpali sobie FSR ktore natywnie bedzie renderowac wazeline z 720p do 4K.
To samo mamy na konsolach od lat witaj w zespole😂
@@Wodagazowana5000 Ja w kapeli pt. konsola gram od paru dekad. nigdy gorszego upscalowania nie widzialem jak na bazowej PS5 czy XSX gdzie widzisz logo unreal engine 5 i juz wiesz ze bedzie dramat. PS5 Pro troche ratuje sytuacje z PSSR ale to tylko dlatego ze FSR to jest absolutny smietnik a deweloperzy naduzywaja tego ponad granice ludzkiej przyzwoitości. PS3 mialo wiecej pikseli na ekranie niz te badziewie na UE5 z FSR.
@reapzzer planuje zakup pc z nvidią bo mi szkoda zycia na granie w 720p na ps5 xD ale sa gry gdzie mam wrazenie ze gram w 4k. God of War, Ratchet albo remaster The Last of Us czy spiderman 2. Ale w 40 fps
@@Wodagazowana5000 Spoko spoko kupisz nowego kompa w cenie 3 ps5 pro, a i tak DLSS na balanced bedzie odpalany bo deweloper z dwoma szarymi komorkami mysli ze kazdy ma PC z 1TB ramu i 3 RTX 5090. Gry sprzed ery UE5 smigaja az miło na ultra i wysokich rozdzielczościach, a to co wychodzi na świeżo temu nawet 5090 nie pomoże.
Bo FSR trzeba dobrze zaimplementować patrz Gow i Horizon to samo tyczy się dodatkowej funkcji generowania klatek.
Native czyli antyaliasing wylaczony?
TAA włączone
Kiedy był nagrywany film? Bo jest już DLSS 3.8.10
Super testy wydajnościowe
Fabian zostaw ten RUclips i spadaj do lepienia pierogów na wigilię
Super topka mega giga spoko
Wydaje mi się, że dla przeciętnego gracza to, że FSR odpalisz na każdej karcie przystaje mieć już znaczenie. GPU, na jakich odpalisz DLSS są już na rynku od 6 lat. 6 lat, bądźmy poważni, mało jaki gracz ma tak stare GPU, chyba, że do kopa do internetu a nie gier. Wiadomo, zdarzają się osoby co jeszcze mają RTX np. 1080Ti, ale jaka to jest nisza.
Frame generation jest tylko dla kart 40, w niektórych grach samo DLSS może już nie dawać rady i bez FG nie da się przebić 60 fps.
@@AjTiOfficial A ktoś tu coś pisał o generacji klatek? Mówimy o DLSS a nie FG. To,że devsi przerzucają się na chujowy UE5 i nie potrafią go optymalizować to inna sprawa, wtedy gry na każdej karcie źle chodzą.
@@AjTiOfficial generator klatek jest dostępny również dla innych kart. Oczywiście zrobiony przez amd
Ogólnie przebijanie bariery 60 klatek za pomocą FG jest kiepskim ruchem. Nie dość że generowane klatki będą bardzo widoczne, to opóźnienie również będzie mocno odczuwalne. Generator najlepiej odpalić przy minimum 50fps+. Moim zdaniem FG najlepiej się sprawdza, gdy chcemy osiągnąć poziom klatek zbliżony do maksymalnego odświeżania naszego monitora typu 120-240hz itd.
A gdzie xess? Tylko jeden tytuł? Pasowałoby dać choć ze trzy. Brakuje testu disocclusion, animowanych czy przezroczystych tekstur. Tak widocznych na wodzie. Nie ma nawet zoomu na migoczące elementy. Nie wspominając o ray reconstruction.
Upscaling to rak.
a czemu porownanie do 3.7 a nie 3.8 dlss?
fsr w trybie jakość - bo mam rx7800xt. Nie odczuwam spadku jakości obrazu, widzę znaczną poprawę klatkażu. Kolejna karta raczej jednak będzie od zielonych - rt jest wymagany w większej ilości tytułów, a amd nieco przysypia. Zostanę z czerwonymi jak się poprawią, ale to za kilka lat dopiero :)
Może się czepiam, ale brakło XeSS jednak do porównania
aha testowanie technologii amd na karftach nvidii... amd software ma funkcje image sharpening która wyostrza obraz
Nie używam rozmydlaczy i generatorów oraz najnowszej mody czyli kompresji tekstur u NVIDIA. Moj RX6900XT Nitro+ daje na razie radę w 1440p w to w co gram 😊
Jezu jakie to kurwa brzydkie. Cieszę się, że mam kartę zielonych. Przepraszam, że tak powiedziałem i dziękuję za wypowiedź.
DLSS też jest brzydkie jak się przyjrzysz dokładnie. Więc ani jedni jednych, ani drugich nie ma za co chwalić czy ganić. Inna sprawa, że FSR włączysz wszędzie a różnicy podczas intensywnego ruchu nie zobaczysz, bo nikt nie siedzi i nie szuka szczegółów. Najlepsza natywka lub DLDSR.
@@Forioous Nie zgadzam się, ostatnio robiłem porównanie w CP2077 i jest to widoczne gołym okiem. DLSS jest bardziej dopracowane i nie kłuje w oczy jak FSR 3. AMD dalej w tyle za Zielonymi.
@@NeoMartel ale wiesz z czego to wynika i nie powinno cię to dziwić... I tak, jest różnica, ale chyba wiesz dlaczego. FSR też ma plusy, szczególnie 3.1, nie 3 a 3.1.
Jakość implementacji technik różni się co gra, ale z reguły FSR wygląda gorzej i źle na jakimkolwiek presecie. Porównania porównaniami, ale mając RTXa warto wyrobić sobie zdanie bardziej życiowo - przełączając się pomiędzy technikami. Wtedy zasadniczą różnicą jest, że przy FSR artefakty rzucają się w oczy, a po przełączeniu na DLSS łagodzą się albo wcale nie występują. Różnica jest tak duża, że mając dostęp tylko do FSR, wolałbym radzić sobie bez niego, a DLSS Quality już od 2.0 traktuję jak darmowy pakiet fpsu i wygładzania krawędzi.
Porównywanie FSR quality z DLSS quality jest bezcelowe. Niestety Nvidia straszne dominuje w tym aspekcie. Polecam odpalić sobie powyższy filmik w 2 oknach tak aby mieć FSR Quality po jednej stronie i DLSS Performance po drugiej. Nawet przy takich forach FSR zostaje mega w tyle.
dopóki ci wystarczy w tańszych kartach 8gb vram, za chwile to bedzie za mało i nvidia będzie z padaczką a amd dalej płynne bo dają 12, 16gb vram w budzetowych kartach.
To dłużej budzetowiec pożyje. Software jest dobry dopóki hardware daje rade. A w drogich kartach i tak tych bajerów lepiej nie używać bo nie po to sie kupuje drogą karte aby psuć grafikę. No i jak ktoś lubi grać na linuxie to tylko amd.
Tylko dlss
Fsr został poprawiony jest wydajniej
Przecież ty nawet nie wiesz co to jest :-D
A teraz do kuchni i barszcz gotuj a nie siedź na komputerze
@mkskrakusnh bez komentarza
nie wiem kto jeszcze w 2024 gra w 1080p, oprócz e-sportowców cs2, a w 2k i 4k przy quality różnica jest minimalna. czekamy na nowe pokolenie kart od AMD, bo chyba Nvidia znowu będzie nam sprzedawać karty z 8 gb vramu w cenach z kosmosu xD
Ja siedzę na RTX 2070 z DLSS jeszcze daje rade, ale czekam już na serię 5000, widzę, że jest teraz ogólny spam serią RTX 4000 by sprzedać leżaki magazynowe 😂
Trochę spóźnione bo mamy już DLSS 3.8
W ogole nie ma o czym rozmawiac.
porownywanie dlss z fsr to troche glupota? dlss jest za paywallem w postaci kupienia RTXa a fsr dziala nawet na 1080 ti. intel xess jak juz jest bardziej sensownym przeciwnikiem dlss
Nie, to nie jest głupota. Takie porównanie ma bezpośredni wpływ na to, jakie GPU kupisz.
Market share Nvidii i ilość sprzedanych GPU miażdzy Amd wiec jednozacznie można stwierdzić, że większość ludzi korzysta z Nvidii. Mówienie o byciu za Paywallem jest pomyłką z Twojej strony. Po co testować Intel XESS skoro większość graczy korzysta z DLSS.
Jaki poważny gracz uzywa jeszcze rtx 10xx. GPU obsługujące DLSS są na rynku od ponad 6 lat. 6 lat, bądźmy poważni, gracze nie używają GPU przez 6 lat, GPU zmienia się częściej.
@@jazon9 Zdziwiłbyś się ;)
@@jazon9tymczasem ja w tamtym roku robiący upgrade z 750 2GB na 1060 6GB XD
Czemu nie złożyłeś nam życzeń? Tak szanujesz widzów?
A skąd wiesz kiedy nagrywałem film? Wesołych
Tak przy okazji życzenia raczej szacunku nie wyrażają :)
Na moim :KTC M27P20Pro Mini LED HDMI v2.1 3840x2160 160Hz CertyfikatHDR1000 SUPER SIĘ OGLĄDA KANAŁ WYKORZYSTUJE PREZENTACJE MATERIAŁU 4K