Mamy więc kartę, która: - daje ledwie 30-procentowy wzrost realnej wydajności wzgledem poprzedniego flagowca, - tak czy inaczej będzie prawie niemożliwa do zakupu ze względu na piętrzące się już pogłoski o brakach magazynowych i opóźnieniach w produkcji. Super premiera, Nvidio.
@@ArtUniverse jeszcze trzęsienie na Tajwanie i strata ok 20000 wafli w fabrykach 5 i 4 nm. Niby to ilość gotowych z jednego dnia pracy fabryk no ale jak oberwały chipy na serię 5000 to jeszcze mniej gotowych kart będzie dostępnych. A jak oberwały chipy pod A.I. to tym bardziej mniej na GPU przeznaczą z dostępnej puli zamówienia. Wszak z graczy kaski co łaska XD
Z tymi fake boobs to nawet niezłe porównanie :D Przyjemne dla oka, ale ręką zwykle szybko wyczujesz ze to nie to samo - w znaczeniu ze klatki nie pochodzą z silnika gry. Jednocześnie dobrze zaimplementowane są realnie trudne do wykrycia a nadal wyśmienicie cieszą oko!
"Graczy którzy nie uznają AI w grach". No właśnie, jako gracz uważam, iż dzisiaj Twórcy gier całkiem zapomnieli o co chodzi z dobrym AI (polskie SI) w grach. Przykład F.E.A.R. (z 2005r !) gdzie inteligencja przeciwników ośmiesza to co wyprawiają przeciwnicy w takim Cybrepunku. Więc AI ma ogromną role w immersyjności gier, ale nie to które generuje fejkowe klatki bo Twórcy olali optymalizacje. :) Więc AI jak najbardziej, ale nie takie sztuczne i tanie, bo to tylko marketingowy bełkot + lenistwo.
A, i nie zgadzam się, że standardowa rasteryzacja "nie ma sensu". Mocy obliczeniowej jest zawsze za mało i wszystko zależy od kontekstu jak ją wykorzystamy. Niestety dzisiaj Twórcy idą w śledzenie promieni (które jest baaardzo wymagające) a zaniedbują wiele innych kwestii.
@@sqanns5787 idą w śledzenie promieni ponieważ daje takie sam albo lepszy efekt przy znacznie niższym nakładzie pracy po ich stronie (procesu tworzenia gry). Są też limity tego co może ukazać zwykła rasteryzacja czego się nie przeskoczy darząc do realizmu w oprawie. Nadal gry mogą być piękne artystycznie (chociażby RDR2) ale będzie to uzyskane kolosalnym kosztem procesu ich tworzenia. Odnośnie AI - nowi NPC korzystający z LLM to największy skok w rozwoju gier na jaki czekam od dawna :D Tak samo w zachowaniu przeciwniku, tak jak piszesz, sporo można poprawić, tylko że wtedy gry był prostsze w budowie i gameplay (jak wspomniany FEAR) co pozwalało stosować o tyle bardziej zaawansowane zachowanie przeciwników.
To jedna z - przypuszczam - samych kart-rozczarowań zapowiedzianych taką też prezentacją na CES. A którą przewrotnie po latach będziemy wspominać jako uczciwie zapowiadającą to, co będzie najbardziej warte wspomnienia z czasów Blackwell, więc nie karty, a technologie. Dla mnie na czele z jeszcze lepszym upscalerem, który zawsze się przyda. I Ace, które bez przesady może okazać się największą rewolucją w grach od czasu grafiki 3D. A będące na pierwszym planie generatory, cóż - warto spróbować i doświadczyć tego osobliwego rodzaju płynności, ale w moim odczuciu fanem generatorów prędzej się nie zostanie.
Fajnie by było jak by RTX 5080 był o te 30% szybszy w rasterze od 4080 i miał chociaż 20-24 GB vramu i zwykli gracze byli by zadowoleni a taki 5090 był by dla entuzjastów, twórców do pracy i wszyscy byli by zadowoleni . Sama myśl tych 16gb vram w 5080 nie daje spokoju już pomijając mizerne wzrosty reszty parametrów :( Ciekawe czy to prawda że może wyjść RTX5080 super z 24gb vramu za rok ?
Jest to wielce prawdopodobne że takie 5080 Super wyjdzie - w sieci lata fotka pudełka RTX 5080 (zwykłego!) z opisem 24 GB : ) A miejsca na 5080 Super pomiędzy specyfikacja 5090 i 5080 jest aż nadto :D Ale właśnie - kiedy? Jeżeli już to najwcześniej za rok...
@@PoTestach ja niewiem czemu ale ja swoim tv jak gram widze wszystkie te niedociągnięcia i artefakty w D4 na 4k jak włączam dlss i nie potrafię tak grac.
@@matsu9790 Diablo to jedna z tych gier które bardziej potrzebują niskich opóźnień niż płynnego obrazu - nie mam pojęcia po co akurat tu implementowano FG. Ale sam DLSS Super Resolution? W mojej opinii wygląda bardzo dobrze :)
Super robota! Rowniez uwazam, ze to bardziej 4090 TI, a nawet 4090 TI SUPER, bo 32gb🤣. Najgorszy problem to beda ceny, bo conajmniej przez rok beda w granicy 2400$🤣
Na pewno nie dla mnie bo już ledwo zaakceptowałem 4080 z jego poborem. W realu te 320W nie istnieje a po optymalizacji9, użyucie DLSS i zablokowaniu klatek na 90 to mam ok 200-220W. ALe przy takim potworku 5090 kusiło by nie używaniu ani DLSS ani tym bardziej FG. I tutaj te 575W to już lekko ugina kolanka XD Zdecydowanie poczekam na kolejną generację już w 4 lub 3nm. I tak ciężko mi tego 4080S tak obciążyć, by 16GB używał. Mocy by sięprzydało na poziomie 4090... no ale te waciki. Dla mnie żadna rewelacja, powiększony rdzeń już chyba do granic opłacalności -cena 300mm wafla kontra uzysk. Do tego mniejsze chłodzenie niż w 4090/4080... WTF? Czemu gabarytów radiatora nie pozostawili dla finów? Takie chłodzenie to byłby killer i hałas przy tych prawie 600W podobny lub nawet niższy niż w 4090. aaa tak small factor ich skusił. Dwa przelowote sloty w chłodzeniu rewelka i do tego grzebień na złączu-łatwość wymiany w razie uszkodzenia mechanicznego co jest dość częstym przypadkiem przy transporcie gotowców.
@sawomirunknown9084 bo ta cała seria 50x0 jest bez sensu dla graczy. Tylko 5090 dla najbardziej zajaranych graczy i do pro zastosowań ma sens ponieważ nowych 4090 już się nie kupi poza jakimiś pojedynczymi sztukami pies wie skąd. Pewnie od skalperów. Najnowszy RTX to żadna rewolucja, bo nowy FG 2.0 (FAKE FRAME GENERATOR, Frajer Generation etc.) to ściema a nie wydajność i jako dodatek a nie główna cecha powinien być rozpatrywany. Sam to użyłem dosłownie kilka razy podczas testowania ustawień i za każdym razem występuje gumowa reakcja obrazu- jakby np. lightguna (taki pistet do CRT i gier celowniczków) zawiesić w ramce na gumkach recepturkach i próbować tak celować. Niby czas generowania klatki jest niski -bo im ich więcej w czasie 1000ms to wiadomo mniej ms przypada na pojedynczą. Ale nic to z rzeczywistym czasem reakcji nie ma wspólnego. Pozostaje nawet nie na poprzednim a zdecydowanie zauważalnie wyższym poziomie. Obraz jest płynniejszy-nie skacze np. horyzont ale input lag jest kiepski. Ma to jakiś sens jeśli masz te q00 klatek i chcesz mieć 200 czy 165. Ale rzeczywista reakcja będzie jak dla ok 60 klatek. Wolę DLSS JAKOŚĆ lub WYDAJNOŚĆ i mieć ze skalowania dodatkowe klatki niż sztuczne z FG. Przyrost generacyjny czystej mocy najsłabszy od dekady na już starej litografii 5nm z poprzedniej generacji już mającej problemy z poborem i zasilaniem karty. A największa wtopa to zastosowanie tylko pojedynczego gniazda zasilania. Nawet ostatnie rewizje tego złącza ulegały uszkodzeniu przez przegrzanie a same piny w złączu na karcie potrafiły być wpychane przez wtk ze zbyt ciasnymi pinami żeńskimi. Sam miałem uwalony adapter w 3060Ti FE więc tym bardziej obawiałem się kart z większym zużyciem. Skoro dla zasilania PCIE 8 pin przewidziano max 150W na złącze to pakowanie 4 takich wtyczek na piny i dużo mniejszej powierzchni uważam za przejaw skrajnego debilizmu. U mnie adapter grzał się nie tylko w karcie to takich temperatuŕ, że piny we wtyczne poczerniamy a tworzywo zrobiło się kruche ale i na samej karcie piny zrobiły się mocno fioletowe prawie czarne. To jeszcze złącze adaptera 8pin się grzało do ok 80°C a zasilacz mam topowy Seasonic z pozłacanymi pinami. 4080SUPER na razie działa stabilnie choć od roku nie sprawdzałem jak tam to gniazdo wygląda. Szkoda mi trochę bez potrzeby zużywać wtyk-ponoć ma wytrzymałość 30 podłączeń XD Tylko o tym problemie poza Nexusem i kanałami zajmującymi się serwisem elektroniki to nikt nie gada bo im NV znowu zrobi embargo na sprzęt... Żałosne takie kanały co tylko dostrzegają pozytywne aspekty danego sprzętu. 20% lepsza wydajność 5080 względem 4080SUPER na pewno tłumów nie zachęci na tyle by dopłacić te 2, 3 czy nawet 4 tys. zł.
Rozwój technologii również po stronie oprogramowania - nowy generator (również x2) korzysta z innych modeli, co pozwoli go wykorzystać też na wolniejszych jednostkach tensor starszej generacji. Ale owszem - może też chodzić o marketing ;)
@@joannamisiak6287 można, choć powinna to być dosyć solidna płyta z B760 z uwagi na sekcje zasilania (rozbudowana i dobrze chłodzona). No i pamiętają o aktualizacji BIOS po zakupie oraz używaniu profilu Intel Default z tym cpu.
Słuszna decyzja - co prawda można by kombinować i mając dojścia za msrp kupić 5090 (kilka takich sztuku zawsze idzie…) a potem w podobnej cenie sprzedać swojego starego (RTXa) :D Ale to spór zachodu jak za to co na ten moment 5090 oferuje więcej.
@ Nie ma czegoś takiego, jak brak sensu - jeśli ma się nieograniczone fundusze, to się bierze i się ma :) Jeśli się nie ma kasy, to się dorabia ideologię braku sensu. ja nie mam kasy, to biorę średnią półkę na raty ;) Tylko nie wiem, czy rzucać się na 5080, czy czekać na 70Ti.
@@krzysztofkzi2598 wbrew pozorom im więcej ma się kasy tym rozsądniej podchodzi się do zakupów. Aż do momentu kiedy faktycznie masz więcej kasy i przybywa jen szybciej niż jesteś w stanie wydać - wtedy faktycznie przestaje sie patrzeć na sens zakupu ;)
@@3back837 tylko przy PT ma sens - bo to ten typ renderowania ma problem z nadmiarem geometrii. Dla prostszych metod, w tym zwyczajne śledzenie promieni które działa dosłownie odwrotnie względem PT, ta metoda nie pomoże z obniżeniem zasobów… ale! Ale poniesie jakość obrazu :)
@@TechLipton ale zdaje się tylko z aktywnym RT/PT - najbardziej tam gdzie obecnie gra klęka czyli w lesie :) możliwe też że będzie ładniej wyglądać (zależy jak twórcy wyskalują zysk z użycia tej funkcji).
Wlasnie przez takich testerow klasyczna rasteryzacja zanika,reklamujesz sztuczna wydajnosc i wspierasz tym tworcow ktorzy olewaja optymalizacje.Do tego wydajnosc tej karty tradycyjnym rasterze to 30% max od rtx 4090. Dlss jest przydatna funkcja,ale nie powinna byc tak reklamowana przez tersterow,nie wspominajac juz o FG ze sztucznymi klatkami.Rozumiem sponsor dal karte lub kase to sie mowi ze to super. Nie usuwa sie komentarzy nieprzychylnych.
Możliwości rozwoju rasteryzacji się zasadniczo skończyły, a stosowanie nowych technik to właśnie jest optymalizacja - śledzenie promieni daje taki sam efekty znacznie mniejszym nakładem pracy nad grą, co w praktyce oznacza że gry stają się ładniejsze i bardziej realistyczne. Od dawna juz nowym kartom nie brakuje wydajności w rasteryzacji bo zwyczajnie rozwój poszedł w inną stronę. Tak sam jak kiedyś przestano dalej rozwijać programowe renderowanie grafiki na rzecz właśnie rasteryzacji - dawała znacznie więcej możliwość. To samo tyczy się upscalingu - to też jest optymalizacja. Trochę jakby się obrażał ze w autach zaczęto stosować turbo sprężarki aby z mniejszej pojemności uzyskać taką samą moc, zamiast dalej podnosić pojemność i dokładać cylindry. Skoro efekt dla użytkownika jest taki sam (albo i lepszy po takich optymalizacjach), to w czym problem? Nawet w grach w których wydajności nie brakuje warto odpalić DLSS Q aby zmniejszyć zużycie prądu i wydzielanie ciepła :) O FG dużo mówię w podcastcie z niedzieli - w skrócie to funkcja która z dużej wydajności robi dodatkowo super płynność. Tylko tyle i aż tyle w świecie monitorów QHD OLED 500Hz. Podkreślę też że klatki z generatora są tak samo sztuczne jak pozostałe - wszystkie pochodzą z informacji uzyskanych od silnika gry, tylko proces renderowania jest inny.
Napiszę tutaj, po rozmowach z każdym to postanowiłem pójść najpierw w płytę główną, ram, CPU Rayzen 5 8600G wiem że mierny ale nie mogę lepszego. A620 od ASRocka z wi-fi oraz 3 dysksni m2, ram od Goodram idrm
@PoTestach właśnie taki by był problem ze względu na GTX 1660 która nie radzi zbytnio przy Hogwart legacy na średnio-niskich ustawieniach. Ma około 20-30fps ale występują spadki i opóźnienia. Procesor do najnowszych też nie należy ale jest na "granicy" wymaganych bo podają z 8gen i5/i7 już nie pamiętam
Podsumowując - za więcej kasy dostajemy proporcjonalnie więcej wydajności i proporcjonalnie wyższe zużycie energii. Równie dobrze można wydać 2x kasę na 2x RTX4090 i również dostaniemy 2x większą wydajność przy 2x większym poborze prądu. Karta nie jest więc żadnym postępem, tylko upchnięciem większej ilości tego samego za proporcjonalnie więcej kasy. A szkoda, bo chciałem mieć jakiś sensowny powód do zakupu, ale gierkowe fajerwerki w postaci sztucznych klatek w pracy do niczego mi się nie przydadzą.
W pracy nie można pomijać usprawnień w wydajności jednostek i pojemność a także przepustowości VRAM. W a grach niestety kart juz nie da się łączyć ;) więc zrobili taki „absolutne minimum” aby faktycznie dać powód do wymiany sprzętu - tak u graczy jak i u twórców treści. Co dobrze koresponduje z planowaną dostępnością tych kart…
Bo nie kupi jej gracz. A ktoś kto będzie potrzebował i umiał skorzystać z jej mocy. A że w grach są wydajniejsze od 4090. No szkoda bardzo żeby miała nie być.
No właśnie dokłądnie odwrotnie niż piszesz. nVidia pakuje coraz więcej DLSSa który się kompletnie nie nadaje do "profesjonalnych zastosowań" gdzie jest potrzebna moc w rasteryzacji a nie "ściema" upscalerów
@@tiemanowo oj zupełnie się nie zgodzę - w zastosowaniach profesjonalnych DLSS nadaje się jeszcze bardziej ponieważ tam nie potrzebujemy mieć w podglądzie idealnego obrazu a musi on działać płynnie. To co na CES pokazali mi w D5 Render wybitnie tego dowodzi - podgląd sceny (render wnętrza, bo to program do projektowania) i śmigasz sobie w fotorealistycznej oprawie (RT w czasie rzeczywistym) przy 60 FPS z DLSS zamiast 10-12 FPS bez niego.
@@tiemanowooczywiście że wygląda inaczej, ponieważ będzie pozbawione aproksymacji :p Ale te sama kwestię poruszyłem podczas rozmowy z Nvidia na pokazie (w kontekście samej rekonstrukcji promieni) jako że ona faktycznie zmienia obraz w znacznym stopniu - ich odpowiedź brzmiała „DLSS RR można osobno dezaktywować albo używać też w finalnym renderze”
za dużo testów ze wspomagaczami. Tylko czysta rasteryzacja. Wspomagacze powinny mieć co najwyżej swoje osobne testy i nie powinno się brać wydajności oferowanej przez nie do oceny.
Tylko że po co ci wyniki w „czystej rasteryzacji” skoro po zakupie takiej karty nie będzie z takich ustawień korzystać? A najpewniej, jeżeli masz kartę z której z dwóch poprzednich generacji NVIDI albo serię 7000 od AMD, to już teraz w taki sposób nie grasz? Na co komu takie wyniki? Osobne testy dotyczą funkcji które faktycznie są opcjonalne i sytuacyjne (czyli DLSS MFG) oraz tam gdzie się dało osobno pokazałem wyniki bez śledzenia promieni (co faktycznie część graczy będzie preferować mimo wyrazie gorszej oprawy graficznej).
Obawiam się, że raczej praca w redakcji portalu internetowego była czynnikiem, który zadecydował o przesłaniu do mnie karty ;) Polecam zajrzeć na benchmark,pl gdzie jest nawet obszerniejszy test mojego autorstwa :) Ale owszem - gdybyś założył kanał i robił tak dobrą robotę jak chociażby TechLipton czy Zmaslo to pewnie też byś był na liście NVIDI pod premierowe testy.
DLSS = największa ściema ostatnich lat w branży gier i zdania nie zmienię. Ta technologia dała developerom kolejny powód aby nie poświęcać w ogóle czasu na optymalizację.
@@tiemanowo owszem - mogą tworzyć ładniejsze gry i skupiać się na fabule a optymalizację zostawić AI. W sumie nie brzmi to wcale źle skoro efekt finalny jest taki że gracze na tym zyskują (przynajmniej w teorii, bo w praktyce można by polemizować czy większość gier, od wejścia skutecznego upscalingu, zyskała na jakości :p
@@PoTestach ladniejsze gry? No nie wiem, ostatnie gry może oprócz wukonga i cp2077 na pt to wyglądają jak gry z ery GTX 1060, np. ten stalker to wygląda jak gówno w którym ktoś wjebał SSAO x10 rodem z BF'a 3 i chuj i dobrze jest, ten frame gen to taki średni = chujowy jest jak ktoś jest wyczulony mocno na to
@@PoTestach @PoTestach Może źle to ująłem z tym SSAO faktycznie ale nie zmienia to faktu że no ta gra jak człowiek nie siedzi z metr/półtorej, to wygląda jak gra wydana w 2014-2018 z jakimś ENB wgranym, dodając do tego rozjebanego UE5 z tą kompilacją shaderów do porzygu no i obsranym TAA, no przecież na staruszka most wanteda się lepiej patrzy
Z czego wnioskujesz że dobry generator musi podwajać opóźnienia? To nawet w teorii nie ma sensu. A to o czym pisze (na benchmarku) oraz mówię tutaj na filmie wynika z tego co realnie przetestowałem i zmierzyłem.
RTX za 19.999 zl to bardzo dobry wybór 😂 przeciez im droższą kartę kupcie tym więcej zaoszczędzicie 😂😂😂 Ten miliarder w skurzanej kurtce nie byl by miliarderem gdyby tak nie bylo jak powiedzial 😂😂😂 ja będę rozrzutny i nic nie kupię od zielonych 😂😂
Spokojnie - po jednej stronie ekranu jest bez rozmydlacza (tam gdzie podpisałem DLSS). Chyba że wolałbyś abym porównywał karty NV z DLSS (z którym oferują obecnie zwykle lepszy obraz niż bez niego) do kart AMD bez FSR oczekując na w końcu lepiej działający FSR 4? To byłoby mocno nie uczciwe na wykresach…
Zastanawiam się jak do twojej teorii pasuje fakt że uzyskałem bodaj najniższe przyrosty wydajności względem 4090 spośród wszystkich mi znanych testerów? Co wynika też z przyjętej procedury, która w zamian za urealnienie wyników częściej była limitowana przez cpu - to tak gdybyś się zastanawia z czego to wynika. A tak przy okazji - recenzja zwykle jest subiektywna co do zasady (i defincji), ale też może byc podparta obiektywnymi obserwacjami, pomiarami i testami - to właśnie masz na moim filmie. Nie zabraniam wyciągać z prezentowanych wyników innych wniosków. Powiem więcej - chętnie wysłucham jeżeli takowe masz. Po to właśnie są komentarze :)
Spokojnie - na filmie o Radeonach będę miał ich emblematy tak jak i zmienię światełko w tle na czerwone. To tylko dekoracje (a gdyby faktycznie miał jakiś interes w promowaniu czegoś innnego niż wskazują niezależne testy to z pewnością tak bym się z tym nie obnosił :p) i mam nadzieję że bardziej przemawia to co pokazuje na wykresach oraz właśnie porównaniach obrazu niż to co założę na siebie :) Ps. Polecam odszukać mój film z premiery RX 7900XTX właśnie na kanale benchmark-pl - tam to dopiero bylo lokowania odzieżą :D
Testy, testy i po testach... Nazwa kanału dobra, bo faktycznie nie ma czego oglądać... I 30% wzrostu za 30% wyższą cenę i 30% wyższy pobór energii to naprawdę słabo, a nie dobrze. Chyba oboje inaczej rozumiemy słowo rozwój.
@@MaximusDecimus-nb3gk owszem - też jestem nieco zawiedziony i po ponad 2 latach liczyłem na więcej. Tak jak napisałem w artykule na benchmark - czuć że NV skupia się na rozwoju swojego sprzętu pod AI a graczy traktuje „przy okazji” w najlepszym przypadku, czemu trudno się dziwić mając na uwadze że stanowimy (my gracze) 10% jej dochodów…
The GeForce RTX 5090 is the company's flagship graphics card in this generation, and is based on the gargantuan 5 nm GB202 monolithic silicon. The SKU enables 170 out of 192 streaming multiprocessors (SM) present on the chip, achieving 21,760 CUDA cores, 170 RT cores, 680 Tensor cores, 680 TMUs, and 176 ROPs. The memory sub-system sees a major generational upgrade. The card comes with 32 GB of GDDR7 memory running at 28 Gbps. NVIDIA has widened the memory bus to 512-bit, giving the RTX 5090 an enormous 1.792 TB/s of memory bandwidth-the kind you expect from HBM setups on AI GPUs. These massive increases in memory size and bandwidth are crucial for the GPU to pull off high-geometry ray tracing, and neural rendering.
To jest takie czepianie się nomenklatury - TSMC nie ma oficjalnie procesu 4 nm - dopiero przeskok na 3 nm będzie na nowej linii produkcyjnej. Wszystko co robią jako N4 idzie w fabrykach 5 nm, ale w istocie spora część tych układów jest właśnie w rozmiarze 4 nm. Z tego co mi wiadomo NVIDIA nie zmieniła procesu technologicznego pomiędzy serią 50 a 40, zatem albo oba nazywamy "rodziną 5 nm", albo oba opisujemy jako "z grubsza 4 nm".
@@PoTestach Nie czepiam się tylko po prostu chce wiedzieć pamiętam jak kiedyś jak wychodziły rtx 4000 też dużo razy mylono procesy technologiczne 4N z 5nm a patrząc na rdzenie 4080 i 5080 mają taką samą ilość tranzystorów i powierzchnie więc nic się nie zmieniło przy 4nm powierzchnia by już była mniejsza
Wygląda na materiał SPONSOROWANY, bo a) masz kartę do testów przy tak małej liczbie widzów, b) zmiana metody testowej by uwzględniać upscaling - ukłon względem Nvidi, szczególnie, że wielokrotnie podkreślasz, że FSR słabo wygląda. AMD często nie trzeba stosować upscalingu by być zadowolonym. A ciężko mi uwierzyć by upscaling był lepszy niż natywne renderowanie. (to po prostu niemożliwe - chyba, że ktoś wierzy w magię).
Kartę mam do testów, ponieważ jednocześnie jestem redaktorem jednego z trzech, może czterech liczących się w Polsce portali o tematyce technologicznej (gdzie również dziś pojawiła się moja recenzja w podobnym tonie, ale nieco bardzie szczegółowa). Zmiana metodologii testowej wynika z tego jak ja, moim znajomi oraz osoby które na potrzeby tego badania zapytałem, właśnie w ten sposób grają - używają upscalingu aby mieć więcej FPS przy pomijalnym wpływie na jakość obrazu (choć tutaj podkreślę, że w mojej opinii upscaling NIE sprawdza się w FHD!). A co do upscalingu lepszego niż natywna rozdzielczość to rozwiązanie tej zagadki jest proste - nazwa upscaling jest tutaj myląca, ponieważ w przypadku DLSS opisuje tylko rezultat a nie proces. Ten klasyczny upscaling o którym myślisz faktycznie cudów nie zrobi, ale rekonstrukcja obrazu do wyższej rozdzielczości z pomocą sieci neuronowych owszem ma taką możliwość, jako że z założenia tworzy nowy obraz (z nie tylko rozciąga stary, jak robią to zwykle telewizory i do pewnego stopnia również obecny FSR. Trochę tak jakbyś nie wierzył, że AI może namalować ładniejszy obrazek niż to, co jej przekażesz namalowane samemu w programie graficznym :) Czy to będzie dokładnie to samo co byśmy zobaczyli renderując w 8K zamiast w 4K? Nie. Czy ma to znaczenie? Też nie :)
Dlss to nie jest tylko upscsling żeby mieć lepsze fpsy. To rekonstrukcja klatek wspomagana Ai przez co obraz niższej rozdzielczości upscallowany może wyglądać lepiej niż ten natywny. I to już było widać w przypadku dlss 3.5 albo 3.7 nie jestem pewny
@ Dzięki za wyjaśnienia. Obraz w takim razie wygląda wystarczająco dobrze, ale nie lepiej. Jak z generacji wyszłoby, że 2 piksele się pojawią w TLE głęboko, to upscaling nie jest w stanie tego zgadnąć. WIęc będzie pozbawiony tych 2 pixeli, a w szczególnym przypadku może robić to różnicę. Przy czym 2 pixele to przykład. Pod względem liczby testów faktycznie dużo pracy włożone i doceniam, ale nadal co do metodologi nie zgadzam. Sam mam AMD i nie stosuję upscalingu więc dla mnie wyjasnienie odnośnie zmiany metodologi jest od czapy. W ten sposób pytając czy ktoś stosuje FG można też dodać do metody testowej i potem mówić, że ten procek , który będzie potrafił więcej wygenerować klatek pośrednich jest lepszy. Takie podejście możliwe, ale wg mnie niesprawiedliwe. ALe ludzie głosują na Trumpa czy PIS bo wierzą, ze są lepsi choć nie ma na to ŻADNYCH dowodów obiektywnych, ale niektórzy propagandę kupują, stąd moje krytyczne podejście do tej metodologi. ŻADEN kanał (a widziałem z 10) testujący 5090 nie zastosował Twojej metody, stąd pozostanę przy swojej opini.
DLSS poprawia błędy normalnego renderingu, owszem, czasem coś tam się sypie, ale tego nie widać - chyba, że na filmach na YT statyczne screeny ;) OK, Cyberpunka przeszedłem strzelając bez ostrzy modliszki, to nie miałem tego syfu na ekranie :D Nie chce mi się tłumaczyć w koło całemu światu, że dlss+fg+reflex są lepsze, niż natywny render. Natywny był fajny na Amidze i w Dosie ;) Ok, był fajny do czasu pojawienia się RT. Teraz z RT nie da się grać bez tego.
Dokładnie 5nm seria 4000 i 4nm seria 5000. Przynajmniej tak inni typują w recenzjach. Ale widać chociażby po komentarzach to sprawa ma widzę drugie dno.....
@@kamilw9839 obie karty (serie) to DOKŁADNIE ten sam proces technologiczny (co jest podane w White Paper, którego zapomniałem podpiąć w opisie :p) - mowa o TSMC N4, które w głównej mierze oznacza 4 nm.
Czyżby typowy fanboy NVIDII, no chyba tak skoro pozostawił po sobie taki komentarz XD RX 7900 xtx to świetna karta, ale jak się ma zamydlone oczy przez zielonych to tak jest :D żeby zaraz nie było że jestem fanboyem AMD, to posiadam RTX 4080 super, a żona właśnie rzekomego Rxa i wiem że RX jest trochę wydajniejszy od 4080 super więc te testy są wzięte chyba z innej rzeczywistości. Rt to inna bajka wiadomo
@mateuszmayska7436 Jako że test dotyczy topowej karty na rynku, to nie bawiłem się w obniżanie ustawień, czego też nie będą (i nie powinni) robić nabywcy takiej karty. To niestety stawia Radeony, w tym testowanego RX 7900XTX w bardzo trudnej sytuacji, jako że nie został zaprojektowany z myślą o granie w takich ustawieniach. To dobra karta do średniego segmentu, w którym niekoniecznie gramy na zupełnie dokręconych ustawieniach i wtedy przewaga RTXów maleje a RX 7900XTX często potrafi wyprzedzić RTX 4080 Super, zwłaszcza w starszych lub mniej zaawansowanych grach, które w ogóle nie korzystają z rdzeni RT. W filmie też kilkukrotnie podkreślam, że jest to karta praktycznie 3x tańsza, ale nie chciałem aby AMD całkiem zostało na premierę pominięte bo jak sam zwróciłeś uwagę to nie są złe karty. RTX 5080 będzie testowany w podobnej procedurze, ale RTX 5070 i 5070 Ti już przejdą na mniej ekstremalne ustawienia, a to one są konkurencją dla RX 7900 XTX oraz nadchodzących RX 9070 (co też sugeruje nowe nazewnictwo AMD).
No bez przesady - te karty są prawie w całości z metalu i krzemu - to całkiem solidne materiały... Chyba że masz na myśli RTX Neural Materials - tego jeszcze nie miałem okazji testować od powrotu z CES.
Kolejne oszustwo Nvidia, Letency mierzone przy FG jest tak niskie, bo rekompensuje to zagęszczenie klatek, a programy mierzą między każdą klatką, sztuczna inteligencja nie jest w stanie przewidzieć w którą stronę ruszysz myszką. Jak ktoś będzie tworzył 200 fpsów z 30 autentycznych będzie czuł ogromne opóźnienie przy ruchu myszką, bo powinno się mierzyć Letency tylko między tymi autentycznymi klatkami, wyjdzie w praniu przy słabszych kartach nvidia.
Żaden generator nie wytworzy 200 fps z 30. Polecam też posłuchać jak tłumacze na filmie zasadę działania FG - nic tutaj nie jest przewidywane i klatki są generowane na podstawie tego co my robimy. Polecam też odwiedzić kanał Zmaslo - tam mierzył opóźnienia fizycznie i uzyskał identyczne wyniki :)
Mamy więc kartę, która:
- daje ledwie 30-procentowy wzrost realnej wydajności wzgledem poprzedniego flagowca,
- tak czy inaczej będzie prawie niemożliwa do zakupu ze względu na piętrzące się już pogłoski o brakach magazynowych i opóźnieniach w produkcji.
Super premiera, Nvidio.
@@ArtUniverse jeszcze trzęsienie na Tajwanie i strata ok 20000 wafli w fabrykach 5 i 4 nm. Niby to ilość gotowych z jednego dnia pracy fabryk no ale jak oberwały chipy na serię 5000 to jeszcze mniej gotowych kart będzie dostępnych. A jak oberwały chipy pod A.I. to tym bardziej mniej na GPU przeznaczą z dostępnej puli zamówienia. Wszak z graczy kaski co łaska XD
Dzięki za materiał - komentarz dla Statystyk
Dziwne czasy nastały. Fake frames, fake news. Fake boobs i fake taxi
Z tymi fake boobs to nawet niezłe porównanie :D Przyjemne dla oka, ale ręką zwykle szybko wyczujesz ze to nie to samo - w znaczeniu ze klatki nie pochodzą z silnika gry. Jednocześnie dobrze zaimplementowane są realnie trudne do wykrycia a nadal wyśmienicie cieszą oko!
Jak myślicie nvidia weźmie ode mnie FAKE złotówki za 5090, skoro tak się chwalą fake fpsami na tej karcie???
Ale fake klatki generują mniejsze opóźnienie niż natywnie na Radeonach,
Biorę 5070 Ti
Tylko musisz odpowiednio pliki gotówki przygotować co 5ty banknot prawdziwy a reszta wydrukowana na zwykłej drukarce
@@h4ziroshikościół NVidii?
@@yanek911 zdrowy rozsądek
Niekoniecznie 🙄
"Graczy którzy nie uznają AI w grach". No właśnie, jako gracz uważam, iż dzisiaj Twórcy gier całkiem zapomnieli o co chodzi z dobrym AI (polskie SI) w grach. Przykład F.E.A.R. (z 2005r !) gdzie inteligencja przeciwników ośmiesza to co wyprawiają przeciwnicy w takim Cybrepunku. Więc AI ma ogromną role w immersyjności gier, ale nie to które generuje fejkowe klatki bo Twórcy olali optymalizacje. :) Więc AI jak najbardziej, ale nie takie sztuczne i tanie, bo to tylko marketingowy bełkot + lenistwo.
A, i nie zgadzam się, że standardowa rasteryzacja "nie ma sensu". Mocy obliczeniowej jest zawsze za mało i wszystko zależy od kontekstu jak ją wykorzystamy. Niestety dzisiaj Twórcy idą w śledzenie promieni (które jest baaardzo wymagające) a zaniedbują wiele innych kwestii.
@@sqanns5787 idą w śledzenie promieni ponieważ daje takie sam albo lepszy efekt przy znacznie niższym nakładzie pracy po ich stronie (procesu tworzenia gry). Są też limity tego co może ukazać zwykła rasteryzacja czego się nie przeskoczy darząc do realizmu w oprawie. Nadal gry mogą być piękne artystycznie (chociażby RDR2) ale będzie to uzyskane kolosalnym kosztem procesu ich tworzenia.
Odnośnie AI - nowi NPC korzystający z LLM to największy skok w rozwoju gier na jaki czekam od dawna :D Tak samo w zachowaniu przeciwniku, tak jak piszesz, sporo można poprawić, tylko że wtedy gry był prostsze w budowie i gameplay (jak wspomniany FEAR) co pozwalało stosować o tyle bardziej zaawansowane zachowanie przeciwników.
To jedna z - przypuszczam - samych kart-rozczarowań zapowiedzianych taką też prezentacją na CES. A którą przewrotnie po latach będziemy wspominać jako uczciwie zapowiadającą to, co będzie najbardziej warte wspomnienia z czasów Blackwell, więc nie karty, a technologie. Dla mnie na czele z jeszcze lepszym upscalerem, który zawsze się przyda. I Ace, które bez przesady może okazać się największą rewolucją w grach od czasu grafiki 3D. A będące na pierwszym planie generatory, cóż - warto spróbować i doświadczyć tego osobliwego rodzaju płynności, ale w moim odczuciu fanem generatorów prędzej się nie zostanie.
jak zawsze świetny i rzetelny materiał : )
Fajnie by było jak by RTX 5080 był o te 30% szybszy w rasterze od 4080 i miał chociaż 20-24 GB vramu i zwykli gracze byli by zadowoleni a taki 5090 był by dla entuzjastów, twórców do pracy i wszyscy byli by zadowoleni . Sama myśl tych 16gb vram w 5080 nie daje spokoju już pomijając mizerne wzrosty reszty parametrów :( Ciekawe czy to prawda że może wyjść RTX5080 super z 24gb vramu za rok ?
Jest to wielce prawdopodobne że takie 5080 Super wyjdzie - w sieci lata fotka pudełka RTX 5080 (zwykłego!) z opisem 24 GB : ) A miejsca na 5080 Super pomiędzy specyfikacja 5090 i 5080 jest aż nadto :D
Ale właśnie - kiedy? Jeżeli już to najwcześniej za rok...
@@PoTestach Miejsce mają na kolejnego RTX 5080, lecz zapewne pojawi się w połowie drogi do RTX 6xxx.
Tradycyjna rasteryzacja nie ma sensu :) ? Oj chyba sposób w jaki gram okazuje się że nie ma sensu (bez DLSS czy innych FG)
@@matsu9790 w nowych grach nie ma sensu - powinienem był to podreślić. W Heroes 3 nadal można grać bez DLSS ;)
Nie ma sensu bo twórcy się rozleniwili z optymalizacją@@PoTestach
@@PoTestach ja niewiem czemu ale ja swoim tv jak gram widze wszystkie te niedociągnięcia i artefakty w D4 na 4k jak włączam dlss i nie potrafię tak grac.
Oczywiście, że ma sens, bo wiele gier bez RT ma nie małe wymagania w 4K.
@@matsu9790 Diablo to jedna z tych gier które bardziej potrzebują niskich opóźnień niż płynnego obrazu - nie mam pojęcia po co akurat tu implementowano FG. Ale sam DLSS Super Resolution? W mojej opinii wygląda bardzo dobrze :)
Super robota! Rowniez uwazam, ze to bardziej 4090 TI, a nawet 4090 TI SUPER, bo 32gb🤣. Najgorszy problem to beda ceny, bo conajmniej przez rok beda w granicy 2400$🤣
Frieren skupiła moją uwagę.
Po tym jak powiedziałeś że Stalker 2 ma zaawansowaną symulacje całego świata dalsze oglądanie tego testu straciło sens 😕
@@beznudyPL lubię tak sobie tłumaczyć narzut na CPU w tej grze 😅
Na pewno nie dla mnie bo już ledwo zaakceptowałem 4080 z jego poborem. W realu te 320W nie istnieje a po optymalizacji9, użyucie DLSS i zablokowaniu klatek na 90 to mam ok 200-220W.
ALe przy takim potworku 5090 kusiło by nie używaniu ani DLSS ani tym bardziej FG. I tutaj te 575W to już lekko ugina kolanka XD
Zdecydowanie poczekam na kolejną generację już w 4 lub 3nm. I tak ciężko mi tego 4080S tak obciążyć, by 16GB używał. Mocy by sięprzydało na poziomie 4090... no ale te waciki.
Dla mnie żadna rewelacja, powiększony rdzeń już chyba do granic opłacalności -cena 300mm wafla kontra uzysk.
Do tego mniejsze chłodzenie niż w 4090/4080... WTF? Czemu gabarytów radiatora nie pozostawili dla finów? Takie chłodzenie to byłby killer i hałas przy tych prawie 600W podobny lub nawet niższy niż w 4090. aaa tak small factor ich skusił.
Dwa przelowote sloty w chłodzeniu rewelka i do tego grzebień na złączu-łatwość wymiany w razie uszkodzenia mechanicznego co jest dość częstym przypadkiem przy transporcie gotowców.
i dlatego nie kupuje RTX 5090 za duzo prądu żre . Moze Undervoltingiem zeszło byb sie do 300 Wat ale wtedy to juz była by wydajnosc RTX 4090 bezsensu
@sawomirunknown9084 bo ta cała seria 50x0 jest bez sensu dla graczy.
Tylko 5090 dla najbardziej zajaranych graczy i do pro zastosowań ma sens ponieważ nowych 4090 już się nie kupi poza jakimiś pojedynczymi sztukami pies wie skąd. Pewnie od skalperów.
Najnowszy RTX to żadna rewolucja, bo nowy FG 2.0 (FAKE FRAME GENERATOR, Frajer Generation etc.) to ściema a nie wydajność i jako dodatek a nie główna cecha powinien być rozpatrywany.
Sam to użyłem dosłownie kilka razy podczas testowania ustawień i za każdym razem występuje gumowa reakcja obrazu- jakby np. lightguna (taki pistet do CRT i gier celowniczków) zawiesić w ramce na gumkach recepturkach i próbować tak celować.
Niby czas generowania klatki jest niski -bo im ich więcej w czasie 1000ms to wiadomo mniej ms przypada na pojedynczą. Ale nic to z rzeczywistym czasem reakcji nie ma wspólnego. Pozostaje nawet nie na poprzednim a zdecydowanie zauważalnie wyższym poziomie. Obraz jest płynniejszy-nie skacze np. horyzont ale input lag jest kiepski. Ma to jakiś sens jeśli masz te q00 klatek i chcesz mieć 200 czy 165. Ale rzeczywista reakcja będzie jak dla ok 60 klatek.
Wolę DLSS JAKOŚĆ lub WYDAJNOŚĆ i mieć ze skalowania dodatkowe klatki niż sztuczne z FG.
Przyrost generacyjny czystej mocy najsłabszy od dekady na już starej litografii 5nm z poprzedniej generacji już mającej problemy z poborem i zasilaniem karty.
A największa wtopa to zastosowanie tylko pojedynczego gniazda zasilania. Nawet ostatnie rewizje tego złącza ulegały uszkodzeniu przez przegrzanie a same piny w złączu na karcie potrafiły być wpychane przez wtk ze zbyt ciasnymi pinami żeńskimi.
Sam miałem uwalony adapter w 3060Ti FE więc tym bardziej obawiałem się kart z większym zużyciem. Skoro dla zasilania PCIE 8 pin przewidziano max 150W na złącze to pakowanie 4 takich wtyczek na piny i dużo mniejszej powierzchni uważam za przejaw skrajnego debilizmu. U mnie adapter grzał się nie tylko w karcie to takich temperatuŕ, że piny we wtyczne poczerniamy a tworzywo zrobiło się kruche ale i na samej karcie piny zrobiły się mocno fioletowe prawie czarne. To jeszcze złącze adaptera 8pin się grzało do ok 80°C a zasilacz mam topowy Seasonic z pozłacanymi pinami.
4080SUPER na razie działa stabilnie choć od roku nie sprawdzałem jak tam to gniazdo wygląda. Szkoda mi trochę bez potrzeby zużywać wtyk-ponoć ma wytrzymałość 30 podłączeń XD
Tylko o tym problemie poza Nexusem i kanałami zajmującymi się serwisem elektroniki to nikt nie gada bo im NV znowu zrobi embargo na sprzęt... Żałosne takie kanały co tylko dostrzegają pozytywne aspekty danego sprzętu.
20% lepsza wydajność 5080 względem 4080SUPER na pewno tłumów nie zachęci na tyle by dopłacić te 2, 3 czy nawet 4 tys. zł.
I ten pobór prądu a w Polsce mamy najdroższy prąd na świecie. Zostaje z RTX 4090 i tak nie ma w co grać
Brawo za tłumaczenie 20:35 zamiast zgrywania fachowca i rzucania angielskimi nazwami.
Smieszne RTX3000 Nie dostaly generatora klatek bo się nie dalo a przy DLSS 4.0 sie da
Czarna magia ?
Rozwój technologii również po stronie oprogramowania - nowy generator (również x2) korzysta z innych modeli, co pozwoli go wykorzystać też na wolniejszych jednostkach tensor starszej generacji. Ale owszem - może też chodzić o marketing ;)
Mam pytanie czy i9 14th może być na płycie b760 czy musi być b790
@@joannamisiak6287 można, choć powinna to być dosyć solidna płyta z B760 z uwagi na sekcje zasilania (rozbudowana i dobrze chłodzona). No i pamiętają o aktualizacji BIOS po zakupie oraz używaniu profilu Intel Default z tym cpu.
pewnie każda płyta B760 obsługuje 14 generację więc w czym problem widzisz ?
@@danielor6707 Może w sekcji zasilania.
@wozniar kto kupi tak droga karte aby na niej grac w durne gry. Debil ok kupi normalny pomyśli nad 5070 ewentualnie 5080
@@PoTestach to jaką polecasz b760
No i trafiłeś. Nie jest dla mnie. Mam 4090 i nie widzę powodu na wymianę. Za mały przyrost mocy a za duża dopłata za wymianę. Pozdrawiam
Po prostu nie masz gotówki i tyle :D
Słuszna decyzja - co prawda można by kombinować i mając dojścia za msrp kupić 5090 (kilka takich sztuku zawsze idzie…) a potem w podobnej cenie sprzedać swojego starego (RTXa) :D Ale to spór zachodu jak za to co na ten moment 5090 oferuje więcej.
@ Nie ma czegoś takiego, jak brak sensu - jeśli ma się nieograniczone fundusze, to się bierze i się ma :) Jeśli się nie ma kasy, to się dorabia ideologię braku sensu. ja nie mam kasy, to biorę średnią półkę na raty ;) Tylko nie wiem, czy rzucać się na 5080, czy czekać na 70Ti.
Wystarczy cierpliwie poczekać rok a dobijemy do MSRP ^^
@@krzysztofkzi2598 wbrew pozorom im więcej ma się kasy tym rozsądniej podchodzi się do zakupów. Aż do momentu kiedy faktycznie masz więcej kasy i przybywa jen szybciej niż jesteś w stanie wydać - wtedy faktycznie przestaje sie patrzeć na sens zakupu ;)
Nvidia mega geometry działa tylko przy włączonym path tracing, czy przy zwykłym RT też odciąży pamięć?
@@3back837 tylko przy PT ma sens - bo to ten typ renderowania ma problem z nadmiarem geometrii. Dla prostszych metod, w tym zwyczajne śledzenie promieni które działa dosłownie odwrotnie względem PT, ta metoda nie pomoże z obniżeniem zasobów… ale! Ale poniesie jakość obrazu :)
W przypadku Alan Wake 2 Mega Geometry ma obniżać użycie VRAM i CPU.
@@TechLipton ale zdaje się tylko z aktywnym RT/PT - najbardziej tam gdzie obecnie gra klęka czyli w lesie :) możliwe też że będzie ładniej wyglądać (zależy jak twórcy wyskalują zysk z użycia tej funkcji).
@@PoTestach możliwe, chyba tego nie sprecyzowali. Dowiem się ;)
Wlasnie przez takich testerow klasyczna rasteryzacja zanika,reklamujesz sztuczna wydajnosc i wspierasz tym tworcow ktorzy olewaja optymalizacje.Do tego wydajnosc tej karty tradycyjnym rasterze to 30% max od rtx 4090. Dlss jest przydatna funkcja,ale nie powinna byc tak reklamowana przez tersterow,nie wspominajac juz o FG ze sztucznymi klatkami.Rozumiem sponsor dal karte lub kase to sie mowi ze to super. Nie usuwa sie komentarzy nieprzychylnych.
Możliwości rozwoju rasteryzacji się zasadniczo skończyły, a stosowanie nowych technik to właśnie jest optymalizacja - śledzenie promieni daje taki sam efekty znacznie mniejszym nakładem pracy nad grą, co w praktyce oznacza że gry stają się ładniejsze i bardziej realistyczne. Od dawna juz nowym kartom nie brakuje wydajności w rasteryzacji bo zwyczajnie rozwój poszedł w inną stronę. Tak sam jak kiedyś przestano dalej rozwijać programowe renderowanie grafiki na rzecz właśnie rasteryzacji - dawała znacznie więcej możliwość.
To samo tyczy się upscalingu - to też jest optymalizacja. Trochę jakby się obrażał ze w autach zaczęto stosować turbo sprężarki aby z mniejszej pojemności uzyskać taką samą moc, zamiast dalej podnosić pojemność i dokładać cylindry. Skoro efekt dla użytkownika jest taki sam (albo i lepszy po takich optymalizacjach), to w czym problem? Nawet w grach w których wydajności nie brakuje warto odpalić DLSS Q aby zmniejszyć zużycie prądu i wydzielanie ciepła :)
O FG dużo mówię w podcastcie z niedzieli - w skrócie to funkcja która z dużej wydajności robi dodatkowo super płynność. Tylko tyle i aż tyle w świecie monitorów QHD OLED 500Hz. Podkreślę też że klatki z generatora są tak samo sztuczne jak pozostałe - wszystkie pochodzą z informacji uzyskanych od silnika gry, tylko proces renderowania jest inny.
Kompletnie nie opłacalne karty czekam na Radeonka 9070XT ja full AMD pozdrawiam
Napiszę tutaj, po rozmowach z każdym to postanowiłem pójść najpierw w płytę główną, ram, CPU Rayzen 5 8600G wiem że mierny ale nie mogę lepszego. A620 od ASRocka z wi-fi oraz 3 dysksni m2, ram od Goodram idrm
Procesor w porządku jeśli potrzebujesz używać jakiś czas komputera bez GPU - na tym modelu bez problemu pograsz w każdą grę :)
@PoTestach właśnie taki by był problem ze względu na GTX 1660 która nie radzi zbytnio przy Hogwart legacy na średnio-niskich ustawieniach. Ma około 20-30fps ale występują spadki i opóźnienia. Procesor do najnowszych też nie należy ale jest na "granicy" wymaganych bo podają z 8gen i5/i7 już nie pamiętam
Podsumowując - za więcej kasy dostajemy proporcjonalnie więcej wydajności i proporcjonalnie wyższe zużycie energii. Równie dobrze można wydać 2x kasę na 2x RTX4090 i również dostaniemy 2x większą wydajność przy 2x większym poborze prądu. Karta nie jest więc żadnym postępem, tylko upchnięciem większej ilości tego samego za proporcjonalnie więcej kasy. A szkoda, bo chciałem mieć jakiś sensowny powód do zakupu, ale gierkowe fajerwerki w postaci sztucznych klatek w pracy do niczego mi się nie przydadzą.
W pracy nie można pomijać usprawnień w wydajności jednostek i pojemność a także przepustowości VRAM. W a grach niestety kart juz nie da się łączyć ;) więc zrobili taki „absolutne minimum” aby faktycznie dać powód do wymiany sprzętu - tak u graczy jak i u twórców treści. Co dobrze koresponduje z planowaną dostępnością tych kart…
@@PoTestach Owszem, są to argumenty za, ale dla mnie procentowo niestety zbyt małe 🙂
Bo nie kupi jej gracz. A ktoś kto będzie potrzebował i umiał skorzystać z jej mocy. A że w grach są wydajniejsze od 4090. No szkoda bardzo żeby miała nie być.
No właśnie dokłądnie odwrotnie niż piszesz. nVidia pakuje coraz więcej DLSSa który się kompletnie nie nadaje do "profesjonalnych zastosowań" gdzie jest potrzebna moc w rasteryzacji a nie "ściema" upscalerów
@@tiemanowo oj zupełnie się nie zgodzę - w zastosowaniach profesjonalnych DLSS nadaje się jeszcze bardziej ponieważ tam nie potrzebujemy mieć w podglądzie idealnego obrazu a musi on działać płynnie. To co na CES pokazali mi w D5 Render wybitnie tego dowodzi - podgląd sceny (render wnętrza, bo to program do projektowania) i śmigasz sobie w fotorealistycznej oprawie (RT w czasie rzeczywistym) przy 60 FPS z DLSS zamiast 10-12 FPS bez niego.
@ No nie jestem tego taki pewien bo potem się okazuje ze to co się "wyrenderowało" finalnie wygląda inaczej niż to co było na podglądzie z DLSS
@@tiemanowooczywiście że wygląda inaczej, ponieważ będzie pozbawione aproksymacji :p Ale te sama kwestię poruszyłem podczas rozmowy z Nvidia na pokazie (w kontekście samej rekonstrukcji promieni) jako że ona faktycznie zmienia obraz w znacznym stopniu - ich odpowiedź brzmiała „DLSS RR można osobno dezaktywować albo używać też w finalnym renderze”
za dużo testów ze wspomagaczami. Tylko czysta rasteryzacja. Wspomagacze powinny mieć co najwyżej swoje osobne testy i nie powinno się brać wydajności oferowanej przez nie do oceny.
Tylko że po co ci wyniki w „czystej rasteryzacji” skoro po zakupie takiej karty nie będzie z takich ustawień korzystać? A najpewniej, jeżeli masz kartę z której z dwóch poprzednich generacji NVIDI albo serię 7000 od AMD, to już teraz w taki sposób nie grasz? Na co komu takie wyniki?
Osobne testy dotyczą funkcji które faktycznie są opcjonalne i sytuacyjne (czyli DLSS MFG) oraz tam gdzie się dało osobno pokazałem wyniki bez śledzenia promieni (co faktycznie część graczy będzie preferować mimo wyrazie gorszej oprawy graficznej).
Mogłem założyć kanał YT zeby dostac tą kartę 😂😂😂😂
Obawiam się, że raczej praca w redakcji portalu internetowego była czynnikiem, który zadecydował o przesłaniu do mnie karty ;) Polecam zajrzeć na benchmark,pl gdzie jest nawet obszerniejszy test mojego autorstwa :)
Ale owszem - gdybyś założył kanał i robił tak dobrą robotę jak chociażby TechLipton czy Zmaslo to pewnie też byś był na liście NVIDI pod premierowe testy.
DLSS = największa ściema ostatnich lat w branży gier i zdania nie zmienię. Ta technologia dała developerom kolejny powód aby nie poświęcać w ogóle czasu na optymalizację.
@@tiemanowo owszem - mogą tworzyć ładniejsze gry i skupiać się na fabule a optymalizację zostawić AI. W sumie nie brzmi to wcale źle skoro efekt finalny jest taki że gracze na tym zyskują (przynajmniej w teorii, bo w praktyce można by polemizować czy większość gier, od wejścia skutecznego upscalingu, zyskała na jakości :p
@@PoTestach ladniejsze gry? No nie wiem, ostatnie gry może oprócz wukonga i cp2077 na pt to wyglądają jak gry z ery GTX 1060, np. ten stalker to wygląda jak gówno w którym ktoś wjebał SSAO x10 rodem z BF'a 3 i chuj i dobrze jest, ten frame gen to taki średni = chujowy jest jak ktoś jest wyczulony mocno na to
@@patrykwadowski832to o tyle zabawne co piszesz że Stalker nie ma ani grama śledzenia promieni :p
@@PoTestach @PoTestach Może źle to ująłem z tym SSAO faktycznie ale nie zmienia to faktu że no ta gra jak człowiek nie siedzi z metr/półtorej, to wygląda jak gra wydana w 2014-2018 z jakimś ENB wgranym, dodając do tego rozjebanego UE5 z tą kompilacją shaderów do porzygu no i obsranym TAA, no przecież na staruszka most wanteda się lepiej patrzy
Co ty za głupoty piszesz. Bez FG często jest 30ms a FG podwaja ten wynik z reflexem. Widze ze tu przelew doszedł.
Z czego wnioskujesz że dobry generator musi podwajać opóźnienia? To nawet w teorii nie ma sensu. A to o czym pisze (na benchmarku) oraz mówię tutaj na filmie wynika z tego co realnie przetestowałem i zmierzyłem.
Czyli z 40 dopiero na 60🤣 Masakra z tą kulturą pracy i wtyczką!
@@BAKTERIA1985 na to wygląda - że dopiero seria 6000 będzie przeskokiem technologicznym którego tutaj zabrakło.
@ Dokładnie pozdrawiam
Świetny materiał. Bardzo klarownie i dobrze wytłumaczone wszystkie korzyści w nowej karcie NVidia.
RTX za 19.999 zl to bardzo dobry wybór 😂 przeciez im droższą kartę kupcie tym więcej zaoszczędzicie 😂😂😂 Ten miliarder w skurzanej kurtce nie byl by miliarderem gdyby tak nie bylo jak powiedzial 😂😂😂 ja będę rozrzutny i nic nie kupię od zielonych 😂😂
Aha, wszystkie testy z rozmydlaczami, nie oglądam tego dalej....
Spokojnie - po jednej stronie ekranu jest bez rozmydlacza (tam gdzie podpisałem DLSS). Chyba że wolałbyś abym porównywał karty NV z DLSS (z którym oferują obecnie zwykle lepszy obraz niż bez niego) do kart AMD bez FSR oczekując na w końcu lepiej działający FSR 4? To byłoby mocno nie uczciwe na wykresach…
subiektywna recenzja lvl master... najbardziej obrzydliwa sponsorowana reklama nvidii i tego syfu z fake klakami na polskim you tube jaka widziałem
Zastanawiam się jak do twojej teorii pasuje fakt że uzyskałem bodaj najniższe przyrosty wydajności względem 4090 spośród wszystkich mi znanych testerów? Co wynika też z przyjętej procedury, która w zamian za urealnienie wyników częściej była limitowana przez cpu - to tak gdybyś się zastanawia z czego to wynika.
A tak przy okazji - recenzja zwykle jest subiektywna co do zasady (i defincji), ale też może byc podparta obiektywnymi obserwacjami, pomiarami i testami - to właśnie masz na moim filmie. Nie zabraniam wyciągać z prezentowanych wyników innych wniosków. Powiem więcej - chętnie wysłucham jeżeli takowe masz. Po to właśnie są komentarze :)
już chciałem łapę w dół zostawić ale pokazałeś artefakty dllsa więc się wstrzymuję ale z logiem zielonych na bluzie podpadłeś
Spokojnie - na filmie o Radeonach będę miał ich emblematy tak jak i zmienię światełko w tle na czerwone. To tylko dekoracje (a gdyby faktycznie miał jakiś interes w promowaniu czegoś innnego niż wskazują niezależne testy to z pewnością tak bym się z tym nie obnosił :p) i mam nadzieję że bardziej przemawia to co pokazuje na wykresach oraz właśnie porównaniach obrazu niż to co założę na siebie :)
Ps. Polecam odszukać mój film z premiery RX 7900XTX właśnie na kanale benchmark-pl - tam to dopiero bylo lokowania odzieżą :D
Testy, testy i po testach... Nazwa kanału dobra, bo faktycznie nie ma czego oglądać...
I 30% wzrostu za 30% wyższą cenę i 30% wyższy pobór energii to naprawdę słabo, a nie dobrze.
Chyba oboje inaczej rozumiemy słowo rozwój.
No tak bez kozery powiem 500% to jest rozwój a te marne 30% to jest regres... ha, ha
@@MaximusDecimus-nb3gk owszem - też jestem nieco zawiedziony i po ponad 2 latach liczyłem na więcej. Tak jak napisałem w artykule na benchmark - czuć że NV skupia się na rozwoju swojego sprzętu pod AI a graczy traktuje „przy okazji” w najlepszym przypadku, czemu trudno się dziwić mając na uwadze że stanowimy (my gracze) 10% jej dochodów…
@PoTestach I pod tym mogę podpisać się obiema rękoma.
Dla jasności:
Seria RTX 30 - 8nm Samsung
Seria RTX 40 - 5nm TSMC 4N
Seria RTX 50 - 5nm TSMC 4N
Jest rtx 5090 na techpowerup to sobie zobacz czy masz 4nm ...
The GeForce RTX 5090 is the company's flagship graphics card in this generation, and is based on the gargantuan 5 nm GB202 monolithic silicon. The SKU enables 170 out of 192 streaming multiprocessors (SM) present on the chip, achieving 21,760 CUDA cores, 170 RT cores, 680 Tensor cores, 680 TMUs, and 176 ROPs. The memory sub-system sees a major generational upgrade. The card comes with 32 GB of GDDR7 memory running at 28 Gbps. NVIDIA has widened the memory bus to 512-bit, giving the RTX 5090 an enormous 1.792 TB/s of memory bandwidth-the kind you expect from HBM setups on AI GPUs. These massive increases in memory size and bandwidth are crucial for the GPU to pull off high-geometry ray tracing, and neural rendering.
To jest takie czepianie się nomenklatury - TSMC nie ma oficjalnie procesu 4 nm - dopiero przeskok na 3 nm będzie na nowej linii produkcyjnej. Wszystko co robią jako N4 idzie w fabrykach 5 nm, ale w istocie spora część tych układów jest właśnie w rozmiarze 4 nm.
Z tego co mi wiadomo NVIDIA nie zmieniła procesu technologicznego pomiędzy serią 50 a 40, zatem albo oba nazywamy "rodziną 5 nm", albo oba opisujemy jako "z grubsza 4 nm".
@@PoTestach Nie czepiam się tylko po prostu chce wiedzieć pamiętam jak kiedyś jak wychodziły rtx 4000 też dużo razy mylono procesy technologiczne 4N z 5nm a patrząc na rdzenie 4080 i 5080 mają taką samą ilość tranzystorów i powierzchnie więc nic się nie zmieniło przy 4nm powierzchnia by już była mniejsza
Przepraszam za zamieszanie, producenci tak manipulują nazwami procesów technologicznych, że tym razem nie sprawdzając dokładnie sam dałem się nabrać
śmieć nie karta
Wygląda na materiał SPONSOROWANY, bo a) masz kartę do testów przy tak małej liczbie widzów, b) zmiana metody testowej by uwzględniać upscaling - ukłon względem Nvidi, szczególnie, że wielokrotnie podkreślasz, że FSR słabo wygląda. AMD często nie trzeba stosować upscalingu by być zadowolonym. A ciężko mi uwierzyć by upscaling był lepszy niż natywne renderowanie. (to po prostu niemożliwe - chyba, że ktoś wierzy w magię).
Kartę mam do testów, ponieważ jednocześnie jestem redaktorem jednego z trzech, może czterech liczących się w Polsce portali o tematyce technologicznej (gdzie również dziś pojawiła się moja recenzja w podobnym tonie, ale nieco bardzie szczegółowa).
Zmiana metodologii testowej wynika z tego jak ja, moim znajomi oraz osoby które na potrzeby tego badania zapytałem, właśnie w ten sposób grają - używają upscalingu aby mieć więcej FPS przy pomijalnym wpływie na jakość obrazu (choć tutaj podkreślę, że w mojej opinii upscaling NIE sprawdza się w FHD!).
A co do upscalingu lepszego niż natywna rozdzielczość to rozwiązanie tej zagadki jest proste - nazwa upscaling jest tutaj myląca, ponieważ w przypadku DLSS opisuje tylko rezultat a nie proces. Ten klasyczny upscaling o którym myślisz faktycznie cudów nie zrobi, ale rekonstrukcja obrazu do wyższej rozdzielczości z pomocą sieci neuronowych owszem ma taką możliwość, jako że z założenia tworzy nowy obraz (z nie tylko rozciąga stary, jak robią to zwykle telewizory i do pewnego stopnia również obecny FSR. Trochę tak jakbyś nie wierzył, że AI może namalować ładniejszy obrazek niż to, co jej przekażesz namalowane samemu w programie graficznym :) Czy to będzie dokładnie to samo co byśmy zobaczyli renderując w 8K zamiast w 4K? Nie. Czy ma to znaczenie? Też nie :)
Dlss to nie jest tylko upscsling żeby mieć lepsze fpsy. To rekonstrukcja klatek wspomagana Ai przez co obraz niższej rozdzielczości upscallowany może wyglądać lepiej niż ten natywny. I to już było widać w przypadku dlss 3.5 albo 3.7 nie jestem pewny
@ Dzięki za wyjaśnienia. Obraz w takim razie wygląda wystarczająco dobrze, ale nie lepiej. Jak z generacji wyszłoby, że 2 piksele się pojawią w TLE głęboko, to upscaling nie jest w stanie tego zgadnąć. WIęc będzie pozbawiony tych 2 pixeli, a w szczególnym przypadku może robić to różnicę. Przy czym 2 pixele to przykład. Pod względem liczby testów faktycznie dużo pracy włożone i doceniam, ale nadal co do metodologi nie zgadzam. Sam mam AMD i nie stosuję upscalingu więc dla mnie wyjasnienie odnośnie zmiany metodologi jest od czapy. W ten sposób pytając czy ktoś stosuje FG można też dodać do metody testowej i potem mówić, że ten procek , który będzie potrafił więcej wygenerować klatek pośrednich jest lepszy. Takie podejście możliwe, ale wg mnie niesprawiedliwe. ALe ludzie głosują na Trumpa czy PIS bo wierzą, ze są lepsi choć nie ma na to ŻADNYCH dowodów obiektywnych, ale niektórzy propagandę kupują, stąd moje krytyczne podejście do tej metodologi. ŻADEN kanał (a widziałem z 10) testujący 5090 nie zastosował Twojej metody, stąd pozostanę przy swojej opini.
DLSS poprawia błędy normalnego renderingu, owszem, czasem coś tam się sypie, ale tego nie widać - chyba, że na filmach na YT statyczne screeny ;) OK, Cyberpunka przeszedłem strzelając bez ostrzy modliszki, to nie miałem tego syfu na ekranie :D Nie chce mi się tłumaczyć w koło całemu światu, że dlss+fg+reflex są lepsze, niż natywny render. Natywny był fajny na Amidze i w Dosie ;) Ok, był fajny do czasu pojawienia się RT. Teraz z RT nie da się grać bez tego.
@@piotrpastuszka6613 Poczytaj sobie o DLAA, bo chyba przegapiłeś te 30 sekund filmu, natywne renderowanie może być dużo gorsze
Nie 4nm tylko 5nm :D
Dokładnie 5nm seria 4000 i 4nm seria 5000. Przynajmniej tak inni typują w recenzjach. Ale widać chociażby po komentarzach to sprawa ma widzę drugie dno.....
@@kamilw9839 obie karty (serie) to DOKŁADNIE ten sam proces technologiczny (co jest podane w White Paper, którego zapomniałem podpiąć w opisie :p) - mowa o TSMC N4, które w głównej mierze oznacza 4 nm.
@ Nie
@@PoTestach jak można tak kłamać? masny test mitomana.
Geforce rtx5090 mega wydajna karta graficzna
AI BOLSHIT
nareszcie ktoś pokazał UCZCIWIE jakim kurduplem jest RX7900 XTX - najlepszy radeon
Czyżby typowy fanboy NVIDII, no chyba tak skoro pozostawił po sobie taki komentarz XD RX 7900 xtx to świetna karta, ale jak się ma zamydlone oczy przez zielonych to tak jest :D żeby zaraz nie było że jestem fanboyem AMD, to posiadam RTX 4080 super, a żona właśnie rzekomego Rxa i wiem że RX jest trochę wydajniejszy od 4080 super więc te testy są wzięte chyba z innej rzeczywistości. Rt to inna bajka wiadomo
@mateuszmayska7436 Jako że test dotyczy topowej karty na rynku, to nie bawiłem się w obniżanie ustawień, czego też nie będą (i nie powinni) robić nabywcy takiej karty. To niestety stawia Radeony, w tym testowanego RX 7900XTX w bardzo trudnej sytuacji, jako że nie został zaprojektowany z myślą o granie w takich ustawieniach. To dobra karta do średniego segmentu, w którym niekoniecznie gramy na zupełnie dokręconych ustawieniach i wtedy przewaga RTXów maleje a RX 7900XTX często potrafi wyprzedzić RTX 4080 Super, zwłaszcza w starszych lub mniej zaawansowanych grach, które w ogóle nie korzystają z rdzeni RT.
W filmie też kilkukrotnie podkreślam, że jest to karta praktycznie 3x tańsza, ale nie chciałem aby AMD całkiem zostało na premierę pominięte bo jak sam zwróciłeś uwagę to nie są złe karty. RTX 5080 będzie testowany w podobnej procedurze, ale RTX 5070 i 5070 Ti już przejdą na mniej ekstremalne ustawienia, a to one są konkurencją dla RX 7900 XTX oraz nadchodzących RX 9070 (co też sugeruje nowe nazewnictwo AMD).
Bardzo słaby materiał
No bez przesady - te karty są prawie w całości z metalu i krzemu - to całkiem solidne materiały...
Chyba że masz na myśli RTX Neural Materials - tego jeszcze nie miałem okazji testować od powrotu z CES.
Kolejne oszustwo Nvidia, Letency mierzone przy FG jest tak niskie, bo rekompensuje to zagęszczenie klatek, a programy mierzą między każdą klatką, sztuczna inteligencja nie jest w stanie przewidzieć w którą stronę ruszysz myszką. Jak ktoś będzie tworzył 200 fpsów z 30 autentycznych będzie czuł ogromne opóźnienie przy ruchu myszką, bo powinno się mierzyć Letency tylko między tymi autentycznymi klatkami, wyjdzie w praniu przy słabszych kartach nvidia.
Żaden generator nie wytworzy 200 fps z 30. Polecam też posłuchać jak tłumacze na filmie zasadę działania FG - nic tutaj nie jest przewidywane i klatki są generowane na podstawie tego co my robimy.
Polecam też odwiedzić kanał Zmaslo - tam mierzył opóźnienia fizycznie i uzyskał identyczne wyniki :)
Obrzydliwa reklama generatora klatek przez gogusia z mokrymi gaciami co dostał sprzęt za darmo od sklepu.
Gdzie, bo chętnie obejrzę! Zwłaszcza że sklepy jeszcze kart nie mają (a wersji którą testowałem nigdy mieć nie będą)…