Lossless Scaling i maamy DLSS 4.0 w domu :D Nie działa tak dobrze ale mówiąc szczerze? Grałem w Dying Light 2 i wiedźmina i jak długo masz 50fps+ natywnie po odpaleniu aplikacji to daje uczucie tych 100+ fps takze duzo bardziej się to opłaca :D
@@kostrzu321 niestety nie jest to tak oczywiste i prędzej bym to porównał do pierwszego frame generatora z dlss3, bo fakt, LS na podwajaniu klatek radzi sobie fajnie, ale na klatkach x4 juz nie i tu trzeba się bawić w magika pod dany tytuł.
+30% wyższa cena. Kupowałem karty na premierę jak były normalne czasy, wtedy nowe gpu było wydajniejsze, miało niższy pobór prądu, cena? Nie było tragedii ;)
Dlaczego recenzenci nie jada po tych sztucznych klatkach. Przecież jeżeli tego nie ustawisz w trybie jakość. To aż razi w oczy. Nie mówiąc już że gwałtowne ruchy wiążą się z zacięciami.
@@randomowsky Co jest nie prawdą? Jesteś niewidomy? Lipton w recenzji 5090 pokazuje jak na ekranie widać dwa celowniki przy szybkich ruchach myszką. Input lag z MFG nazywa pływaniem. To pływanie to gigantyczny input lag przy sztucznych 100 fps zrobionych z 30 prawdziwych. Czujesz jakby gra była w zwolnionym tempie chociaż niby jest płynnie.
Ja na przykład nie jadę, bo nie uważam, żeby był to powód do jechania. Skrytykowałem cenę, która moim zdaniem jest za wysoka w stosunku do przyrostów "naturalnej" wydajności, ale DLSS od trójki tak naprawdę, działa już dość dobrze, a teraz jest wyraźna poprawa. Nic nie razi w oczy. Tego po prostu trzeba spróbować, a mam wrażenie, że wiele osób powiela cudze opinie, oparte na cudzych opiniach itd. Też bym wolał więcej tradycyjnych klatek, ale może faktycznie jest jakiś przestój i nie da się teog więcej wycisnąć na ten moment. AMD dlaczego odpuszcza high end? Bo wydajności nie wycisną, a FSR jest w lesie za DLSS. Jeśli to byłoby prawdą, należy się cieszyć, że jest jakiś postęp, choć nie do końca w stronę, której oczekujemy. Artefakty, wiadomo, są i muszą być, tego się nie da uniknąć, ale jest sporo lepiej, niż na DLSS3, wierzcie mi, długo nad tym przesiedziałem i wiem, co mówię. To, że Lipton bez problemu sprowokował pojawienie się artefaktu, to normalne, on też się nad tym nasiedział i wie, gdzie tego szukać. Ja tak samo pokazałem, że na włosach od razu lecą artefakty, mimo, że znacznie mniejsze niż poprzednio. A czy pływa? Pewnie zależy od gry i ustawień. Ja nie zauważyłem, a opóźnienia sami widzieliście, jaka jest różnica. Tyle, co nic. Ja na ten moment celowo wstrzymuję się od oceny tych fejkowych klatek i nie dlatego, że Nvidia mnie opłaca, czy chcę się komuś przypodobać, tylko dlatego, że nie wiem, czy zielonym należy się pochwała, bo znaleźli rozwiązanie, gdy nie mogą wycisnąć więcej wydajności z krzemu, czy jednak krytyka za pchanie na siłę uczenia maszynowego na fali popularności AI. Dlatego apeluję między innymi o oglądanie jak największej ilości recenzji. Zieloni twierdzą w ogóle, że 80% osób posiadających sprzęt wspierających tę technologię, korzysta z niej. Nie wiem skąd mają te dane, ale może ta niechęć ogółu wynika w pewnym stopniu z niewiedzy, jak pisałem na początku? Trudny temat, bo moim zdaniem nieunikniony jest rozwój w tym kierunku właśnie, a przez laaata byliśmy przyzwyczajeni do czego innego. Zobaczymy, co czas przyniesie. Pozdro i dzięki, że wpadliście na film!
Co ty ich tak bronisz tej Nvidii ? Miliardowa korporacja ojoj nie może już zwiększać surowej wydajności bo silikon, i muszą sztucznie nam podwyższać, jesteś jak opłacony sędzia co gwiżdże tylko dla jednej drużyny 🙄
nie do konca krzem bo wydajnosc zwiekszyc moga i niech za przyklad posluza procesory stare dobre cpu. tylko ze sa zbyt leniwi zeby opracowac lepszy synchronizator
RTX 5000 to nic innego niż RTX 4000 po małym OC w nowym opakowaniu. Tylko że droższy w eksploatacji patrząc na pobór mocy. To nie progres to regres. Po obejrzeniu tego materiału kupuję 4080s, przesiadka z 3070ti. Dziękuję za materiał.
No cóż... Bawiąc się w sim racing, fejkowe klatki i wzrosty opóźnień to coś, co interesuje mnie najmniej, tylko czysty raster i ewentualnie wydajność w RT.
Też zajmuję się sim racingiem i oczywiście w takich tytułach te wszystkie bajery graficzne nie mają tam racji bytu, ale z drugiej strony gry sim racingowe nie są jakimiś zabójcami kart graficznych więc te 120-140 klatek na luzie takie RTX natywnie wygenerują, ale już w takim cyberpunku jak najbardziej te rozwiązania się sprawdzą.
@KARHES chyba że mówimy o EA nowego Assetto, to tak, to jest niezoptymalizowany zabójca karty graficznej, zwłaszcza jak ktoś ma trippla albo VR xd sam w sobie dlss jak najbardziej się nadaje, ale tylko jako upscaling, frame gen w sim racingu nie cholery nie ma racji bytu
Jaja sobie robią. Karta za tyle kapuchy i tak mizerne osiągi. Jestem pececiarzem, który na początku wieku przesiadł się na konsole ( PS2, Xbox 360 elite, Xbox One Scorpio, Xbox series S, Nintendo Switch Oled, Xbox series X). Obecnie mam na stanie 360tke, Nintendo i Series X. W 2K24 zdecydowałem się na powrót do PC, zakupiłem set na AM5 z RX7800xt i monitorem 144hz za prawie 9k. Zastanawiałem się nad upgradem grafy ale patrząc na to co mają do zaoferowania i przede wszystkim za jakie pieniądze odpuszczam.
Jak powiedział Ben, wuj Spidermana, "z wielką mocą wiąże się wielka cena" 🤪 Tylko że tutaj z mocą, w porównaniu z poprzednikiem, tak średnio, bym powiedział 😉
Odnoszę wrażenia, że producent już od kilku lat maskują słabe wydajności za pomocą DLSS. Po wyłączniu DLSS parktycznie nie da się grać w żadną grę przez Steam VR klasy AAA i to nawet na RTX 4070. A w grach DLSS psuje praktycznie całą rozdzielczość i widać niedociągnięcia tego algorytmu.
Chciałbym zobaczyć materiał o dogłębnym przetestowaniu opóźnień z włączonym generatorem najlepiej z perspektywy kilku osób. Osobiście widze sporą róznice miedzy 20 - 40 ms ale moge nalezec do mniejszosci wszystko jest wtedy takie rozmydlone w ruchu. Ciekawe jak to jest w przypadku seri 50. Karta ma potencjał ciekawe czy podziałają coś jeszcze ze sterownikami.
no to ładnie 5090 60 klatek w wukongu i 500 wat przeciw 4090 380 wat i 50 klatek. Ciekawi mnie jakie wyniki poboru prądu były by z undervoltingiem. Tez mnie interesuje jakie wyniki były by jak 4090 podkręciło by się pobór mocy na podobny poziom 5090
No cóż, ja ze swojej 4090 na 5090 nie zmienię, poczekam co najmniej na 6090. W Rasteryzacji nie robi na mnie wrażenia, nie widzę skrajnego przeskoku(uwzględniając cenę do przeskoku) A co do pytania o testy stricte na DLSS/FSR, nawet frame genach - Czy to źle? To bardzo źle moim zdaniem, twórcy gier całą optymalizację zrzucają na te funkcje, które pierwotnie miały być dodatkiem, a my sami będziemy kupować karty niewiele hardware różniące się realną mocą, a polegającą na dopuszczaniu do software, totalna dystopia.
@@Exarvi No tak to wygląda w rasteryzacji, cóż. Teraz będziemy płacić za dostęp do najnowszego software w nowych kartach, a nie za realny przyrost mocy hardware, aż edytowałem swój kom. Przykre.
ty optymalizacje widziales? poogladaj sobie analizy kodow gier to zobaczysz jaka optymalizacje mozna wykonac o ile sie nie myle w samym cp77 jest to na poziomie okolo 20% ze wzgledu na kijowo zoptymalizowany kod. A co do tego ze tworcy zzucaja na frame gen i dlss tak w pelni sie z tym zgadzam i to powinno byc zastopowane podam to na przykladzie aplikacji na system linux gotowe pakiety ok jeszcze idzie porzebolec ale kompilowac od zera to czesto masakra pakiet wazy od 10 do 30KB nie MB tylko KB a samych bibliotek jest czesto okolo 100 mega. ps wywalic chromium i qt z league of legends, valo, cp, wszystkich co do jednej gry od ubi to czesto te gry beda wazyc o pare giga mniej za to ze ktos odwalil cala robote
W obliczu MFG powinno używać się zwrotu "wzrost płynności" a nie "wzrost wydajności", bo sztuczne klatki nijak mają się do wydajności. Płynność rośnie, a responsywność kuleje.
Tak słucham różnych recenzentów i mam wrażenie że większość z nich jest zmieszana i nie wie czym bronić tej karty. Bo tak patrząc to jest rtx 4090 po tuningu. Czyli masz większą moc kosztem zużycia energii i pieniędzy. Na plus nowe podejście do chłodzenia. Generator klatek jak narazie takiego szału nie daje zwłaszcza jak ktoś potrzebuje do gier online gdzie ważny jest czas reakcji. Zobaczymy co pokaże reszta kart. Ale mam wrażenie że większy fan był przy premierze rtx 3000. Pozdrawiam
Nie no to są dwie różne rzeczy. To są sztuczne klatki, osiągnięte przy pomocy AI i/lub algorytmów, a rasteryzacja to czysta moc, ale z drugiej... inaczej, mi chodzi o opóźnienia, jestem graczem gier e-sportowych i mi chodzi tylko o opóźnienia, bo jeśli opóźnienia z DLSS i FG będą tak samo niskie albo niewiele wyższe, ale nie na tyle żeby odczuć różnicę nawet dla e-sportowca, to każdy woli mieć 300 klatek niż 100. To jest klucz, na razie te opóźnienia z DLSS/FG są minimalnie wyższe od czystego rasta, a to dobrze wróży. Rób jak najszybciej test z jakimś e-sportowcem gdzie gra z DLSS i FG i bez i jakie osiąga wyniki, czy w ogóle tak małe różnice w opóźnieniu mają jakiś rzeczywisty wpływ na osiągi.
no tak, ale jak jesteś e-sportowym graczem, to raczej i tak grasz na FHD albo jakiejś jeszcze pomniejszonej rozdziałce 4:3 i niskich ustawieniach, więc problem Cię nie dotyczy, bo z dużo słabszych kart wyciśniesz te 300FPS, nie? Myślę, że to jest bardziej pod gracza na wysokiej rozdzielczości i ustawieniach, choć z tymi opóźnieniami i tak już nie ma źle, a co dopiero jak reflex 2 wejdzie. Gorzej artefakty myślę, bo w puste piksele strzelać nikt nie chce.
Przyrost jest nawet porządny, ale nie wiem czy wiele zmienia. Na RTX 4090 mamy 62 klatki, a na 5090 mamy 70-80 fps. Czy to aż taka znacząca zmiana? Nie wiem czy warto za to dopłacić kilka tysięcy złotych, w szczególności, że te „12k” to tylko referent i zapewne nawet Palit będzie co najmniej o tysiąc złotych droższy.
60 klatek w 4K, karta za 15 tyś zł xD Nie no tylko brać! Mam nadzieję, że dzbany będą kupować do tego OLEDy 4K 144Hz xD Ta rzeczywistość staje się memem.
zaraz jakiś "brajanek" powie że jesteś biedakiem, teraz brajanki chcą wincyj Hz i wincyj klatek, do tego koniecznie oświetlenie RGB w kolorze tęczy by być pro gejmerem, no to robią pod takich nabywców sprzęt...
@@randomowsky radze sie zaglebic w to jak dzialaja transformery to zobaczysz ze te 3 klatki na nvidi jest ze wzgledu obciazenia taki sam wysilek jak 1+ czy 2+ wiec tak tylko czysta rasteryzacja a ai nic nie da
Czyli bez 1000W zasilacza nawet do niej nie podchodzimy. Co do wydajności przechodząc z 3060 ti nie bede marudził. Tylko bardziej mnie martwią temperatury pamięci 5090.
Sam zamysł DLSS i generowania klatek jest dobry. Podoba mi się, ale moim zdaniem powinien to być DODATEK, a nie że kupując kartę graficzną kierujemy się tym, że dzięki AI wygenerujemy sobie wydajność, której, nie oszukujmy się, jest za mało. Ponadto, rozleniwiają tym także twórców gier. Nie optymalizują ich już tak jak kiedyś, bo przecież można włączyć DLSS żeby mieć 4 razy więcej klatek. Nie podoba mi się także podejście nvidii, takie ubóstwianie tego, jak by to było nie wiadomo co. Przykładem jest porównywanie czystej wydajności rtx 4090 do rtx 5070 z wygerenerowanymi klatkami. Szkoda również, że wiedząc, że i tak ludzie będą kupować te karty, podwyższają ceny najwyżej, jak tylko się da. Czas pokaże, ale moje przeczucia co do 5080 i 5070/ti nie są zbyt dobre.
Cyberpunk miał jakieś wygładzanie jeśli chodzi o Natywne ? jakieś TAA czy co tam ma? Dzisiejsze gry bez włączonego jakiegoś Antyaliasingów zawsze wyglądają jak Sraka. Nie wiem czym to spowodowane, chyba ilością detali i poligonów.
Bez DLSS raczej miał jakieś wygładzanie. Bo z no to outuje każde wygładzenie krawędzi. Niby do 4k nie powinno być potrzebne ale coś jest z tymi grami, że bez jakiegoś wygładzenie wygląda to słabo :/
@@kostrzu321 No w wielu grach zauważyłem zwłaszcza na UE że jak mają dużo detali i nie ma się włóczonego jakiegoś AA, które dziś prawie nie zużywa wcale wydajności, Pixele dostają za przeproszeniem Pierdolca nawet w 4k, i gra zaczyna wyglądać nawet jak pixel art, bo każdy wygenerowany pixel chce być wyraźny, a nie tworzyć spójność. Ostatnio grałem w Stalkera 2 i tam nawet FSR w 4k z 1080p lepiej wygląda niż natywna rozdzielczość gdzie wszystko jest ziarniste na 6000% bez wygładzeń.
wg mnie jak na flagowca z takimi możliwościami powinno pojawić się więcej testów pod aplikacjami, to raz. Dwa, co do przyzwyczajania się do przechodzenia na testy tylko z dlss itp., to uważam, że tak długo, jak właśnie można obserwować glitche w grach, to takie testy nie powinny mieć racji bytu. Alan Wake 2 na fg + dlss quality w przypadku rtx 4070s również pokazuje mi artefakty na włosach Sagi i jest to baaaardzo mocno widoczne. Bez dlss i/lub FG problem nie występuje, więc to ewidentny problem od strony nowinek w kartach. Jeśli te problemy znikną i gracz nie będzie zauważać ghostingu i wszelkich buraków graficznych to owszem, niech to się stanie testem natywnym, bo AI nie da się uniknąć, po prostu czysta wydajność dobija do ściany i niesamowicie ciężko jest już zmniejszać proces produkcyjny, a co za tym idzie pobór pradu, napiecia i upychanie tranzystorów na chipach. Natomiast zastanawiałem się, czy procesory będą się odbijać od flagowca na mniejszych rozdzielczosiach i dzięki Kamilu za rozwianie wątpliwości, bo to pokazuje jakim bezsensem jest pakowanie niebotycznych kwot w aktualnie przepłacone ryże 9800x3d.
Przestańmy się oszukiwać najważniejsze jest jak działać będą rtx 5060, 5060 Ti i 5070 bo to są wybory normalnych klientów, a ivnawet bawiacych sie ML, deep learningiem czy AI. To jest tylko ciekawostka i wybór dla 1% oglądających/kupujących karty
Do AI to najważniejszy jest RAM, nie bez powodu są takie różnice w tych segmentach, zrobiono to specjalnie aby tych kart do AI nie wykorzystywać, już teraz tak jest że zamiast 4070 to lepiej kupić 3090 bo ma 24GB.
Zobaczymy, ale na razie zapowiada się słabiutko :P nawet po specyfikacji, natomiast 5090 zapowiadał się zarąbiście po specyfikacji i dostaliśmy drogiego, prądożernego kotleta, do tego z pieczątką wydajności od CEO Nvidii. :D Moim zdaniem powinni dodawać twarz CEO nvidii na pudełka kart serii 5000, taka duża głowa CEO Nvidii obejmująca całe pudełko, czoło może spotkać się z napisem DLSS. :D
Kamil ja Ci już odpowiem na to pytanie czy to dobrze, jeśli DLSS stanie się funkcją domyślną, a potem nie będzie się dało tego dziadostwa nawet wyłączyć. (niestety przeczuwam że może się to wydarzyć z jakąś wersją sterownika już w tej generacji :P) Otóż to będzie oznaczało, że jesteśmy bandą durnych owiec i daliśmy sie zaminipulować marketingiem nvidii tak bardzo, że już chyba nie ma żadnych granic naiwności które moglibyśmy przekroczyć. :D Teraz odpowiedz sobie sam czy to będzie dobrze o nas świadczyło i czy ten stan będzie dobry i do czego dalej posunie się nvidia, skoro będzie miała tak podatny grunt pod manipulację? :D
Dla mnie to nie jest żadną rewolucja... To jest kretynizm w czystej postaci z dopiskiem AI. To tak jak by robić silnik coraz większy o większym spalaniu a chwalić się jego osiągami. Dla mnie rewolucja by była jak przy zachowaniu gabarytów i poboru mocy z sieci prędkość by wzrosła wykładniczo. To jest kolejny nieudany etap. Do czego to doprowadzi? Zasilacze po 2000 Wat? Nic nowego nie potrafią wymyślić tylko te same etapy co roku... S25 Samsung podobnie jak i iPhone. Kto to projektuje?
#Kamil, jest to moja trzecia recenzja (tak YT proponuje) i ta jest najlepsza mimo, że ostatnia z oglądanych obecnie. Idę jeszcze do Benka, cos wyskoczyło. Pozdrawiam Zmaslo i TL;)
Lol to jest dramat że przy takiej karcie nie ma stabilnych 120-144hz żeby wykorzystać pełna płynność monitorów. Chyba się nie doczekam nigdy grania na 4k , trzeba zostać na 2k przez najbliższe 8 lat
Kamil to jest obrzydliwe co robisz, nie zmierzyłeś dobrze tych opóźnień, próbujesz tutaj wpłynąć na to jak ludzie postrzegają fejkowe klatki, albo to czy to się nadaje do esportu, a przecież nie chodzi tutaj o opóźnienia, a artefakty, oraz fakt, że to są fejkowe klatki, to znaczy strzelasz w przeciwnika, w miejsce które wydaje się że powinien tam być, ale silnik gry tego nie zarejestrował, bo to fejkowe miejsce, co oznacza że niby strzeliłeś w przeciwnika a tak naprawdę w powietrze, więc dodatkowo nie rozumiesz dlaczego te hiper technologie nie nadają się do esportu. Robisz to wszystko, pomijając rzeczywistość, ku uciesze Nvidii. Jeśli nvidia ani morele Ci za to nie zapłaciło, to odegrałeś rolę pożytecznego idioty, ale przynajmniej jesteś uczciwy. :P Karta, w Twoim teście, z tymi manipulacjami i całowaniem producenta w dupsko, wypada jeszcze gorzej, niż u innych recenzentów.
Halo a gdzie 8k ? Już przy premierze 3090ti mówili że jest o to ta karta.A 4090 była przepaść do 3090 no chyba że mówili o 15letnich grach.Wątpie żeby 5090 dało rade w 8k i dlssem czyli naciąganie klientów trwa dalej ;)
8K to był chwyt marketingowy, jak promowali chyba 3090 i pierwsze DLSSy z trybem ultra wydajności. Można by, bez problemu myślę, ale nikt tak nie gra i jeszcze długo nie będzie.
Rzeczywiście słabiutko to wygląda, jak ma się marnować karta to ja przejmę na siebie to brzemię, opłacę nawet przesyłkę, może mi się przyda do budowy jakiegoś retro sprzętu
10:19 a gdzie się ten procesor zapchał? Ja widzę użycie CPU na poziomie 35%🧐. Coś mi tu oszukujesz troszkę😅.To chyba coś innego się zapchało, tylko co?
Bezwzględu na mierniutką serię 5000, karty serii 4000 i tak są wycenione absurdalnie wysoko względem konkurencji w postaci Radków, więc raczej stanieją, zwłaszcza jeśli AMD zasili rynek GPU serią 7000 i nową serią 9000. Obecnie za cenę 4060 TI 16GB możesz dostać RX 7800 XT 16GB który jest o +38% wydajniejszy(czujesz to ta sama cena a dostajesz prawie +40% wydajności ?! :D), w cenie 4070 Super masz 7900 XT który jest o +20% wydajniejszy, a w cenie 4070 TI Super masz flagowca 7900 XTX który jest +20% wydajniejszy i tak naprawdę jego wydajność jest troszkę wyższa nawet od 4080 Super. Także jeśli dostępność radków będzie duża, oraz recenzencji raczą poinformować o tym konsumentów, że ta konkurencja cenowa tak radykalnie się zmienila, to seria 4000 będzie musiała stanieć. Z drugiej strony, jeśli sklepom nie będzie to na rękę, bo olali radki, to taki Kamil raczej nie zrobi o tym materiału.
Kamil zrób test dla aktualnych konkurentów cenowych, to znaczy : 4060 TI 16GB vs 7800 XT, 4070 Super vs 7900 XT, 4070 TI Super vs 7900 XTX. (Ps Radki zmiatają konkurencję w swoich cenach. :P ) Nowa architektura namiesza? :D No CEO Nvidii już namieszał, wystarczy, niech już więcej nie mieszają. :D
@@bartuch426 Czemu głupota? Jeżeli kupił ją w fajnych pieniądzach to dobrze zrobił. 5070 która będzie gdzieś od 3k zł wcale mocniejsza nie będzie. No chyba, że włączysz fake klatki...
coś za coś. ja te ficzery kiedyś dokładnie testowałem w cyberpunku z 4080 i ogólnie doszedłem do wniosku, że mimo wad warto powłączać wszystko to co nvidia oferuje, ale bez RT prawdę mówiąc nie widać jakieś dużej różnicy jak się zbytnio nie zwraca uwagi więc w tym momencie lepiej jest kupić 7900XTX, ale wtedy gdy ja kupowałem bardziej się opłacał 4080
DLSS ok daje rade z rekonstrukcją promyczków jest bardzo spoko ale kiedy akceptowałem w niektórych tylko tytułach FG tak MFG nie siądzie, tzn spoko jako ficzerek to niech sobie będzie nawet 15 klatek na jedną ale nie da się przeskoczyc fizyki nawet reflex 2 itp zabawy nie ma na logikę takiej predykcji bo aby to było responsywne musiało by przewidywać przyszłość , ruchy myszką itp aby przeidzieć wektor itd zmian obrazu , to się tak nie da. Osobiście bardzo interesuje mnie neural texture bo w tym akurat to może być niesamowity potencjał . No cóż zostaje przy swojej staruszce 4090tce i jakoś mi tego multum fake frame nie brakuje ale nie krytykuję fajne ze myślą jeszcze o graczach ;) .
Matołki przecież ta karta nie jest do gier. To stary quadro/titan. Czyli do pracy. Od serii 3000 podczepili to pod serie geforce, bo seria geforce jest popularna i żeby ludzie widzieli że jest coś wiecej niż **80/**80ti. Przecież do 2020r. nie było czegoś takiego jak końcówka 90 w kartach od nvidii. I kazdy do gier kupował 680, 1080, 2080.. wyszly **90 i nagle normiki płaczą że w gierkach mały przyrost a cena droga xd.
No tak średnio bym powiedział , no tak średnio , jest super jest fajnie ale szaleństwa nie ma i niestety w tej cenie to już przepraszam śmiech.... Dobry test ;) Pozdrawiam serdecznie ;) . Gdyby cena była inna ...spoko by się cykło ale tak to nie ma aż takiego przerotu aby się spinać portfelikiem , no jednak nie.
Jeżeli jedna taka karta dźwignie trzy projektory laserowe ustawione przeciwsobnie i przy pomocy raytraicingu ustawi czas wyświetlania dla kazdego projektora to... stworzyłem hologram 3D... W każdym innym dopatrzeniu nie ma sensu przerost formy nad treścią. Dla każdej technologii sls...
Nie wiem czemu widać to aż tak mocno pod polskimi nagraniami a dużo mniej pod anglojęzycznymi ale masa ludzi nie rozumie modelu biznesowego Nvidii oraz jak ciężko zrobić kolejny skok technologiczny. Narzekanie na AI i "fejk" klatki jest jak najbardziej zrozumiałe ale obecnie jest to jak narzekanie kowali na rewolucję przemysłową. Tego się nie zatrzyma i można albo przeprowadzać incydent kałowy pod każdym benchmarkiem albo zaakceptować. Ani Nvidia ani AMD nie wycofa się z pomocy sztucznej inteligencji z powodu ludzi którzy i tak nie kupują ich produktu. Gorszym i bardziej irytującym faktem jest coś co powiedział Linus w swoim nagraniu: "Tu widać artefakty DLSS, teraz, czy gdybym was nie ostrzegł czy dalibyście radę je zauważyć?" DLSS nie jest idealny ale masa Maciusiów płacze z powodu czegoś czego samodzielnie nawet by nie wyłapali w czasie rozgrywki. 5090 jest za drogie i przecenione, kartę kupią profesjonaliści albo gracze którzy robią przeskok z serii 10xx/20xx i pieniądze nie są problemem. 5090 nie jest targetowane w ten rodzaj widowni. 4K nie jest standardem i przez dłuższy czas nie będzie. Nvidia celuje w firmy, indie twórców którzy potrzebują jeden ale potężny pecet a nie ludzi którzy kopiują swój komentarz z narzekania na 4090. Jedyny chyba "surowy" skok technologii w 5090 to kilka gier które teraz dobijają ponad 60 klatek bez wspomagaczy w RT zamiast 4090 która była bardziej w granicach 40/50 klatek. Ale i tak, to nie jest i nawet nie było celem/targetem Nvidii w tej generacji. A materiał Morele jak zawsze okok.
Skoro w przeciągu roku nie jest możliwy zauważalny skok technologiczny, to może warto się wstrzymać 2-3 lata i wypuścić coś sensownego? ...ale nie, cała branża elektroniki poszła w coroczne premiery sprzetu z kosmetycznymi zmianami, żeby kasa się zgadzała. Chętni zawsze się znajdą, bo przecież to "nowość" i muszą mieć. Jestem zdecydowanie za tym, żeby premiery odbywały się co 2-3 lata, ale niosły za sobą prawdziwe zmiany.
To nie jest skok technologii, a skok poboru prądu. A co do reszty to straszne bzdury, chochoł porównawczy do rewolucji przemysłowej aż przemilczę, to jest właśnie maćkowe podejście. Zobaczymy za parę lat jak zestarzeje się ten komentarz xD
@@Smykuu96 Chciałbym aby moje zło-wierzenie zestarzało się źle ale każdy kto zna podstawy ekonomii i umie czytać raporty biznesowe wie w jakiej pozycji są giganci technologiczni. Moje porównanie jest dobre jak każde inne, pospólstwo jak ja i reszta niedzielnych użytkowników może narzekać i walczyć z wiatrakami ale niczego to nie zmieni.
@@SPkiller31Swój sprzeciw manifestuje się portfelem a nie gadaniem. Wystarczy nie rzucać się na wymianę sprzętu co jedną, dwie generacje i zmienią podejście. Warunek jest jeden, musi to być pospolite ruszenie. Popyt i podaż są nierozłączne i jedno na drugie odziaływuje zawsze w obie strony.
Czyli co, reasumujac: podwyżka ceny 25% względem 30% skoku wydajności (wow) ... do tego dostajemy przy użyciu frame generatora 70% fake klatek (wypełniacz) prawie jak to gów... co do jedzenia dają :)... + 50% wyższy rachunek za prąd no bo przy EJ AJ to już normlanie 5090 się pali przy cyberpunku, software normalnie pali gniazda... :) Nvidia: CO? A gów.... zostaje przy 4070 z tamtego roku dziękuje dobranoc, niech szukaja jeleni z tiktoka :)
mam pytanko do pana jakie chłodzenie aio wybrać do 550zł bo zastanawiam się nad Chłodzenie wodnym Arctic Liquid Freezer III 360 do obudowy Modecom Volcano Panorama Apex ARGB 5F
najważniejsze to upewnij się czy oświetlenie aRGB chłodzenia pasuje odpowiednio do barwy aRGB obudowy 🤡 a chłodzenie nieważne, weź najdroższe, zazwyczaj najlepsze modele mają wincyj ledow 🤡
Fajne te karty. Zaraz będzie rtx 6090 i będzie to samo. Teraz wyszedł Samsung s25 ultra a już piszą o s26 ultra jaki będzie cudowny. To wszystko marketing i nakręcanie się dla firm. Ja jestem osobiście napalony na ryzena 9950 x3d. Każdy czegoś chce :)
Seria 5070 nawet po specyfikacji wypada słabiutko, natomiast 5090 zapowiadał się zarąbiście po specyfikacji i dostaliśmy drogiego, prądożernego kotleta, do tego z pieczątką wydajności od CEO Nvidii, honorowanej tylko w świecie Nvidii. :D Moim zdaniem powinni dodawać twarz CEO nvidii na pudełka kart serii 5000, taka duża głowa CEO Nvidii obejmująca całe pudełko, czoło może spotkać się z napisem DLSS 4.0*, a w jego ustach napis 5070 = 4090 *. :D Co symbolizuje, że jego myśli są generowane przez DLSS, stąd miał tak błyskotliwy występ na targach. :D Zresztą ganiał po scenie z kartonem z nadrukiem procesora czy wafla krzemowego, więc temat około kartonowy, nie jest mu obcy. :D Gwarantuje, że wtedy te karty sprzedawałyby się jak ciepłe bułeczki. :D Ze zwykłymi pudełkami, będzie to schodziło słabiutko. :P Myślę, że Nvidia to przeczuwała, stąd mała dostępność na start, aby sztucznie podbić ceny, mizerne zainteresowanie przy braku dostępności i tak da efekt. Ogólnie praktyki tej firmy są okropne, widzę też że pojawiły się wersje 4070 z GDDR6 zamiast GDDR6x, czyli kolejna ściema od nvidii, gdzie po cichu zmienili pamięć w 4070 na słabszą, nie nadając temu nowej marketingowej nazwy, to znaczy nie poinformowali o tym konsumentów. Teraz ludzie kupując 4070 są przekonani że kupili to znane na rynku 4070 a tak naprawdę kupili coś słabszego. Widać techniki DLSS wchodzą im w krew, również w komunikacji z klientami. Ta technologia opanowała ich umysły. :D Nie dajmy się temu virvsowi i kupujmy Radki! :D
a czy przypadkiem o ile sie nie myle po tym co linus i inni z ces nagrywali to porownanie 4090 i 5090 bylo robione w formie 4090 bez dlss 4 i fmg a 5090 miala to wlaczone
Bez dyskusji czy nam się coś wydaje czy nie to idzie wszystko w stronę ai, czas pokaże jaki skok wydajności będzie za 10 lat, jak na razie to będą rozwijać to technologie za naszą kasę, czyli im więcej zarobią tym więcej zainwestują w nową technologie, przecież nie wydadzą swojej kasy, cały gaming to sztuczna inteligencja
Recenzja bez sensu,dlss 4.0 i sztuczne klatki to nie jest postep i przewaga. Max przewaga nad rtx 4090 nowego 5090 w czystym rasterze to 25%,ale sponsor placi za recke. Ciekawe dlaczego nvidia nie wypuszcza do seri 4000 dlss 4.0 i mfg. Bo wydajnosc mogla by byc praktycznie taka sama 😂😂😂😂
od kiedy mamy dlss to czysta wydajność bez upscalerów stoi w miejscu wcześniej kart rosły w czyster restyryzacj a teraz co mamy sztuczne klatki taki kierunek mi nie pasuje
Nikomu to nie pasuje, widać to po komentarzach, ja chcę czystą moc w rasteryzacji a niech ich sztuczne klatki z algorytmów czy AI. Dla nich to jest proste, bo robią to programowo a żeby raster szedł w górę to muszą moc zwiększać a to jest praca fizyczna na karcie, budowanie tranzystorów etc etc, robota, koszt... trzeba to zaprogramować przez inżyniera... jedno ci powiem to się źle skończy.
szkoda ze wszyswcy opieraja testy na tych samych tytułach, tym samym procku, mnie by głownie interesowały testy ale natywne w programach użytkowych jak gry to z mocniejszym prockiem bo ten ryzen czesto jest wąskim gardłem....
Bez sensu te karty tak szczerze samego przeprojektowania rdzeni pod ai praktycznie nie widac czy to z wyciekow czy ze wstepnych testow tak szczerze to ta cala karta brzmi jak poprostu 4090 super czy ti super i zreszto wskazuje na to nawet tak z grubsza obliczany wspolczynnik ppw. ale jak my jako uzytkownicy mamy to sprawdzic bo watpie zeby ktos z nas mial mikroskop elektronowy i cos do przeskanowania calego rdzenia w 3d zeby sprawdzic to ich cale "przeprojektowanie"
@@miraveilyt dlatego należy pisać i mówić ludziom prawdę chociażby w komentarzach bo teraz coraz ciężej o uczciwe/niesponsorowane recenzje, niby tylko tyle i aż tyle...
podsumowujac tak troche to wszystko ja tylko czekam az amd zrobi co z intelem z poczatku na tym samym poziomie intel jeden fup i i wykorzystali moment wiec niech tylko to zrobia z gpu moze wkoncu sie pojawia na rynku bo nvidia robi z siebie monopoliste i praktycznie stoi w miejscu jak intel z 7 na 8 gen
Nie, to nie szrot. To po prostu 4090Ti XD A tak na serio: Nvidia naprawdę pracowała nad 4090Ti, ale miała dwa problemy. Po pierwsze, karta zajmowała 4(!) sloty, po drugie żarła za dużo prądu (i było prawie pewne, że spali wtyczki). No cóż, referent 5090 zajmuje 2 sloty (to jakiś cud), a zużycie prądu? Kogo to obchodzi? +30% wydajności za 30% większe zużycie XD
👍 Subskrybuj moreleTV ➡ morele.tv/subskrybuj
Poznaj karty GeForce RTX z serii 50 ➡ morele.tv/3WwWwIl
Karty GeForce RTX 5090 w Morele (dostępność wkrótce)
🛒 MSI RTX 5090 Gaming Trio OC ➡ morele.tv/40HpDLI
🛒 MSI RTX 5090 Suprim SOC ➡ morele.tv/40pWhzX
🛒 ASUS RTX 5090 ROG Astral OC ➡ morele.tv/4gayqu5
🛒 Gigabyte RTX 5090 Gaming OC ➡ morele.tv/4arQ4YQ
🛒 Gigabyte RTX 5090 Windforce OC ➡ morele.tv/40KO6jk
🛒 PNY RTX 5090 Overclocked ➡ morele.tv/4hKmtN1
Monitory:
🛒 AOC Agon AG254FG ➡ morele.tv/3PMpQH3
🛒 AOC Agon AG324UX ➡ morele.tv/4jDVEf8
⚠ A tu znajdziecie najnowsze promocje na Morele ➡ morele.tv/3UWXYAq
skoro nvidia chce dawać w nowych RTXach mi jedną klatkę i 3 generowane przez AI to ja mogę im dać 300zł a reszte se wygenerują przez AI.
Lossless Scaling i maamy DLSS 4.0 w domu :D
Nie działa tak dobrze ale mówiąc szczerze? Grałem w Dying Light 2 i wiedźmina i jak długo masz 50fps+ natywnie po odpaleniu aplikacji to daje uczucie tych 100+ fps takze duzo bardziej się to opłaca :D
@@kostrzu321 niestety nie jest to tak oczywiste i prędzej bym to porównał do pierwszego frame generatora z dlss3, bo fakt, LS na podwajaniu klatek radzi sobie fajnie, ale na klatkach x4 juz nie i tu trzeba się bawić w magika pod dany tytuł.
@DragonSpiral biedaku spokojnie nie denerwuj się
@@michajanicki6860 skoro nazywasz kogoś biedakiem? to Ciebie jak nazwać? bogaty dureń?
@@kostrzu321 czekam aż to na steam deck wejdzie
~30% więcej mocy niż 4090, przy ~30% wiekszym poborze prądu...
Czyli zero postępu.
Dokładnie, tak to działa specu xDDDDD Kup sobie gt730
@@druidrapu3933 takie rzeczy tylko twoja mama XD
+30% wyższa cena. Kupowałem karty na premierę jak były normalne czasy, wtedy nowe gpu było wydajniejsze, miało niższy pobór prądu, cena? Nie było tragedii ;)
No to już widzę 5070 z "taką samą wydajnością" jak 4090 XD
wow karta za ponad 10 000 i w koncu jest 60fps w 4k xD
to kiedy dom sprzedajesz i samochod ? 🤣🤣😂😂
@@marekkos3513nerkę a nie dom
nerki się nie opłaca sprzedawać tym bardziej samochodu czy domu, do niemiec "na szparagi" i za 3 miesiące sobie kupisz
Szkoda że nie prawdziwe 60 🤣
14 tys
Dlaczego recenzenci nie jada po tych sztucznych klatkach. Przecież jeżeli tego nie ustawisz w trybie jakość. To aż razi w oczy. Nie mówiąc już że gwałtowne ruchy wiążą się z zacięciami.
nie można za bardzo 'podpaść' NVidii na przyszłość. To stałe stare układy przecież. Znajomości, kontakty.
pewnie nie chcą kłamać. bo to co piszesz to nie prawda
Bo dostają karty za darmo i wiele sprzętu. Te recenzje to częściowo reklama.
@@randomowsky Co jest nie prawdą? Jesteś niewidomy? Lipton w recenzji 5090 pokazuje jak na ekranie widać dwa celowniki przy szybkich ruchach myszką. Input lag z MFG nazywa pływaniem. To pływanie to gigantyczny input lag przy sztucznych 100 fps zrobionych z 30 prawdziwych. Czujesz jakby gra była w zwolnionym tempie chociaż niby jest płynnie.
Ja na przykład nie jadę, bo nie uważam, żeby był to powód do jechania. Skrytykowałem cenę, która moim zdaniem jest za wysoka w stosunku do przyrostów "naturalnej" wydajności, ale DLSS od trójki tak naprawdę, działa już dość dobrze, a teraz jest wyraźna poprawa. Nic nie razi w oczy. Tego po prostu trzeba spróbować, a mam wrażenie, że wiele osób powiela cudze opinie, oparte na cudzych opiniach itd. Też bym wolał więcej tradycyjnych klatek, ale może faktycznie jest jakiś przestój i nie da się teog więcej wycisnąć na ten moment. AMD dlaczego odpuszcza high end? Bo wydajności nie wycisną, a FSR jest w lesie za DLSS. Jeśli to byłoby prawdą, należy się cieszyć, że jest jakiś postęp, choć nie do końca w stronę, której oczekujemy.
Artefakty, wiadomo, są i muszą być, tego się nie da uniknąć, ale jest sporo lepiej, niż na DLSS3, wierzcie mi, długo nad tym przesiedziałem i wiem, co mówię. To, że Lipton bez problemu sprowokował pojawienie się artefaktu, to normalne, on też się nad tym nasiedział i wie, gdzie tego szukać. Ja tak samo pokazałem, że na włosach od razu lecą artefakty, mimo, że znacznie mniejsze niż poprzednio. A czy pływa? Pewnie zależy od gry i ustawień. Ja nie zauważyłem, a opóźnienia sami widzieliście, jaka jest różnica. Tyle, co nic.
Ja na ten moment celowo wstrzymuję się od oceny tych fejkowych klatek i nie dlatego, że Nvidia mnie opłaca, czy chcę się komuś przypodobać, tylko dlatego, że nie wiem, czy zielonym należy się pochwała, bo znaleźli rozwiązanie, gdy nie mogą wycisnąć więcej wydajności z krzemu, czy jednak krytyka za pchanie na siłę uczenia maszynowego na fali popularności AI. Dlatego apeluję między innymi o oglądanie jak największej ilości recenzji.
Zieloni twierdzą w ogóle, że 80% osób posiadających sprzęt wspierających tę technologię, korzysta z niej. Nie wiem skąd mają te dane, ale może ta niechęć ogółu wynika w pewnym stopniu z niewiedzy, jak pisałem na początku?
Trudny temat, bo moim zdaniem nieunikniony jest rozwój w tym kierunku właśnie, a przez laaata byliśmy przyzwyczajeni do czego innego. Zobaczymy, co czas przyniesie.
Pozdro i dzięki, że wpadliście na film!
Co ty ich tak bronisz tej Nvidii ?
Miliardowa korporacja ojoj nie może już zwiększać surowej wydajności bo silikon, i muszą sztucznie nam podwyższać, jesteś jak opłacony sędzia co gwiżdże tylko dla jednej drużyny 🙄
nie do konca krzem bo wydajnosc zwiekszyc moga i niech za przyklad posluza procesory stare dobre cpu. tylko ze sa zbyt leniwi zeby opracowac lepszy synchronizator
Za 10k to ja bym na ferie na koło podbiegunowe pojechał i jeszcze by zostało ;p
RTX 5000 to nic innego niż RTX 4000 po małym OC w nowym opakowaniu. Tylko że droższy w eksploatacji patrząc na pobór mocy. To nie progres to regres. Po obejrzeniu tego materiału kupuję 4080s, przesiadka z 3070ti. Dziękuję za materiał.
No cóż... Bawiąc się w sim racing, fejkowe klatki i wzrosty opóźnień to coś, co interesuje mnie najmniej, tylko czysty raster i ewentualnie wydajność w RT.
7900xtx
Też zajmuję się sim racingiem i oczywiście w takich tytułach te wszystkie bajery graficzne nie mają tam racji bytu, ale z drugiej strony gry sim racingowe nie są jakimiś zabójcami kart graficznych więc te 120-140 klatek na luzie takie RTX natywnie wygenerują, ale już w takim cyberpunku jak najbardziej te rozwiązania się sprawdzą.
@KARHES chyba że mówimy o EA nowego Assetto, to tak, to jest niezoptymalizowany zabójca karty graficznej, zwłaszcza jak ktoś ma trippla albo VR xd sam w sobie dlss jak najbardziej się nadaje, ale tylko jako upscaling, frame gen w sim racingu nie cholery nie ma racji bytu
Jaja sobie robią. Karta za tyle kapuchy i tak mizerne osiągi. Jestem pececiarzem, który na początku wieku przesiadł się na konsole ( PS2, Xbox 360 elite, Xbox One Scorpio, Xbox series S, Nintendo Switch Oled, Xbox series X). Obecnie mam na stanie 360tke, Nintendo i Series X. W 2K24 zdecydowałem się na powrót do PC, zakupiłem set na AM5 z RX7800xt i monitorem 144hz za prawie 9k. Zastanawiałem się nad upgradem grafy ale patrząc na to co mają do zaoferowania i przede wszystkim za jakie pieniądze odpuszczam.
Jak powiedział Ben, wuj Spidermana, "z wielką mocą wiąże się wielka cena" 🤪 Tylko że tutaj z mocą, w porównaniu z poprzednikiem, tak średnio, bym powiedział 😉
Dopóki FG nie jest dostępne w KAŻDEJ grze nie można nawet zacząć mówić, że to jest to samo, co wydajność.
Znikome różnice dwóch potworów to co będzie z 5070 a 4070 5%🤣
A wydajność w blenderze czy innych silnikach renderowania
Odnoszę wrażenia, że producent już od kilku lat maskują słabe wydajności za pomocą DLSS. Po wyłączniu DLSS parktycznie nie da się grać w żadną grę przez Steam VR klasy AAA i to nawet na RTX 4070. A w grach DLSS psuje praktycznie całą rozdzielczość i widać niedociągnięcia tego algorytmu.
17:38 Też wam się ciepło zrobiło jak zaczął machać tym śrubokrętem przed monitorem 😂
spokojnie, mam wprawę :D
Chciałbym zobaczyć materiał o dogłębnym przetestowaniu opóźnień z włączonym generatorem najlepiej z perspektywy kilku osób. Osobiście widze sporą róznice miedzy 20 - 40 ms ale moge nalezec do mniejszosci wszystko jest wtedy takie rozmydlone w ruchu. Ciekawe jak to jest w przypadku seri 50. Karta ma potencjał ciekawe czy podziałają coś jeszcze ze sterownikami.
Są juz testy w sieci.
no to ładnie 5090 60 klatek w wukongu i 500 wat przeciw 4090 380 wat i 50 klatek. Ciekawi mnie jakie wyniki poboru prądu były by z undervoltingiem. Tez mnie interesuje jakie wyniki były by jak 4090 podkręciło by się pobór mocy na podobny poziom 5090
szkoda ze wszystkie testy są 1 do 1 ... mogliby to sprawdzić
Wtedy wyprzedziłby 5090 :( :D
@ musieli by sprawdzić by ocenic
@ Bardzo by się do niego zbliżył, o ile nic by się nie popsuło :P
@@AndrzejWilkable byśmy widzieli na filmiku jak wtyczka się pali tylko :D ale cel uświęca środki
No cóż, ja ze swojej 4090 na 5090 nie zmienię, poczekam co najmniej na 6090. W Rasteryzacji nie robi na mnie wrażenia, nie widzę skrajnego przeskoku(uwzględniając cenę do przeskoku)
A co do pytania o testy stricte na DLSS/FSR, nawet frame genach - Czy to źle? To bardzo źle moim zdaniem, twórcy gier całą optymalizację zrzucają na te funkcje, które pierwotnie miały być dodatkiem, a my sami będziemy kupować karty niewiele hardware różniące się realną mocą, a polegającą na dopuszczaniu do software, totalna dystopia.
5090 ma taki przyrost wydajności co zwiększony limit mocy także xd troche
@@Exarvi No tak to wygląda w rasteryzacji, cóż. Teraz będziemy płacić za dostęp do najnowszego software w nowych kartach, a nie za realny przyrost mocy hardware, aż edytowałem swój kom. Przykre.
ty optymalizacje widziales?
poogladaj sobie analizy kodow gier to zobaczysz jaka optymalizacje mozna wykonac o ile sie nie myle w samym cp77 jest to na poziomie okolo 20% ze wzgledu na kijowo zoptymalizowany kod.
A co do tego ze tworcy zzucaja na frame gen i dlss tak w pelni sie z tym zgadzam i to powinno byc zastopowane podam to na przykladzie aplikacji na system linux
gotowe pakiety ok jeszcze idzie porzebolec ale kompilowac od zera to czesto masakra pakiet wazy od 10 do 30KB nie MB tylko KB a samych bibliotek jest czesto okolo 100 mega. ps wywalic chromium i qt z league of legends, valo, cp, wszystkich co do jednej gry od ubi to czesto te gry beda wazyc o pare giga mniej za to ze ktos odwalil cala robote
W obliczu MFG powinno używać się zwrotu "wzrost płynności" a nie "wzrost wydajności", bo sztuczne klatki nijak mają się do wydajności. Płynność rośnie, a responsywność kuleje.
Fajnie że cokolwiek z linków jest dostępne ;)
moze dlatego ze dopiero 30 stycznia rtx 5090 wychodzi na rynek?
Tak słucham różnych recenzentów i mam wrażenie że większość z nich jest zmieszana i nie wie czym bronić tej karty. Bo tak patrząc to jest rtx 4090 po tuningu. Czyli masz większą moc kosztem zużycia energii i pieniędzy. Na plus nowe podejście do chłodzenia. Generator klatek jak narazie takiego szału nie daje zwłaszcza jak ktoś potrzebuje do gier online gdzie ważny jest czas reakcji. Zobaczymy co pokaże reszta kart. Ale mam wrażenie że większy fan był przy premierze rtx 3000. Pozdrawiam
dlatego apelowałem, żeby oglądać jak najwięcej recenzji, bo ciężko jest na tym etapie wnioski wysnuć jednoznaczne.
NIe działa wam link "Poznaj karty GeForce RTX z serii 50" z opisu :P
taki wstyd te karty wypuszczac ze az serwery popalilo ze wstydu
Nie no to są dwie różne rzeczy. To są sztuczne klatki, osiągnięte przy pomocy AI i/lub algorytmów, a rasteryzacja to czysta moc, ale z drugiej... inaczej, mi chodzi o opóźnienia, jestem graczem gier e-sportowych i mi chodzi tylko o opóźnienia, bo jeśli opóźnienia z DLSS i FG będą tak samo niskie albo niewiele wyższe, ale nie na tyle żeby odczuć różnicę nawet dla e-sportowca, to każdy woli mieć 300 klatek niż 100. To jest klucz, na razie te opóźnienia z DLSS/FG są minimalnie wyższe od czystego rasta, a to dobrze wróży. Rób jak najszybciej test z jakimś e-sportowcem gdzie gra z DLSS i FG i bez i jakie osiąga wyniki, czy w ogóle tak małe różnice w opóźnieniu mają jakiś rzeczywisty wpływ na osiągi.
no tak, ale jak jesteś e-sportowym graczem, to raczej i tak grasz na FHD albo jakiejś jeszcze pomniejszonej rozdziałce 4:3 i niskich ustawieniach, więc problem Cię nie dotyczy, bo z dużo słabszych kart wyciśniesz te 300FPS, nie? Myślę, że to jest bardziej pod gracza na wysokiej rozdzielczości i ustawieniach, choć z tymi opóźnieniami i tak już nie ma źle, a co dopiero jak reflex 2 wejdzie. Gorzej artefakty myślę, bo w puste piksele strzelać nikt nie chce.
Przyrost jest nawet porządny, ale nie wiem czy wiele zmienia. Na RTX 4090 mamy 62 klatki, a na 5090 mamy 70-80 fps. Czy to aż taka znacząca zmiana? Nie wiem czy warto za to dopłacić kilka tysięcy złotych, w szczególności, że te „12k” to tylko referent i zapewne nawet Palit będzie co najmniej o tysiąc złotych droższy.
Czy dwie 5090 na płycie WRX90e sage SE podzielą jedno zadanie między sobą czy nie i nie ma sensu brać dwóch?
Goń się
60 klatek w 4K, karta za 15 tyś zł xD Nie no tylko brać!
Mam nadzieję, że dzbany będą kupować do tego OLEDy 4K 144Hz xD
Ta rzeczywistość staje się memem.
zaraz jakiś "brajanek" powie że jesteś biedakiem, teraz brajanki chcą wincyj Hz i wincyj klatek, do tego koniecznie oświetlenie RGB w kolorze tęczy by być pro gejmerem, no to robią pod takich nabywców sprzęt...
Wydajność do porównań TYLKO w czystej rasteryzacji.
nie
tak
@@randomowsky radze sie zaglebic w to jak dzialaja transformery to zobaczysz ze te 3 klatki na nvidi jest ze wzgledu obciazenia taki sam wysilek jak 1+ czy 2+ wiec tak tylko czysta rasteryzacja a ai nic nie da
Czyli bez 1000W zasilacza nawet do niej nie podchodzimy. Co do wydajności przechodząc z 3060 ti nie bede marudził. Tylko bardziej mnie martwią temperatury pamięci 5090.
Sam zamysł DLSS i generowania klatek jest dobry. Podoba mi się, ale moim zdaniem powinien to być DODATEK, a nie że kupując kartę graficzną kierujemy się tym, że dzięki AI wygenerujemy sobie wydajność, której, nie oszukujmy się, jest za mało. Ponadto, rozleniwiają tym także twórców gier. Nie optymalizują ich już tak jak kiedyś, bo przecież można włączyć DLSS żeby mieć 4 razy więcej klatek. Nie podoba mi się także podejście nvidii, takie ubóstwianie tego, jak by to było nie wiadomo co. Przykładem jest porównywanie czystej wydajności rtx 4090 do rtx 5070 z wygerenerowanymi klatkami. Szkoda również, że wiedząc, że i tak ludzie będą kupować te karty, podwyższają ceny najwyżej, jak tylko się da. Czas pokaże, ale moje przeczucia co do 5080 i 5070/ti nie są zbyt dobre.
Cyberpunk miał jakieś wygładzanie jeśli chodzi o Natywne ? jakieś TAA czy co tam ma?
Dzisiejsze gry bez włączonego jakiegoś Antyaliasingów zawsze wyglądają jak Sraka.
Nie wiem czym to spowodowane, chyba ilością detali i poligonów.
Bez DLSS raczej miał jakieś wygładzanie. Bo z no to outuje każde wygładzenie krawędzi.
Niby do 4k nie powinno być potrzebne ale coś jest z tymi grami, że bez jakiegoś wygładzenie wygląda to słabo :/
@@kostrzu321 No w wielu grach zauważyłem zwłaszcza na UE że jak mają dużo detali i nie ma się włóczonego jakiegoś AA, które dziś prawie nie zużywa wcale wydajności, Pixele dostają za przeproszeniem Pierdolca nawet w 4k, i gra zaczyna wyglądać nawet jak pixel art, bo każdy wygenerowany pixel chce być wyraźny, a nie tworzyć spójność.
Ostatnio grałem w Stalkera 2 i tam nawet FSR w 4k z 1080p lepiej wygląda niż natywna rozdzielczość gdzie wszystko jest ziarniste na 6000% bez wygładzeń.
Dopóki mam płynny i ostry obraz, to może być sobie nawet generowany w paint. Liczy się efekt, a nie to jak go uzyskam.
Normalnie czekam, aż karty graficzne będą pobierać 1kW prądu😁
jeszcze troche to bedziemy kupywac te smr co rzad chce stawiac by jedno gpu zasilic
wg mnie jak na flagowca z takimi możliwościami powinno pojawić się więcej testów pod aplikacjami, to raz.
Dwa, co do przyzwyczajania się do przechodzenia na testy tylko z dlss itp., to uważam, że tak długo, jak właśnie można obserwować glitche w grach, to takie testy nie powinny mieć racji bytu. Alan Wake 2 na fg + dlss quality w przypadku rtx 4070s również pokazuje mi artefakty na włosach Sagi i jest to baaaardzo mocno widoczne. Bez dlss i/lub FG problem nie występuje, więc to ewidentny problem od strony nowinek w kartach.
Jeśli te problemy znikną i gracz nie będzie zauważać ghostingu i wszelkich buraków graficznych to owszem, niech to się stanie testem natywnym, bo AI nie da się uniknąć, po prostu czysta wydajność dobija do ściany i niesamowicie ciężko jest już zmniejszać proces produkcyjny, a co za tym idzie pobór pradu, napiecia i upychanie tranzystorów na chipach.
Natomiast zastanawiałem się, czy procesory będą się odbijać od flagowca na mniejszych rozdzielczosiach i dzięki Kamilu za rozwianie wątpliwości, bo to pokazuje jakim bezsensem jest pakowanie niebotycznych kwot w aktualnie przepłacone ryże 9800x3d.
SAGA! Nie mogłem sobie przypomnieć, jak ona miała na imię... Dzięki! :D
Przestańmy się oszukiwać najważniejsze jest jak działać będą rtx 5060, 5060 Ti i 5070 bo to są wybory normalnych klientów, a ivnawet bawiacych sie ML, deep learningiem czy AI. To jest tylko ciekawostka i wybór dla 1% oglądających/kupujących karty
Jaja to dopiero będą jak na 1080p vramu zabraknie
Do AI to najważniejszy jest RAM, nie bez powodu są takie różnice w tych segmentach, zrobiono to specjalnie aby tych kart do AI nie wykorzystywać, już teraz tak jest że zamiast 4070 to lepiej kupić 3090 bo ma 24GB.
Zobaczymy, ale na razie zapowiada się słabiutko :P nawet po specyfikacji, natomiast 5090 zapowiadał się zarąbiście po specyfikacji i dostaliśmy drogiego, prądożernego kotleta, do tego z pieczątką wydajności od CEO Nvidii. :D Moim zdaniem powinni dodawać twarz CEO nvidii na pudełka kart serii 5000, taka duża głowa CEO Nvidii obejmująca całe pudełko, czoło może spotkać się z napisem DLSS. :D
Kamil ja Ci już odpowiem na to pytanie czy to dobrze, jeśli DLSS stanie się funkcją domyślną, a potem nie będzie się dało tego dziadostwa nawet wyłączyć. (niestety przeczuwam że może się to wydarzyć z jakąś wersją sterownika już w tej generacji :P) Otóż to będzie oznaczało, że jesteśmy bandą durnych owiec i daliśmy sie zaminipulować marketingiem nvidii tak bardzo, że już chyba nie ma żadnych granic naiwności które moglibyśmy przekroczyć. :D Teraz odpowiedz sobie sam czy to będzie dobrze o nas świadczyło i czy ten stan będzie dobry i do czego dalej posunie się nvidia, skoro będzie miała tak podatny grunt pod manipulację? :D
zdania recenzentów będą podzielone na tych co maja profity i na tych co nie mają :)
A morele dalej w kulki leci
Mnie najbardziej ciekawi 5070ti vs 4080super
Dokladnie
Podpisuje się, też czekam niecierpliwie
No masz odpowiedź:
5070TI (44 TFLOPS)
4080 Super (52 TFLOPS)
@@NeverGiveUp-n1r Daj linka do tego? Żebym sobie mógł to sam porównać i obczaić?
@@Romulus84 nie mam linka, to są tylko oficjalne dane, na temat mocy tych GPU, są dostępne wszędzie🙂. (Moc w czystej rasteryzacji)
Przyznać się kto już poleciał po balsam i rolkę papieru toaletowego xD
Twój stary pewnie xD
@@foczii z twoją starą xD
Nasze zdanie jest takie ze za 10 tys o strzyżenie baranów 😂😂😂
Dla mnie to nie jest żadną rewolucja... To jest kretynizm w czystej postaci z dopiskiem AI. To tak jak by robić silnik coraz większy o większym spalaniu a chwalić się jego osiągami. Dla mnie rewolucja by była jak przy zachowaniu gabarytów i poboru mocy z sieci prędkość by wzrosła wykładniczo. To jest kolejny nieudany etap. Do czego to doprowadzi? Zasilacze po 2000 Wat? Nic nowego nie potrafią wymyślić tylko te same etapy co roku... S25 Samsung podobnie jak i iPhone. Kto to projektuje?
#Kamil, jest to moja trzecia recenzja (tak YT proponuje) i ta jest najlepsza mimo, że ostatnia z oglądanych obecnie. Idę jeszcze do Benka, cos wyskoczyło. Pozdrawiam Zmaslo i TL;)
Lol to jest dramat że przy takiej karcie nie ma stabilnych 120-144hz żeby wykorzystać pełna płynność monitorów. Chyba się nie doczekam nigdy grania na 4k , trzeba zostać na 2k przez najbliższe 8 lat
Realnie czy serio potrzebujemy takich ilości jeśli mówimy i singlu? Jasne nvidia powinna przycisnąć karty bez ai ale jednak
@kristof46 tak, jak płacisz 10 tysi za kartę to z palcem w d powinno te 140 klatek w rasterze lecieć
@ może tak może nie. Pytanie też ile to by ciągnęło prądu.
@@kristof46 niech robią tak żeby działało to wszystko rozsądnie. 8k to już w ogóle się nie doczekamy chyba za życia
Kamil to jest obrzydliwe co robisz, nie zmierzyłeś dobrze tych opóźnień, próbujesz tutaj wpłynąć na to jak ludzie postrzegają fejkowe klatki, albo to czy to się nadaje do esportu, a przecież nie chodzi tutaj o opóźnienia, a artefakty, oraz fakt, że to są fejkowe klatki, to znaczy strzelasz w przeciwnika, w miejsce które wydaje się że powinien tam być, ale silnik gry tego nie zarejestrował, bo to fejkowe miejsce, co oznacza że niby strzeliłeś w przeciwnika a tak naprawdę w powietrze, więc dodatkowo nie rozumiesz dlaczego te hiper technologie nie nadają się do esportu. Robisz to wszystko, pomijając rzeczywistość, ku uciesze Nvidii. Jeśli nvidia ani morele Ci za to nie zapłaciło, to odegrałeś rolę pożytecznego idioty, ale przynajmniej jesteś uczciwy. :P Karta, w Twoim teście, z tymi manipulacjami i całowaniem producenta w dupsko, wypada jeszcze gorzej, niż u innych recenzentów.
Halo a gdzie 8k ? Już przy premierze 3090ti mówili że jest o to ta karta.A 4090 była przepaść do 3090 no chyba że mówili o 15letnich grach.Wątpie żeby 5090 dało rade w 8k i dlssem czyli naciąganie klientów trwa dalej ;)
8K to był chwyt marketingowy, jak promowali chyba 3090 i pierwsze DLSSy z trybem ultra wydajności. Można by, bez problemu myślę, ale nikt tak nie gra i jeszcze długo nie będzie.
@@TekTesters a ile to ludzi i to dobre kilka lat temu kupiło telewizory 8k 🤡
Rzeczywiście słabiutko to wygląda, jak ma się marnować karta to ja przejmę na siebie to brzemię, opłacę nawet przesyłkę, może mi się przyda do budowy jakiegoś retro sprzętu
10:19 a gdzie się ten procesor zapchał? Ja widzę użycie CPU na poziomie 35%🧐. Coś mi tu oszukujesz troszkę😅.To chyba coś innego się zapchało, tylko co?
ta vramu zabraklo xD
najważniejsze to jest to kiedy poprzednie generacje kart stanieją i o ile.
Nie stanieją niestety też się na to czaję ale bardzo wątpliwe 😢
Bezwzględu na mierniutką serię 5000, karty serii 4000 i tak są wycenione absurdalnie wysoko względem konkurencji w postaci Radków, więc raczej stanieją, zwłaszcza jeśli AMD zasili rynek GPU serią 7000 i nową serią 9000. Obecnie za cenę 4060 TI 16GB możesz dostać RX 7800 XT 16GB który jest o +38% wydajniejszy(czujesz to ta sama cena a dostajesz prawie +40% wydajności ?! :D), w cenie 4070 Super masz 7900 XT który jest o +20% wydajniejszy, a w cenie 4070 TI Super masz flagowca 7900 XTX który jest +20% wydajniejszy i tak naprawdę jego wydajność jest troszkę wyższa nawet od 4080 Super. Także jeśli dostępność radków będzie duża, oraz recenzencji raczą poinformować o tym konsumentów, że ta konkurencja cenowa tak radykalnie się zmienila, to seria 4000 będzie musiała stanieć. Z drugiej strony, jeśli sklepom nie będzie to na rękę, bo olali radki, to taki Kamil raczej nie zrobi o tym materiału.
Kamil zrób test dla aktualnych konkurentów cenowych, to znaczy : 4060 TI 16GB vs 7800 XT, 4070 Super vs 7900 XT, 4070 TI Super vs 7900 XTX. (Ps Radki zmiatają konkurencję w swoich cenach. :P ) Nowa architektura namiesza? :D No CEO Nvidii już namieszał, wystarczy, niech już więcej nie mieszają. :D
Tymczasem ja kupujący 29 grudnia 4070 super XD
No to już głupota
no to zjebales mocno
@@bartuch426 Czemu głupota? Jeżeli kupił ją w fajnych pieniądzach to dobrze zrobił. 5070 która będzie gdzieś od 3k zł wcale mocniejsza nie będzie. No chyba, że włączysz fake klatki...
@@bartoszp6307dokładnie ja w zeszłym tygodniu dorwałem za 2600 zwykła 4070 od gigabyte i myślę że dużo nie straciłem
@@dixo2189no trochę straciłeś bo w tych pieniądzach była 4070 Super która była lepsza od zwykłej 4070
coś za coś. ja te ficzery kiedyś dokładnie testowałem w cyberpunku z 4080 i ogólnie doszedłem do wniosku, że mimo wad warto powłączać wszystko to co nvidia oferuje, ale bez RT prawdę mówiąc nie widać jakieś dużej różnicy jak się zbytnio nie zwraca uwagi więc w tym momencie lepiej jest kupić 7900XTX, ale wtedy gdy ja kupowałem bardziej się opłacał 4080
Te nowe karty to jakiś żart cenowy, wydajnościowy jak i zużycie energii to jakiś żart!
ale za to wincyj klatek ...
DLSS ok daje rade z rekonstrukcją promyczków jest bardzo spoko ale kiedy akceptowałem w niektórych tylko tytułach FG tak MFG nie siądzie, tzn spoko jako ficzerek to niech sobie będzie nawet 15 klatek na jedną ale nie da się przeskoczyc fizyki nawet reflex 2 itp zabawy nie ma na logikę takiej predykcji bo aby to było responsywne musiało by przewidywać przyszłość , ruchy myszką itp aby przeidzieć wektor itd zmian obrazu , to się tak nie da. Osobiście bardzo interesuje mnie neural texture bo w tym akurat to może być niesamowity potencjał . No cóż zostaje przy swojej staruszce 4090tce i jakoś mi tego multum fake frame nie brakuje ale nie krytykuję fajne ze myślą jeszcze o graczach ;) .
Prędzej zawód niż wzwód bym powiedział...
Matołki przecież ta karta nie jest do gier.
To stary quadro/titan. Czyli do pracy. Od serii 3000 podczepili to pod serie geforce, bo seria geforce jest popularna i żeby ludzie widzieli że jest coś wiecej niż **80/**80ti. Przecież do 2020r. nie było czegoś takiego jak końcówka 90 w kartach od nvidii. I kazdy do gier kupował 680, 1080, 2080.. wyszly **90 i nagle normiki płaczą że w gierkach mały przyrost a cena droga xd.
Użycie "star wars" czy "fallout" w tytule nie jest powodem do dawania im forów. Gówno jest gównem.
No tak średnio bym powiedział , no tak średnio , jest super jest fajnie ale szaleństwa nie ma i niestety w tej cenie to już przepraszam śmiech.... Dobry test ;) Pozdrawiam serdecznie ;) . Gdyby cena była inna ...spoko by się cykło ale tak to nie ma aż takiego przerotu aby się spinać portfelikiem , no jednak nie.
4:49 Czemu jaguar wściekły pies? :D
Będą testy 5080 przed premierą?
nie znasz? :D
@TekTesters nie, jakoś nie kojarzę. Nie wiem czy Zmaslo też ostatnio tego nie użył w jakimś filmie
@ Klocuch tak mówił na spider-mana :)
Jeżeli jedna taka karta dźwignie trzy projektory laserowe ustawione przeciwsobnie i przy pomocy raytraicingu ustawi czas wyświetlania dla kazdego projektora to... stworzyłem hologram 3D...
W każdym innym dopatrzeniu nie ma sensu przerost formy nad treścią. Dla każdej technologii sls...
"you think those are real frames you're seeing?" 😂
XD
Śmiech na sali, biorąc pod uwagę pobór prądu jest gorzej niż przy 4090.
570W z PCE (GPU) dziękuję postoję poczekam, aż prąd stanieje. 7:00
Nie wiem czemu widać to aż tak mocno pod polskimi nagraniami a dużo mniej pod anglojęzycznymi ale masa ludzi nie rozumie modelu biznesowego Nvidii oraz jak ciężko zrobić kolejny skok technologiczny.
Narzekanie na AI i "fejk" klatki jest jak najbardziej zrozumiałe ale obecnie jest to jak narzekanie kowali na rewolucję przemysłową. Tego się nie zatrzyma i można albo przeprowadzać incydent kałowy pod każdym benchmarkiem albo zaakceptować. Ani Nvidia ani AMD nie wycofa się z pomocy sztucznej inteligencji z powodu ludzi którzy i tak nie kupują ich produktu.
Gorszym i bardziej irytującym faktem jest coś co powiedział Linus w swoim nagraniu: "Tu widać artefakty DLSS, teraz, czy gdybym was nie ostrzegł czy dalibyście radę je zauważyć?"
DLSS nie jest idealny ale masa Maciusiów płacze z powodu czegoś czego samodzielnie nawet by nie wyłapali w czasie rozgrywki.
5090 jest za drogie i przecenione, kartę kupią profesjonaliści albo gracze którzy robią przeskok z serii 10xx/20xx i pieniądze nie są problemem.
5090 nie jest targetowane w ten rodzaj widowni. 4K nie jest standardem i przez dłuższy czas nie będzie. Nvidia celuje w firmy, indie twórców którzy potrzebują jeden ale potężny pecet a nie ludzi którzy kopiują swój komentarz z narzekania na 4090.
Jedyny chyba "surowy" skok technologii w 5090 to kilka gier które teraz dobijają ponad 60 klatek bez wspomagaczy w RT zamiast 4090 która była bardziej w granicach 40/50 klatek. Ale i tak, to nie jest i nawet nie było celem/targetem Nvidii w tej generacji.
A materiał Morele jak zawsze okok.
Skoro w przeciągu roku nie jest możliwy zauważalny skok technologiczny, to może warto się wstrzymać 2-3 lata i wypuścić coś sensownego? ...ale nie, cała branża elektroniki poszła w coroczne premiery sprzetu z kosmetycznymi zmianami, żeby kasa się zgadzała. Chętni zawsze się znajdą, bo przecież to "nowość" i muszą mieć.
Jestem zdecydowanie za tym, żeby premiery odbywały się co 2-3 lata, ale niosły za sobą prawdziwe zmiany.
To nie jest skok technologii, a skok poboru prądu. A co do reszty to straszne bzdury, chochoł porównawczy do rewolucji przemysłowej aż przemilczę, to jest właśnie maćkowe podejście. Zobaczymy za parę lat jak zestarzeje się ten komentarz xD
@@87yaszczur Tak chciałaby większość odbiorców ale obecnie z monopolami firm jest to marzenie niestety.
@@Smykuu96 Chciałbym aby moje zło-wierzenie zestarzało się źle ale każdy kto zna podstawy ekonomii i umie czytać raporty biznesowe wie w jakiej pozycji są giganci technologiczni.
Moje porównanie jest dobre jak każde inne, pospólstwo jak ja i reszta niedzielnych użytkowników może narzekać i walczyć z wiatrakami ale niczego to nie zmieni.
@@SPkiller31Swój sprzeciw manifestuje się portfelem a nie gadaniem. Wystarczy nie rzucać się na wymianę sprzętu co jedną, dwie generacje i zmienią podejście. Warunek jest jeden, musi to być pospolite ruszenie.
Popyt i podaż są nierozłączne i jedno na drugie odziaływuje zawsze w obie strony.
I znowu ten sam stary proces technologiczny 🙄
Czy możemy już za niedługo dostać serię 6000, która tak naprawdę będzie nowością ?
Start? Masz 4nm, wcześniej było 5, no ale ok.
@Reaperezg Pure Pc twierdzi inaczej
@@robsonjunior5432 noo widzę. Piękna wtopa. Natomiast wystarczy wyszukać w google.
i to wszystko zasilane skromnym kablem od betoniarki podłączonym do osiedlowego transformatora
Czyli co, reasumujac: podwyżka ceny 25% względem 30% skoku wydajności (wow) ... do tego dostajemy przy użyciu frame generatora 70% fake klatek (wypełniacz) prawie jak to gów... co do jedzenia dają :)... + 50% wyższy rachunek za prąd no bo przy EJ AJ to już normlanie 5090 się pali przy cyberpunku, software normalnie pali gniazda... :)
Nvidia:
CO?
A gów.... zostaje przy 4070 z tamtego roku dziękuje dobranoc, niech szukaja jeleni z tiktoka :)
mam pytanko do pana jakie chłodzenie aio wybrać do 550zł bo zastanawiam się nad Chłodzenie wodnym Arctic Liquid Freezer III 360 do obudowy Modecom Volcano Panorama Apex ARGB 5F
Arctic super. Upewnij się tylko, że pasuje do obudowy i procesora, bo tam ograniczone wsparcie dla starszych platform jest.
najważniejsze to upewnij się czy oświetlenie aRGB chłodzenia pasuje odpowiednio do barwy aRGB obudowy 🤡 a chłodzenie nieważne, weź najdroższe, zazwyczaj najlepsze modele mają wincyj ledow 🤡
Szkoda że batterfielda 2024 nie ma w testach oraz coda worzone w 4k oczywix.
Rewolucja, ogranicza ich tylko moc zasilania XD
Fajne te karty. Zaraz będzie rtx 6090 i będzie to samo. Teraz wyszedł Samsung s25 ultra a już piszą o s26 ultra jaki będzie cudowny. To wszystko marketing i nakręcanie się dla firm. Ja jestem osobiście napalony na ryzena 9950 x3d. Każdy czegoś chce :)
9:23 10-12 tyś podczas gdy w sierpniu 2023 kosztował 8k za wersję FE.
jeśli mówisz o 4090, to był nawet za 7 z hakiem Foundersik.
a kiedy 5080?
interes jak uj, 30% szybsza, 30% więcej prądu. Poyebało. Sama karta ponad 550W? System ponad 700W. Kutwa, kto te rachunki za prąd będzie płacił :D
Karta jest zrównoważona
575*W founders a jak wyjde wersje od innych to bedzie z dobre 650+ wiec zasilacz i tak 1.2kW minimum
Seria 5070 nawet po specyfikacji wypada słabiutko, natomiast 5090 zapowiadał się zarąbiście po specyfikacji i dostaliśmy drogiego, prądożernego kotleta, do tego z pieczątką wydajności od CEO Nvidii, honorowanej tylko w świecie Nvidii. :D Moim zdaniem powinni dodawać twarz CEO nvidii na pudełka kart serii 5000, taka duża głowa CEO Nvidii obejmująca całe pudełko, czoło może spotkać się z napisem DLSS 4.0*, a w jego ustach napis 5070 = 4090 *. :D Co symbolizuje, że jego myśli są generowane przez DLSS, stąd miał tak błyskotliwy występ na targach. :D Zresztą ganiał po scenie z kartonem z nadrukiem procesora czy wafla krzemowego, więc temat około kartonowy, nie jest mu obcy. :D Gwarantuje, że wtedy te karty sprzedawałyby się jak ciepłe bułeczki. :D Ze zwykłymi pudełkami, będzie to schodziło słabiutko. :P Myślę, że Nvidia to przeczuwała, stąd mała dostępność na start, aby sztucznie podbić ceny, mizerne zainteresowanie przy braku dostępności i tak da efekt. Ogólnie praktyki tej firmy są okropne, widzę też że pojawiły się wersje 4070 z GDDR6 zamiast GDDR6x, czyli kolejna ściema od nvidii, gdzie po cichu zmienili pamięć w 4070 na słabszą, nie nadając temu nowej marketingowej nazwy, to znaczy nie poinformowali o tym konsumentów. Teraz ludzie kupując 4070 są przekonani że kupili to znane na rynku 4070 a tak naprawdę kupili coś słabszego. Widać techniki DLSS wchodzą im w krew, również w komunikacji z klientami. Ta technologia opanowała ich umysły. :D Nie dajmy się temu virvsowi i kupujmy Radki! :D
a czy przypadkiem o ile sie nie myle po tym co linus i inni z ces nagrywali to porownanie 4090 i 5090 bylo robione w formie 4090 bez dlss 4 i fmg a 5090 miala to wlaczone
Jest gdzieś informacja jakie gry bedzie obslugiwac dlss4??
Google pomoże.
Bez dyskusji czy nam się coś wydaje czy nie to idzie wszystko w stronę ai, czas pokaże jaki skok wydajności będzie za 10 lat, jak na razie to będą rozwijać to technologie za naszą kasę, czyli im więcej zarobią tym więcej zainwestują w nową technologie, przecież nie wydadzą swojej kasy, cały gaming to sztuczna inteligencja
wszystko tak samo wygląda na tych porównaniach... a nie czekaj mam monitor 60hz xD
To reklama jest przeciez a nie recenzja...
Recenzja bez sensu,dlss 4.0 i sztuczne klatki to nie jest postep i przewaga. Max przewaga nad rtx 4090 nowego 5090 w czystym rasterze to 25%,ale sponsor placi za recke. Ciekawe dlaczego nvidia nie wypuszcza do seri 4000 dlss 4.0 i mfg. Bo wydajnosc mogla by byc praktycznie taka sama 😂😂😂😂
ciekawe czemu nie bylo ani jednej gry w 1080p...
od kiedy mamy dlss to czysta wydajność bez upscalerów stoi w miejscu wcześniej kart rosły w czyster restyryzacj a teraz co mamy sztuczne klatki taki kierunek mi nie pasuje
Fakty
Prawda.
masz spację popsutą?
Nikomu to nie pasuje, widać to po komentarzach, ja chcę czystą moc w rasteryzacji a niech ich sztuczne klatki z algorytmów czy AI. Dla nich to jest proste, bo robią to programowo a żeby raster szedł w górę to muszą moc zwiększać a to jest praca fizyczna na karcie, budowanie tranzystorów etc etc, robota, koszt... trzeba to zaprogramować przez inżyniera... jedno ci powiem to się źle skończy.
Star Wars Outlaws nie warty kupna lepiej poczekać aż Ubisoft doda za darmo w gamepasie razem z PS plus ;)
szkoda ze wszyswcy opieraja testy na tych samych tytułach, tym samym procku, mnie by głownie interesowały testy ale natywne w programach użytkowych jak gry to z mocniejszym prockiem bo ten ryzen czesto jest wąskim gardłem....
Bez sensu te karty tak szczerze samego przeprojektowania rdzeni pod ai praktycznie nie widac czy to z wyciekow czy ze wstepnych testow
tak szczerze to ta cala karta brzmi jak poprostu 4090 super czy ti super i zreszto wskazuje na to nawet tak z grubsza obliczany wspolczynnik ppw.
ale jak my jako uzytkownicy mamy to sprawdzic bo watpie zeby ktos z nas mial mikroskop elektronowy i cos do przeskanowania calego rdzenia w 3d zeby sprawdzic to ich cale "przeprojektowanie"
Włoski na głowie tak Ci się świecą że też są w RT ;)
Rewolucje to zaraz zrobią im konsumenci. Ta seria to porażka.
Niestety nie zrobią bo są albo nieświadomi, albo głupi po nakarmieniu marketingiem zielonych.
@@miraveilyt dlatego należy pisać i mówić ludziom prawdę chociażby w komentarzach bo teraz coraz ciężej o uczciwe/niesponsorowane recenzje, niby tylko tyle i aż tyle...
Jedyne testy jakie mnie obchodzą to kart z seri 5xxx ale nie tych bo miliony cebulionów a te bardziej dla gracza jak seria 5070 5060.
Mój RX580 ma wydajność RTX5090 w 4k
*Używając LoslesScaling FG 20x 720p do 4k
Musi byc ponad 100fps w podstawie zeby opoznienia byly niskie jak ktos chce 360 klatek jego sprawa ja pow 140 roznicy nie czuje
Świat już dawno na głowie stoi. Nie długo 1kw mocy trzeba będzie mieć by w pasjansa zagrać? Ponad 10 000 PLN za kartę to dużo za dużo.
7:29, gówno, nie warto sprawdzać, nie zapraszam do dyskusji
podsumowujac tak troche to wszystko ja tylko czekam az amd zrobi co z intelem z poczatku na tym samym poziomie intel jeden fup i i wykorzystali moment wiec niech tylko to zrobia z gpu moze wkoncu sie pojawia na rynku bo nvidia robi z siebie monopoliste i praktycznie stoi w miejscu jak intel z 7 na 8 gen
„Yyyyy FG to nie są prawdziwe klatki a także zesralem się no i spierdzialem”
Czy mfg jest fajną rzeczą która poprawia płynność?
Tak
Czy przez to wymienię swojego rtxa 2060 super?
Zdecydowanie nie
Mam taki upłynniacz w TV ;) (jajcze) i spoko w TV jest to spoko.
przy cenach prądu masakra
Fajna ta karta na którą mnie nie stać 😅
Czyli 5090 to szrot, a fake klateczki i tak debile kupią XD
Odświeżone 4090 z szybszą pamięcią i większym limitem mocy
Nie, to nie szrot. To po prostu 4090Ti XD
A tak na serio: Nvidia naprawdę pracowała nad 4090Ti, ale miała dwa problemy. Po pierwsze, karta zajmowała 4(!) sloty, po drugie żarła za dużo prądu (i było prawie pewne, że spali wtyczki). No cóż, referent 5090 zajmuje 2 sloty (to jakiś cud), a zużycie prądu? Kogo to obchodzi? +30% wydajności za 30% większe zużycie XD
ciekawe kiedy nowe sterowniki