Fajny pomysł na test ale powinieneś tak dobrać ustawienia żeby liczba FPS była prawie identyczna w obu przypadkach i tekstury powinny byc na high/ultra. Edit. Po obejrzeniu testu stwierdzam ze wowal bym 1440p ultra i blisko 100fps albo high i jeszcze wiecej fps. Ta rozdzielczosc faje rade
Nie. Zmieniłem monitor z 1080p na ultrawide (3440x1440) i na mojej karcie też musiałem zjechać z ustawień. Obraz jest milion razy lepszy. Detale. Na wyższej rozdziałce można zjechać np. z wygładzania i obraz i tak jest żyleta,bez schodów i pikselozy a co dopiero 4K. Cienie też super. Sam byłem zdziwiony. Black ma rację w 100%
@@club4ghzzalezy jesli bez rt to 4070ti wystarcza na luzie. Ale do rt to minimum 4080. :D moja 3080tka w 1440p nie daje rady z rt, dlatego zmieniam na 3070tke bo mniej pradu pobiera a w 2k spokojnie 80klatek w wiekszosci grach osiaga
@@furieux6742 ustaw w opcjach karty wustawieniach 3D na wysoką jakość nie wydajność i przesuń suwak na jakość i wyłącz synchronizacje Pionową bo ta opcja zaniża klatki na sekundę .mieć karte to nie wszystko trzeba ją ustawić jak Windowsa
Nie wiem ja mam monitor 1440p a gralem w cyberpunka chwile na 1080p jeszcze i w 1440p musialem zjechac z ultra detali praktycznie na srednio niskie i wygladalo gorzej niz 1080p ale to tez zalezy od gry
Blacku. W przypadku takiego materiału przydałoby się wrzucić surowy film (a przynajmniej fragmenty z rozgrywki) na jakiś zewnętrzny hosting, bo przez kompresję YouTuba, to tych różnic w ogóle nie widać.
Nie żebym się czepiał rzetelności przeprowadzonego testu ale nie można bezpośrednio porównywać 1440p do 4k na monitorze niewspierającym natywnie obu tych rozdzielczości (co jest aktualnie nierealne). O ile obraz 1080p na monitorze 4k podświetla dwurotnie większą liczbę pikseli - 2x2 piksele (oglądając ten film na monitorze 1080p podświetla się oryginalnie 1 piksel), o tyle obraz 1440p na monitorze 4k podświetla 2,25x2,25 pikseli (i odpowiednio 1,33333 piksela oglądając ten film na monitorze 1080p) czego wynikiem jest widoczne rozmycie, poszarpane krawędzie etc. Chyba jedyna znana mi możliwość to zestawienie testów w 1440p na monitorze 1440p z testami w 4k na monitorze 4k
Jest tu ten jeden problem z faktem, że na nagraniu tych różnic w wielu przypadkach nie widac.. Spójrz jak robi to Digital Foundry. Zatrzymany obraz i przybliżenie x2, x4 itd. Dzięki czemu te różnice nam się pokazują na filmie. Fakt, najlepiej widzieć u siebie, ale jak test ma mi coś dać to chcę to widzieć :D Po filmie zdecydowanie bym wybrał 1440p, a że tak gram to w sumie.. :D
Blacku nie gra zapewne w typowe szybkie szczelanki, więc powtórzył co gdzieś zasłyszał. Oczywiście że wyższa rozdzielczość nie pogarsza efektywności, ale powoduje spadek płynności, a to powoduje niższą efektywność. Reszta to wymysły.
Też myślałem nad modelem Dell alienware AW3423DWF kuzyn kupił i widziałem testy spoko, ale nie pasowało mi odświeżanie. Wybrałem monitor LG 45GR95QE-B i kartę RTX4090. Imersja oraz odświeżanie 240Hz nie do opisania.
Nie opłaca to się grać z RT ta funkcja to zabija wydajność nawet na RTX ja w wielu grach to wyłączam do puki nie dostaniemy odpowiedniej ilości jednostek pod obsługę tej technologi to lepiej o tym zapomnieć .
Przydałby się taki film, bo dziś nie wiadomo w jaki komputer celować. Do 1440p to min 8000 do 9000zł z monitorem. Cena zależna od wybranych podzespołów.
Nie rozumiem co udowadnia ten test. Oczywistym jest, że w 4K gra renderuje więcej detali, zwłaszcza tych drobnych. Jednocześnie nie jest tak, że na monitorze 1440p gra w 1440p jest jakaś rozmazana czy nieostra, bo odniosłem wrażenie, że tak zostało to przedstawione. Tak by się działo, gdyby na monitorze 4K ustawić rozdzielczość 1440p. Film skupia się właściwie wyłącznie na porównaniu ostrości/ilości detali, nie omawia natomiast w żaden sposób innych różnic w jakości obrazu. Wyższa rozdzielczość nie nadrabia innych efektów graficznych jak jakość cieni, liczebność postaci, zasięg rysowania, jakość tekstur, jakości odbić itd. Grając w 4K na Medium wciąż te elementy będą wyglądać gorzej niż w 1440p na Ultra. O ile gorzej i czy jest to w ogóle zauważalne - zależy od gry. I jeszcze słowo na temat Wiedźmina. Nie ma takiej możliwości, że ta sama karta generuje ponad 60 fps na Uber w 1440p i jednocześnie daje radę wykrzesać ledwo 30 fps w 4K na Low. To jest oczywisty babol i nie powinien się nawet znaleźć w tym filmie.
Jako posiadacz rtxa 4080, zdecydowanie bardziej wolę 1440p niżeli 4k. W wymagających grach jak cyberpunk mogę cieszyć się ustawieniami ultra i raytracingiem na ponad 100fps, przyjemność z rozgrywki jest nie do opisania. W 4k musiałbym obniżać ustawienia A może nawet grać bez rt aby dojść chociaż do 60 klatek, pozatym przy monitorze 4k trzeba siedzieć naprawdę blisko, aby zobaczyć różnice ostrości między 1440p. Pozatym 1440p jest bardziej future proof, wymagania gier ciągle rosną, i to że teraz np jakaś karta jest w stanie wyciągnąć 50 klatek w 4k w jakiejś grze typu wiedźmin, to za parę lat w jakiejś nowszej gierce wyciągnie tych klatek z 30, co jest już ilością strasznie nieprzyjemna dla oka. Z 1440p i przyzwoita karta ma się pewność że gierki za kilka lat nawet będą płynnie chodzić.
Czyli pomimo niższego ustawienia tekstur oddają one lepiej przy wyższej rozdziałce. :D Dobrze wiedzieć. Ja dalej czekam, aż monitory 4k 120Hz+ będą bardziej przystępne cenowo. Póki co 1440p poszło ładnie w dół z cenami.
Mam RTX3060 od półtora roku - kupiona jako karta tymczasowa w gorszym okresie (choć już po nieco obniżonych cenach). PC mam podłączony do monitora 1080p i TV 4k - w graniu na na monitorze nie ma żadnych problemów, ale już w kanapowym graniu z padem na TV karta mocno niedomaga - ale tutaj z reguły odpalam starsze bądź mało wymagające tytuły więc w 4k zdarza mi się grać. Czy wizę różnicę? Jak odpaliłem Forze Horizon 4 w 4k to zdziwiłem się, że gra może tak ładnie wyglądać ;)
Bardzo fajny test, ja już od dawna gram na tv 55 cali w 4k detale średnie/wysokie z dlss na rtx 3070 i jest git, 8gb vram starcza, tam gdzie można to i RT pociągnie przy 60 fpesach.
@@pieron2 Odpowiem Ci jak jest u mnie, mam 3080Ti i gram głównie w 4K na 55' OLED LG. Ogólnie jakościowo jest przepaść nawet jak byś ustawił detale na medium/high zamiast ultra(sam HDR i kolory OLEDOWE miażdżą każdy IPS/VA). Co do wygody u mnie mam TV za kompem i przyznam szczerze, że głównie gram na padzie podłączonym pod PC choć i w FPS na zestawie bezprzewodowym idzie pograć ;) Ogólnie polecam bo granie na TV w szczególności w gry z fabułą jak Wiedzmin/Starfield/BG3 to bajka, szybkie FPS gorzej ale też się da.
@@pieron2 Ja pykam po taniości na TCL c715 qled, ma niski input lag, bardzo dobre kolory, gram na padzie, albo na bezprzewodowym zestawie logitech mysz/klawiatura z vsync na 60fpsach i jest zajeeb. Jedynie na co czekam to jakieś tanie TV TCL albo Hisense z g-sync compatible, one mają freesync i vrr pod konsole, ale tego pierwszego nie.
@@pieron2mam tv 65" Philipsa i kompa z rtxem 2060, siedzę w miarę blisko tv 2-3 metry, czasami jak karcie brakuje pary to zmieniam rozdziałkę na 1080p i da się grać, pixelozę ciężko dostrzec. Teraz planuję tylko mocniejszego kompa kupić żeby grać w 2K/4K. Nie wiem czy dałbym radę przerzucić się spowrotem na monitor. Gry typu Assassin, Wiesiek czy Forza horizon to poprostu bajka na TV.
Aktualnie posiadam 15 letni monitor LG 22" 1600x1050 w 60Hz i jest wystarczający do gtx 1650S. Zastanawiam się co wybrać na przyszłość, przejść na 1440p, czy 4k i grać w mniejszej rozdzielczości?
Witam.Od 5 lat gram na monitorze 32 cale,1440p,75hz, ips(AOC Q3279VWFD8).Od prawie roku mam zestaw oparty na i5 13400f i rtx 4070ti i myślę właśnie nad nowym monitorem ale nie do końca wiem czy 4k będzie ok,wiem że wielkość musi zostać ale może coś w 1440p tylko z szybszą matrycą....Pozdrawiam.
To jednak ktoś tu zasadnie zauważył, że te detale w 4K musiał pan oglądać z odległości 5 cm. 4K ma sens ale przy monitorach +40 cali, przy 32 calach z normalnej odległości (min 70 cm od monitora) nie widać żadnych różnic. Zagęszczenie pikseli na 32 calach w 1440p jest prawie takie samo jak na 24 calach w 1080p. 4K na 32 calach (lub mniej) jest więc tylko niepotrzebnym zażynaniem GPU.
Czy opłaca się zmieniać dobry monitor 1440p na taki 4k? Czy różnica w obrazie/grafice będzie bardzo odczuwalna? Mam obecnie qled samsunga g7 odyssey 32" 2560x1440 i zastanawiam się jakby gry wyglądały w 4k.
Ja gram przy najmniej na razie (takim dłuższym hehe) w 1080p mając monitor od LG (75 Hz odświeżanie, 24 cale) z kartą 3070 i prockiem R5 5600 i jest to dla mnie w zupełności wystarczające 😃💪
Teraz pytanie czy warto sie w to bawic na monitorze ktory zaleca rozdzielczosc 1440p? Czy moze miec to sens? I czy wgl warto probowac na rtx3060TI sie w to bawic?
Ustawianie 4K na monitorze 1440p ma sens tylko wtedy, kiedy masz nadwyżkę mocy lub bardzo denerwuje Cię aliasing, a w grze nie ma skutecznej metody AA.
Z tego co wiem, to ogólnie przyjmuje się, że dla 1080p najlepiej grać na 24 calowym, w 1440p na 27 i 4k na 32 cale. Wiadomo, wchodzi jeszcze w grę częstotliwość odświeżania i przeznaczenie do jakich gier, programów czy innego zastosowania...
Taka ciekawostka - Arc 750 daje sobie radę w 4K z wieloma grami w które gram - Euro/American Trucki. Assetto Corsa, ostatnio sprawdzałem GTA IV i z DXVK działa też dobrze. W nowszych grach jak np. Everspace 2 wystarczy zmniejszyć detale i jest 50-60 fps w 4K, z monitorem z VRR wcale to nie przeszkadza. Zdecydowanie wolę w grach ostrość wyższej rozdzielczości i niższe detale niż mleko w 1080p na maksymalnych detalach. W przyszłym roku pewnie kupie 4070 albo nową kartę Intela bo przyda się do Questa 3.
@@rafaidzior9466 Używam karty od lutego. Nie trafiłem na żadne problemy. Mam wrażenie, że problemy mają Ci co tych kart nie używają. Wymiana 2060 na Arc nie da ci jakieś ogromnej różnicy w wydajności. Intel wydaje cały czas nowe poprawione sterowniki - ostatnio jednak dodaje w nich poprawki do nowych gier. Prawdopodobnie da się trafić na jakieś niedziałające starsze gry. Pamiętaj też, ze ARC nie lubi starych procesorów i płyt. Nie ma sensu poniżej 11 generacji.
Ja mam problem z innym aspektem, zrobiłem upgrade z monitora 75Hz na 170Hz 1440p, i jak tu wyciągnąć max monitora jak karty z budżetu 3000zł nie wyciągną w g-syncu tych Hz chyba że gram w coś starego. Dziwne są czasy.
gry komputerowe robione na texturach graficznych dawały najlepszą jakość na ustawieniach ultra wtedy rozdzielczość 1680x1050 16na10 w monitorze samsung 226BW dawała najlepszą jakość ale nowe gry komputerowe nie pokazują realnej jakości full hd 1920x1200 dlatego rozdzielczość 4k nie jest potrzebna
Gram w gry w natywnym 4k jaki 4k z dlss . Z tego co zauważyłem to gry dlss wyglądają tak samo jak natywna rozdziałka ale tylko w ustawieniach dlss jakość i zrównoważony. W trybie wydajność widać artefakty.
Heja, co może być przyczyną często pojawiającego się komunikatu w grach ERR_GFX_D3D_INIT ? często wywala mnie w grach z takim errorem gta 5, fortnite i rozne inne gry. Instalacja nowego systemu, sterownikow do karty nie pomaga. Pozdro i dzieki za pomoc
Wyjatkiem jest tez kilka innych gier, w tym elden ring bez wsparcia dll czy fg, na mojej 4090 z ray tracingiem ledwo 60fps jest, potrafi spasc w niektorych momentach do 45
jak dla mnie to niema jeszcze karty graficznej ktora zapewni plynna rozgrywke w 4k, przeciez jak sie patrzy to 1440p dopiero jest obslugiwane z pelna plynnoscia. jesli placimy za karte 9000zl to powinnismy miec obsluge kazdej gry w max ustawieniach z max rozdzielczoscia
Od lat 90 obniżało się rozdzielczość żeby mieć płynniejszą rozgrywkę. Zmieniło się teraz - koszt zakupu i koszt grania (zużycie prądu) jest granicą. PRZY CZYM 1080p i 60fps jest dla mnie absolutnie wystarczającym tanim graniem (graficzka żre poniżej 100w w grach przy takich parametrach). Kiedy przesiadka na 4k i 120+ fps? Kiedy wyjdą wydajne energetycznie podzespoły. Kto przemęczył się w latach 80 i 90 wie o czym mówię ^^
Czekam aż zejdzie z ceny u and zawsze na premierę zawsze drożej do 1440 jak znalazł choć od 12 lat tylko nvida, rt akurat strasznie pożera wydajność wolę większy klatkaez niż to włączać
Fajne porównanie, ale ja zostaję przy 1440p na ultra. Nie mam monitora 4k, więc porównać sam sobie nic nie mogę, ale chętnie wezmę całkiem niezłe detale na 1440p z wyższą wydajnością. Pozdrawiam jako posiadacz rtx3080 połączonego z i9 9900k.
1440p na ultra jest gorzej niż 4k na średnich. Potwierdzam. 4k na 32 " to ppi 140 a przy 2k 93 ppi. Dlatego tak duże różnice w jakości wyświetlanego obrazu. Minimalnie lepiej jest przy 27" ppi 109, ale daleko do jakości 4k. Aby całość była perfekcyjna obowiązkowo monitor z matrycą true 10 bit ( 1 mld kolorów) nie 8bit z FRC. To dalej tylko 16 mln kolorów, DCI na poziomie 83-86 % przy 94-98% robi dużą różnicę.
Fajny odcinek jak zawsze lecz według mnie nie ma czegoś takiego jak karta przeznaczona pod konkretną rozdzielczość. Nikt przecież nikomu nie zabroni, żeby grał na 4090 w 1440p.
Ja tam nie spodziewam się prędko komfortowego wyjścia poza 1080p. Już 970 miała być limitem dla 1080p. Tymczasem mamy 2023 rok i nadal 4070 ledwie zipie w ultra w 1080p. A co tu dopiero mówić o 1440p... Ale cóż, jak zamiast rozwijać wydajność sprzętu wymyśla się wynalazki pokroju generatora klatek, a potem bez tego generatora gra ma 30fps to cóż... Nie zgodzę się też, że 47fps w cyberpunku jest komfortowe. Ja grałem w to bodajże na 1070 wtedy jeszcze i ustawiałem sobie obniżanie rozdzielczości jak fpsy spadały poniżej 60fps. Wolałem miec rozmazany obraz niż pokaz slajdów na 40fps podczas walki.
O co chodzi z tym obniżaniem rozdzielczości jak fps spadały? Co do 970 to 980Ti była reklamowana jako karta do real 4K gaming experience, a był to 2015 rok gdzie w sumie pierwsze tv 4k dopiero pojawiały się na rynku. Prawda jest taka że żeby coś dawało radę z 4k tu i teraz to każda nowsza generacja grafiki od nv licząc dwuletni cykl wydawniczy powinna poprzednią topową odmianę wprost miażdżyć, a póki co ile pamiętam to jest tak że nowe gpu xx70 odpowiada poprzedniej generacji xx80/Ti. W topowej półce mamy różnice rzędu maksymalnie 20% może 30% Ja osobiście nadal korzystam z rtx 2060 6gb w styczniu jak dobrze pójdzie będzie 5 lat, też wśród nv była to karta reklamowana albo jako full hd ultra (wystarczył niecały rok aby obalić) albo jako przedsmak 4k czyli możliwe było uzyskanie grywalnego fps przy 1440p. Idąc po łebkach w grach do 2020 roku teoretycznie było to do spełnienia.
@@Player_-lu5kh chodzi o to, że ustawiasz docelową liczbę klatek które chcesz mieć np. 40. I minimalną rozdzielczość do której gra może zjechać np. 80%. Jeżeli gra wykryje, że masz 35fps to obniża rozdzielczość np. do 95%. Jeżeli wzrosną, ale tylko do 38fps to obniża dalej - do 90%. I tak w kółko aż osiągniesz ustawiony próg (80%) lub ustawioną liczbę klatek (40fps). Wówczas proces się zatrzymuje, a w chwili poprawy wydajności - znowu rozdzielczość rośnie, aż wróci do 100% docelowej. To coś jak DLSS/FSR, tylko, że ze zmienną wartością - zamiast wybierać QUALITY/PERFORMANCE/ULTRA PERFORMANCE ustalasz tylko liczbę fps i minimalną rozdzielczość która nie jest pikselozą, a gra sama ustala poziom "rozmycia" żeby zachować płynność. Niestety w najnowszej wersji cyberpunka 2.0 ta opcja zdaje się w ogóle nie działać. Bazuje na FSR 1.0 i wyostrza obraz lepiej niż DLSS czy FSR 2.0 ale nie poprawia już wydajności tzn. nie obniża rozdzielczości. Jestem więc zmuszony do korzystania z dlss na ustawieniu automatycznym, ale nie mam opcji weryfikacji czy ta rozdzielczość się zmienia, bo nie da się wybrać docelowej liczby fps, więc nie wiem w jakich warunkach gra obniża jakość dlss z quality na balanced.
Generalnie w 90% gier ciężko dostrzec gołym okiem różnicę między ustawieniami high i ultra. Te drugie są dla entuzjastów z mocarnymi kartami, ale prawda jest taka, że High zapewnia praktycznie to samo. Z tegoż powodu to oczywiste, że 4k na High będzie lepiej wyglądało niż Ultra 1440p. Nie zgodzę się natomiast z tym, że medium 4k wygląda lepiej niż 1440p ultra. O ile sam obraz jest ostrzejszy, to już cięcia na efektach cząsteczkowych, roślinności, zasięgu widzenia, cieniowaniu i odbiciach zaczynają robić różnicę, a to są rzeczy, których wyższa rozdzielczość w żaden sposób nie rekompensuje.
rozdzielczość 4k ustawienia graficzne wysokie wymagają 8 gigabajtów pamięci videoram na karcie graficznej dlatego radeon R9 290X radeon firepro w8100 są wystarczające do rozdzielczości 4k ustawienia graficzne wysokie 60 FPS ale trzy radeony HD7970 podłączone kablem crossfire wybrał bym bo radeonów HD2900 XTX jeszcze nie naprawili
Ja jestem graczem singlowym więc dla mnie 4k na 50 ramkach to minimum ale czasem muszę zbijać rozdzielczość na niższą kosztem ładnej otoczki graficznej do okoła mimo iż posiadam 3060TI. Bardzo fajny materiał .
będąc szczerym zastanawia mnie po co są detale ultra skoro by zauważyć różnice trzeba przypatrzyć bardzo blisko danych miejsc a i tak różnice są widoczne dla osób z bardziej spostrzegawczych wzrokiem ale jak sporo osób gra fabułę to trudno w ogóle zobaczyć te różnice
Rozwiazanie: kupic jakies 4070S ktore spokojnie daje sobie rade w 1440p i za pomoca DLSS na poziomie Quality grac w 4K, gdzie roznicy w jaskosci wzgledem natywnego 4K nawet nie zauwazymy. Biorac pod uwage cene monitorow 4K to chyba juz nie ma co sie bawic w jakies 1440p, zwlaszcza ze karty beda coraz szybsze, a DLSS Quality na prawde daje rade. Jedyny problem to 12GB of VRAM a to bedzie malo do 4K, tak wiec niestety zostaje 4070tiS bo ma 16GB. 7800xt to tez dobry wybor, tylko trzeba miec na uwadze ze FSR generuje troche gorszy obraz niz DLSS (mniej wiecej FSR Quality rowna sie jakosci obrazu DLSS Performance). No ale 7800xt ma 16GB a 4070S ma 12GB.
ja gram na TV Samsung Quled 55" 7generacji hdmi 2.1 na RTX 3060 12gb miałem na full detalach od 60 do 80Fps zmieniłem tydzień temu na RTX 4070 12gb Gaming Asus Rog Strix Republic Of Gamers i mam na Full detalach z RT i DLSS do 170FPS nie schodzę poniżej 120FPS a jeszcze nie prubowałem podkręcać ale czuć moc tego rtx i Max temperatura to 62stopni .Pozdrawiam
Z tą odległością od telewizora, to swego czasy był jakiś mit. Sam siedzę jakieś 3,5m od TV 65" i chętnie zmieniłbym go na 75". Dopóki nie musisz machać głową oglądając TV, to jest ok. Już dawno doszedłem do wniosku, że nie ma czegoś takiego jak za duży telewizor.
@@grzes.witalis Nie są to jakieś wielkie różnice, ale zauważalne. Z resztą tu już nawet nie chodzi o gry. Przecież nawet jak oglądasz youtube, to widać różnicę. Jak zmienię TV na większy, to pewnie będzie widać jeszcze bardziej.
Daj pan spokój z tą kartą. To najgorszy możliwy wybór, zaraz po 6800XT i 6950XT i NV 4060. Dzisiaj granie bez "dopalaczy" nie ma sensu, bo staję się one równie ważne jak pozostałe parametry karty graficznej. Tylko dzięki ich użyciu doczekaliśmy tanich kart które sa w stanie generować obraz w 1440P w Path Tracingu (4070) w CP (w 60 FPS). A będzie tylko lepiej. Jeszcze pamietam, jak za czasów Amigi dyskutowaliśmy kiedy RT w czasie rzeczywistym będzie możliwy. I stało się. Rasteryzacja, ze względu na dużo trudniejszy sposób tworzenia grafiki i jej znacznie niższą jakość zostanie zapomniana w ciągu kilku najbliższych lat. Stąd w nowych kartach już nikt nie stara się o znaczne jej wzrosty. Teraz liczy się RT i AI na kartach. Jako ciekawostkę dodam jeszcze, że nowa aktualizacja sterów zrobiła UV karty do 0.9 V i w tym Path Tracingu w 1440P karta pobiera teraz 100W mocy. To naprawdę ciekawe.
Ciekawe ile zapłacili za recenzje xd. Wolę ultra detale w natywnej niż średnie lub fsr I dlss xd. Co gorsze przez takie recenzje broniące ,twórców będą zadowoleni tworzac grę bez optymalizacji do natywnej rozdzielczości i takie gry jak starfield, golem, forspoken itp.pokazuja do czego to prowadzi przez fitchery . Ale kasa na konto się liczy nie gracze .
Chyba jestem wystarczająco ślepy, bo gram na 4080 na monitorze 4K@144Hz z DLSSem+FG i jestem bardzo zadowolony. Na statycznym obrazie dopatrzysz się słabiej wyrenderowanej kratki wentylacyjnej(upośledzenie algorytmu), tak już w trakcie gry, biegania postacią w jakiejś grze AAA lepszy obraz daje mi Ultra+DLSS niż Medium/High native.
To fakt że sama rozdzielczość daje kopa do jakości obrazu a szczególnie jeśli przesiadamy się z full hd na 1440p albo z 1440p na 4k ma mega różnice w dokładności i szczegółowości obrazu sam pamiętam swoje wow jak na niższych ustawieniach grafika na 1440p miało skok jakości obrazu w porównaniu z full hd biorąc pod uwage samą rozdzielczość
ja mam monitor full hd i jak oglądam to nie widzę róznicy pomiędzy 2 k i 4k medium ? czy aby zobaczyć róznice to musze oglądnąć ten film na monitorze 4k ?
Litosci. Full hd to do smartfona/max laptopa jrst dobre, a nie do 25-27 calowego monitora. Sam mam 1440p na 27calach i niestety pixeloza jest choc nie przeszkadza. Najgorsze są czcionki.
@@furieux6742 E tam mam 23,8" fhd 75hz i jest to idealny kompromis pomiędzy wielkością/jakością obrazu/obciążeniem karty graficznej, dla budżetowych sprzętów większości ludzkości, dzisiaj na steam w czołówce karty typu gtx1650/gtx1060/1050 ti i oczywiście fhd 61%.
@@Gienek_CPU owszem, ale to dramat.. porzadną uzywke mozna złozyc do 3000 ktora spokojnie w 1440p sobie radzi. Sam kupiłem na wyrost kompa troche nowe/uzywane/powystawowe lub bez gwarancji za 3400 za 3070tke 12600k zasilacz seasonic. Porzadna obudowa modecom volcano, plyta asus h670, chlodzenie fortis 5 argb, ram 2x8 3600mhz rgb. Niestety wiekszosc kompow ludzie składają jakies szroty. Lepiej samemu złożyć i wiedziec co sie złożyło :)
Jak macie monitor 4k pod ręką to można się bawić, jak musicie kupić monitor pod kompa, albo potrzebujecie obydwu to nie polecam, bo na kompie z taką kartą ( cena około 6500-7000 zł) granie w 4k jest co najwyżej na teraz i to tak ledwo ledwo, zakładam że już w takim np. GTA 6, które wyjdzie 2024 będziecie musieli zejść do rozdziałki full HD, a przeskalowana w dół rozdziałka full HD na 32 calowym lub większym monitorze 4k nie wygląda dobrze, nawet na 27-28 calowym nie wygląda już zbyt dobrze :D. Do grania w 4k raczej trzeba przejść półkę lub dwie wyżej jeżeli chodzi o kartę graficzną, ale wtedy już wydajemy takie pieniądze, że cały na biało wchodzi OLED, gdzie monitor 2k oled ma lepszy obraz w grach niż 4k zwykły, ogólnie dużo potencjalnych wyborów :P
Monitor 4K to nie tylko gry - nie, że coś. Jeśli dla kogoś wybór monitora ma służyć zarówno do gier, multimediów i ogólnego korzystania z komputera to ostrość czcionek, interfejsu i pochodnych jest nieporównywalnie lepsza na 27-28"@4K względem 1440p. To warto dodać i dla mnie to była zdecydowana karta przetargowa.
Obraz może będzie ładniejszy jako całokształt na 4K na średnich niż 1440 na Ultra / ale wszelakie cieniowanie i różne tego typu odbicia i efekty Bloom itp itd Będą jednak zawsze na średnich /czyli Będą gorsze😂 Według statystyk większość i tak siedzi na 1080p później 1440 a 4K to niestety na razie to jest nisza bo karty są za drogie niestety... Więc po co mordować tą kartę skoro... Po pierwsze jest ona dedykowana do 1440 a po drugie po co zjeżdżać z detali a po trzecie wiesz o tym że recenzenci gier pierdolą jak to się mówią/ mają w dupie grafikę / ważna jest fabuła hi hi... ... Asami siedzą na RTX 4090 😅co cdla mnie też jest zupełnym bezsensowne. ja chcę pograć i komfortowo i ładnie z fajną fabułą A wybieranie czy to jest lepsze czy to to naprawdę mija się z celem... Ale szczerze powiem że materiał mi się podobał rzetelny jak zawsze u ciebie i Niekiedy warto dowiedzieć się czegoś nowego👍
Panie ja na RX580 gram w 4k. Znaczy co to za życie, ale się da na upartego.. Starfielda musiałem tak pociąć,,, nie miałem szczęści grać w OldBliviona le teraz tego doświadczam.. I to nawet nie dlatego że gra nie działa, a dlatego że kod tej gry to śmietnik... Jedyne co działa w tej grze to Havok, jedyna rzecz nie robiona prze g studia i betheste które to kleciły.. musiałem wywalić cienie i Habao żeby odmulić silnik, bo to co wysyła gra do silnika to jakiś bełkot pepeW
Kiedyś grałem na 1080p to GTA V na ultra wyglądało gorzej, o wiele gorzej, niż jak przez HDMI podłączyłem kompa pod duży TV i zjechałem z detalami (gra z padem). Teraz z lepszym kompem na 1440p RDR2 ultra wygląda świetnie, a na TV to już w ogóle realizm prawie.
kupuje stary komputer i monitor samsung 226BW bo wracam do rozdzielczości 1680x1050 16na10 procesor i7 980X płyta główna evga x58 3x sli classified pamięć ddr3 geil evo one 24 gigabajty karta graficzna nvidia quadro 6000 fermi100 podłączona kablem sli do dwóch nvidia quadro fx 5600 G80 sli karta dźwiękowa audio asus xonar D2 pci trzy dyski hdd hitachi ultrastar 7k2000 raid dwie nagrywarki dvd rw lightscribe czytnik kart sd chłodzenie procesora scythe ninja3 rewizja-B zasilacz corsair rmx850 głośniki microlab B77 windows vista ultimate 64 bitowy
Zgadzam się z tematem odcinka, choć u mnie to różnica miedzy FHD na max i 1440p z ograniczeniami (RTX 2060 6GB) do tego 32` +144Hz(oczywiście e-sporcie ).
Zjadłeś jakieś trujące grzyby czy co? FSR renderuje grę w niższej rozdzielczości i ją upscaluje do 1440p. To NIGDY nie będzie lepszy obraz niż natywne 1440p.
@@kondziowy No niestety. FSR daje obraz gorszy niż natywny i to wie każdy, kto miał z nim do czynienia, mówi też o tym każdy test i porównanie w sieci. Być może kiedy włączysz CAS i obraz zostanie sztucznie wyostrzony, to Ci się wydaje ładniejszy. Nie wnikam.
4:53 Szrama na ręce rozmyta w tym 4K....textura pochwy na miecz też rozjechana, a w 1440p żyleta.....ale w 4K za to krzaczki lepiej wyglądają xD
4:30 No nie no tak to nie. Zdecydowanie lepszy obraz w 1440p. Wystarczy się przyjrzeć na te drzwi i drzewko. 1440p > 4k medium
Fajny pomysł na test ale powinieneś tak dobrać ustawienia żeby liczba FPS była prawie identyczna w obu przypadkach i tekstury powinny byc na high/ultra. Edit. Po obejrzeniu testu stwierdzam ze wowal bym 1440p ultra i blisko 100fps albo high i jeszcze wiecej fps. Ta rozdzielczosc faje rade
jak obniżymy jakość cienie robią się piksle.
Nie. Zmieniłem monitor z 1080p na ultrawide (3440x1440) i na mojej karcie też musiałem zjechać z ustawień. Obraz jest milion razy lepszy. Detale. Na wyższej rozdziałce można zjechać np. z wygładzania i obraz i tak jest żyleta,bez schodów i pikselozy a co dopiero 4K. Cienie też super. Sam byłem zdziwiony. Black ma rację w 100%
wole grac 1440p i miec 100fps niz w 4k i 58fps po co te high ustawienia co to za gra w 50fps...
Gram na Ultra w 4k bo mój sprzęt mi na to pozwala. Single gry blokuje fps na 60, multi ile fabryka dała.
Pewnie jak włączasz starfielda to w elektrowni ruszasz zegarami
Średnio to widzę, osobiście dopiero przy kartach o wydajności RTX 4080 rozważałbym przesiadkę na 4K.
Ja mam 4080 na 1440p i jakos boje sie w 4K inwestowac bo zaraz bedzie trzebra karte wymienic pewnie.
@@club4ghzzalezy jesli bez rt to 4070ti wystarcza na luzie. Ale do rt to minimum 4080. :D moja 3080tka w 1440p nie daje rady z rt, dlatego zmieniam na 3070tke bo mniej pradu pobiera a w 2k spokojnie 80klatek w wiekszosci grach osiaga
@@furieux6742 ustaw w opcjach karty wustawieniach 3D na wysoką jakość nie wydajność i przesuń suwak na jakość i wyłącz synchronizacje Pionową bo ta opcja zaniża klatki na sekundę .mieć karte to nie wszystko trzeba ją ustawić jak Windowsa
@@club4ghz mam to samo, 4080 na pokładzie i w 1440p super się gra, przy przesiadce na 4k tytuły za ~2 lata będą powodowały mocną zadyszkę karty.
Brak informacji o odległości od monitora i jego rozmiarze. Jeśli siedzisz 5 cm od monitora to może faktycznie jest różnica
Nie wiem ja mam monitor 1440p a gralem w cyberpunka chwile na 1080p jeszcze i w 1440p musialem zjechac z ultra detali praktycznie na srednio niskie i wygladalo gorzej niz 1080p ale to tez zalezy od gry
Blacku. W przypadku takiego materiału przydałoby się wrzucić surowy film (a przynajmniej fragmenty z rozgrywki) na jakiś zewnętrzny hosting, bo przez kompresję YouTuba, to tych różnic w ogóle nie widać.
gdzie ma wrzucić takie duże pliki surowe?
Mega test Black, nie spodziewałem się tego. Z drugiej strony zastanawiam się, jak to naprawdę widać na monitorze, tak na żywo.
Ja gram w 8K na Low, rewelka.😅
Nie żebym się czepiał rzetelności przeprowadzonego testu ale nie można bezpośrednio porównywać 1440p do 4k na monitorze niewspierającym natywnie obu tych rozdzielczości (co jest aktualnie nierealne). O ile obraz 1080p na monitorze 4k podświetla dwurotnie większą liczbę pikseli - 2x2 piksele (oglądając ten film na monitorze 1080p podświetla się oryginalnie 1 piksel), o tyle obraz 1440p na monitorze 4k podświetla 2,25x2,25 pikseli (i odpowiednio 1,33333 piksela oglądając ten film na monitorze 1080p) czego wynikiem jest widoczne rozmycie, poszarpane krawędzie etc. Chyba jedyna znana mi możliwość to zestawienie testów w 1440p na monitorze 1440p z testami w 4k na monitorze 4k
Jest tu ten jeden problem z faktem, że na nagraniu tych różnic w wielu przypadkach nie widac.. Spójrz jak robi to Digital Foundry. Zatrzymany obraz i przybliżenie x2, x4 itd. Dzięki czemu te różnice nam się pokazują na filmie. Fakt, najlepiej widzieć u siebie, ale jak test ma mi coś dać to chcę to widzieć :D Po filmie zdecydowanie bym wybrał 1440p, a że tak gram to w sumie.. :D
możesz napisać czemu lepiej się niekiedy gra w niższych rozdzielczościacch niż wikększych ? chodzi tylko o płynność ?
Blacku nie gra zapewne w typowe szybkie szczelanki, więc powtórzył co gdzieś zasłyszał. Oczywiście że wyższa rozdzielczość nie pogarsza efektywności, ale powoduje spadek płynności, a to powoduje niższą efektywność. Reszta to wymysły.
Hej, co polecicie do rx 7900 xtx, jakiś monitor 4k (jaki?) czy 2k QD-OLED 34 cale Dell alienware AW3423DWF. czy jest moze na rynku jakis 4k QD-OLED ?
Też myślałem nad modelem Dell alienware AW3423DWF kuzyn kupił i widziałem testy spoko, ale nie pasowało mi odświeżanie. Wybrałem monitor LG 45GR95QE-B i kartę RTX4090. Imersja oraz odświeżanie 240Hz nie do opisania.
Nie opłaca to się grać z RT ta funkcja to zabija wydajność nawet na RTX ja w wielu grach to wyłączam do puki nie dostaniemy odpowiedniej ilości jednostek pod obsługę tej technologi to lepiej o tym zapomnieć .
a może taki sam odcinek tylko że 1080p ultra vs 1440p średnie dla osób które mają karty skierowane pod full hd ale monitor z wyższą rozdzielczością
Przydałby się taki film, bo dziś nie wiadomo w jaki komputer celować. Do 1440p to min 8000 do 9000zł z monitorem. Cena zależna od wybranych podzespołów.
Ale przecież takie osoby mogą sobie to sprawdzić same w kilka minut.
@@MarcinB01 może źle to ująłem, jest też teraz masa osób z monitorami full hd i po takim teście mogli by się zastanowić nad kupnem qhd
Nie rozumiem co udowadnia ten test. Oczywistym jest, że w 4K gra renderuje więcej detali, zwłaszcza tych drobnych. Jednocześnie nie jest tak, że na monitorze 1440p gra w 1440p jest jakaś rozmazana czy nieostra, bo odniosłem wrażenie, że tak zostało to przedstawione. Tak by się działo, gdyby na monitorze 4K ustawić rozdzielczość 1440p. Film skupia się właściwie wyłącznie na porównaniu ostrości/ilości detali, nie omawia natomiast w żaden sposób innych różnic w jakości obrazu. Wyższa rozdzielczość nie nadrabia innych efektów graficznych jak jakość cieni, liczebność postaci, zasięg rysowania, jakość tekstur, jakości odbić itd. Grając w 4K na Medium wciąż te elementy będą wyglądać gorzej niż w 1440p na Ultra. O ile gorzej i czy jest to w ogóle zauważalne - zależy od gry. I jeszcze słowo na temat Wiedźmina. Nie ma takiej możliwości, że ta sama karta generuje ponad 60 fps na Uber w 1440p i jednocześnie daje radę wykrzesać ledwo 30 fps w 4K na Low. To jest oczywisty babol i nie powinien się nawet znaleźć w tym filmie.
No właśnie, już myślałem, że tylko ja mam coś ze wzrokiem 😀
Nie ma babola w Wiesku, tyle wyskoczyło na liczniku ;)
@@bIackwhiteTV Jest babol, porównaj z wynikami innych testerów. Na PPC i ITH karta ma 30 fps w 4K, ale na Uber, a nie na Low.
@@stark_2991 Ale ja wiem co wyszło u mnie, to co ja mam inną wersję gry?
@@bIackwhiteTV Ile klatek było u Ciebie na Uber w 4K?
Jako posiadacz rtxa 4080, zdecydowanie bardziej wolę 1440p niżeli 4k. W wymagających grach jak cyberpunk mogę cieszyć się ustawieniami ultra i raytracingiem na ponad 100fps, przyjemność z rozgrywki jest nie do opisania. W 4k musiałbym obniżać ustawienia A może nawet grać bez rt aby dojść chociaż do 60 klatek, pozatym przy monitorze 4k trzeba siedzieć naprawdę blisko, aby zobaczyć różnice ostrości między 1440p. Pozatym 1440p jest bardziej future proof, wymagania gier ciągle rosną, i to że teraz np jakaś karta jest w stanie wyciągnąć 50 klatek w 4k w jakiejś grze typu wiedźmin, to za parę lat w jakiejś nowszej gierce wyciągnie tych klatek z 30, co jest już ilością strasznie nieprzyjemna dla oka. Z 1440p i przyzwoita karta ma się pewność że gierki za kilka lat nawet będą płynnie chodzić.
Mi tam full HD nadal wystarcza 😅 rtx 3070 detale wysokie i jest git na 24"
Jakie byly rozmiary tych monitorow?
Czyli pomimo niższego ustawienia tekstur oddają one lepiej przy wyższej rozdziałce. :D Dobrze wiedzieć. Ja dalej czekam, aż monitory 4k 120Hz+ będą bardziej przystępne cenowo. Póki co 1440p poszło ładnie w dół z cenami.
Mam RTX3060 od półtora roku - kupiona jako karta tymczasowa w gorszym okresie (choć już po nieco obniżonych cenach). PC mam podłączony do monitora 1080p i TV 4k - w graniu na na monitorze nie ma żadnych problemów, ale już w kanapowym graniu z padem na TV karta mocno niedomaga - ale tutaj z reguły odpalam starsze bądź mało wymagające tytuły więc w 4k zdarza mi się grać. Czy wizę różnicę? Jak odpaliłem Forze Horizon 4 w 4k to zdziwiłem się, że gra może tak ładnie wyglądać ;)
Bardzo fajny test, ja już od dawna gram na tv 55 cali w 4k detale średnie/wysokie z dlss na rtx 3070 i jest git, 8gb vram starcza, tam gdzie można to i RT pociągnie przy 60 fpesach.
Siemka, pytanko. Jaki model Tv i jak się gra na tak dużym ekranie?
@@pieron2 Odpowiem Ci jak jest u mnie, mam 3080Ti i gram głównie w 4K na 55' OLED LG. Ogólnie jakościowo jest przepaść nawet jak byś ustawił detale na medium/high zamiast ultra(sam HDR i kolory OLEDOWE miażdżą każdy IPS/VA). Co do wygody u mnie mam TV za kompem i przyznam szczerze, że głównie gram na padzie podłączonym pod PC choć i w FPS na zestawie bezprzewodowym idzie pograć ;) Ogólnie polecam bo granie na TV w szczególności w gry z fabułą jak Wiedzmin/Starfield/BG3 to bajka, szybkie FPS gorzej ale też się da.
@@pieron2 Ja pykam po taniości na TCL c715 qled, ma niski input lag, bardzo dobre kolory, gram na padzie, albo na bezprzewodowym zestawie logitech mysz/klawiatura z vsync na 60fpsach i jest zajeeb. Jedynie na co czekam to jakieś tanie TV TCL albo Hisense z g-sync compatible, one mają freesync i vrr pod konsole, ale tego pierwszego nie.
@@pieron2mam tv 65" Philipsa i kompa z rtxem 2060, siedzę w miarę blisko tv 2-3 metry, czasami jak karcie brakuje pary to zmieniam rozdziałkę na 1080p i da się grać, pixelozę ciężko dostrzec. Teraz planuję tylko mocniejszego kompa kupić żeby grać w 2K/4K. Nie wiem czy dałbym radę przerzucić się spowrotem na monitor. Gry typu Assassin, Wiesiek czy Forza horizon to poprostu bajka na TV.
Ja.mam lg c1 i rtx3060 Ti to da rade na oledzie pograć bo ps5 sprzedałem wpizdu
Aktualnie posiadam 15 letni monitor LG 22" 1600x1050 w 60Hz i jest wystarczający do gtx 1650S. Zastanawiam się co wybrać na przyszłość, przejść na 1440p, czy 4k i grać w mniejszej rozdzielczości?
Witam.Od 5 lat gram na monitorze 32 cale,1440p,75hz, ips(AOC Q3279VWFD8).Od prawie roku mam zestaw oparty na i5 13400f i rtx 4070ti i myślę właśnie nad nowym monitorem ale nie do końca wiem czy 4k będzie ok,wiem że wielkość musi zostać ale może coś w 1440p tylko z szybszą matrycą....Pozdrawiam.
Jakiej przekątnej był monitor lub monitory? Czy w teście w rozdzielczości 1440 był użyty monitor 2k a w teście 2160 monitor 4k?
Tak z tym, ze 4k 27 cali a 1440p 32 cale
To jednak ktoś tu zasadnie zauważył, że te detale w 4K musiał pan oglądać z odległości 5 cm. 4K ma sens ale przy monitorach +40 cali, przy 32 calach z normalnej odległości (min 70 cm od monitora) nie widać żadnych różnic. Zagęszczenie pikseli na 32 calach w 1440p jest prawie takie samo jak na 24 calach w 1080p. 4K na 32 calach (lub mniej) jest więc tylko niepotrzebnym zażynaniem GPU.
Czy opłaca się zmieniać dobry monitor 1440p na taki 4k? Czy różnica w obrazie/grafice będzie bardzo odczuwalna? Mam obecnie qled samsunga g7 odyssey 32" 2560x1440 i zastanawiam się jakby gry wyglądały w 4k.
Musisz spróbować, inaczej ciężko będzie mi tu powiedzieć coś wiążącego.
Testowaleś sporo monitorów, tych 1440p i 4k. Jakie są Twoje odczucia?
Blaku, kierowniku doradz, do rx7800xt brać i513600kf czy i7 13700kf i czy płytke z790 czy niżej???
13600K spokojnie styka a i B760 też będzie oki ;)
@@bIackwhiteTV dzięki kierowniku
Ja gram przy najmniej na razie (takim dłuższym hehe) w 1080p mając monitor od LG (75 Hz odświeżanie, 24 cale) z kartą 3070 i prockiem R5 5600 i jest to dla mnie w zupełności wystarczające 😃💪
To tak jak dla mnie 1080p, ale na GTX 1070 8 GB i prockiem i7 6700 :)
@@barton19851 a co jest grane?
Granie w 1080p to udręka, żyć się nie da, ani trochę to nie wystarcza. Dlatego ja się przesiadam na tv 4k
Teraz pytanie czy warto sie w to bawic na monitorze ktory zaleca rozdzielczosc 1440p? Czy moze miec to sens? I czy wgl warto probowac na rtx3060TI sie w to bawic?
Ustawianie 4K na monitorze 1440p ma sens tylko wtedy, kiedy masz nadwyżkę mocy lub bardzo denerwuje Cię aliasing, a w grze nie ma skutecznej metody AA.
Tylko nie było nic powiedziane o rozmiarze monitora co jest najważniejsze jeśli chodzi o rozdziałke .
Z tego co wiem, to ogólnie przyjmuje się, że dla 1080p najlepiej grać na 24 calowym, w 1440p na 27 i 4k na 32 cale. Wiadomo, wchodzi jeszcze w grę częstotliwość odświeżania i przeznaczenie do jakich gier, programów czy innego zastosowania...
Hej Blacku. A może zrobisz test porównania obrazu natywnego 1440p do 4k dlss balanced?
Taka ciekawostka - Arc 750 daje sobie radę w 4K z wieloma grami w które gram - Euro/American Trucki. Assetto Corsa, ostatnio sprawdzałem GTA IV i z DXVK działa też dobrze. W nowszych grach jak np. Everspace 2 wystarczy zmniejszyć detale i jest 50-60 fps w 4K, z monitorem z VRR wcale to nie przeszkadza. Zdecydowanie wolę w grach ostrość wyższej rozdzielczości i niższe detale niż mleko w 1080p na maksymalnych detalach. W przyszłym roku pewnie kupie 4070 albo nową kartę Intela bo przyda się do Questa 3.
Jak ci sie ta karta sprawuje? Czy problemy ze sterownikami yo juz historia? Pytam bo bym u syna wymienil 2060 na arca
@@rafaidzior9466 Używam karty od lutego. Nie trafiłem na żadne problemy. Mam wrażenie, że problemy mają Ci co tych kart nie używają.
Wymiana 2060 na Arc nie da ci jakieś ogromnej różnicy w wydajności. Intel wydaje cały czas nowe poprawione sterowniki - ostatnio jednak dodaje w nich poprawki do nowych gier. Prawdopodobnie da się trafić na jakieś niedziałające starsze gry.
Pamiętaj też, ze ARC nie lubi starych procesorów i płyt. Nie ma sensu poniżej 11 generacji.
Szkoda, że na RUclips nie widać żadnych różnić. Nawet po ustawieniu jakości filmu na 2160p60 (4k)
Ja mam problem z innym aspektem, zrobiłem upgrade z monitora 75Hz na 170Hz 1440p, i jak tu wyciągnąć max monitora jak karty z budżetu 3000zł nie wyciągną w g-syncu tych Hz chyba że gram w coś starego. Dziwne są czasy.
Nie wiedziałeś tego przed zakupem monitora? :)
masz Pan pomysł na te testy :D
#blackwhiteTV jaki to monitor? Pozdrawiam
gry komputerowe robione na texturach graficznych dawały najlepszą jakość na ustawieniach ultra wtedy rozdzielczość 1680x1050 16na10 w monitorze samsung 226BW dawała najlepszą jakość ale nowe gry komputerowe nie pokazują realnej jakości full hd 1920x1200 dlatego rozdzielczość 4k nie jest potrzebna
Gram w gry w natywnym 4k jaki 4k z dlss . Z tego co zauważyłem to gry dlss wyglądają tak samo jak natywna rozdziałka ale tylko w ustawieniach dlss jakość i zrównoważony. W trybie wydajność widać artefakty.
Heja, co może być przyczyną często pojawiającego się komunikatu w grach ERR_GFX_D3D_INIT ? często wywala mnie w grach z takim errorem gta 5, fortnite i rozne inne gry. Instalacja nowego systemu, sterownikow do karty nie pomaga. Pozdro i dzieki za pomoc
wpisz w google i masz odpowiedź w pierwszym linku ;)
Aktualizowałeś DirectX? Jeżeli nie to zaktualizuj, bo może być to problem właśnie tej biblioteki.
Robione było
Blackwhitetv - tam jest kilka podpowiedzi odnośnie tego problemu
Wyjatkiem jest tez kilka innych gier, w tym elden ring bez wsparcia dll czy fg, na mojej 4090 z ray tracingiem ledwo 60fps jest, potrafi spasc w niektorych momentach do 45
Ryzen 5 600x asus rtx rog strix 3060ti =FHD
jak dla mnie to niema jeszcze karty graficznej ktora zapewni plynna rozgrywke w 4k, przeciez jak sie patrzy to 1440p dopiero jest obslugiwane z pelna plynnoscia. jesli placimy za karte 9000zl to powinnismy miec obsluge kazdej gry w max ustawieniach z max rozdzielczoscia
Nigdy tak nie było i tak nie będzie.
Od lat 90 obniżało się rozdzielczość żeby mieć płynniejszą rozgrywkę.
Zmieniło się teraz - koszt zakupu i koszt grania (zużycie prądu) jest granicą.
PRZY CZYM 1080p i 60fps jest dla mnie absolutnie wystarczającym tanim graniem (graficzka żre poniżej 100w w grach przy takich parametrach).
Kiedy przesiadka na 4k i 120+ fps?
Kiedy wyjdą wydajne energetycznie podzespoły.
Kto przemęczył się w latach 80 i 90 wie o czym mówię ^^
Czekam aż zejdzie z ceny u and zawsze na premierę zawsze drożej do 1440 jak znalazł choć od 12 lat tylko nvida, rt akurat strasznie pożera wydajność wolę większy klatkaez niż to włączać
Fajne porównanie, ale ja zostaję przy 1440p na ultra. Nie mam monitora 4k, więc porównać sam sobie nic nie mogę, ale chętnie wezmę całkiem niezłe detale na 1440p z wyższą wydajnością.
Pozdrawiam jako posiadacz rtx3080 połączonego z i9 9900k.
1440p na ultra jest gorzej niż 4k na średnich. Potwierdzam. 4k na 32 " to ppi 140 a przy 2k 93 ppi. Dlatego tak duże różnice w jakości wyświetlanego obrazu. Minimalnie lepiej jest przy 27" ppi 109, ale daleko do jakości 4k. Aby całość była perfekcyjna obowiązkowo monitor z matrycą true 10 bit ( 1 mld kolorów) nie 8bit z FRC. To dalej tylko 16 mln kolorów, DCI na poziomie 83-86 % przy 94-98% robi dużą różnicę.
@@slawek3212 FullHD to przeszłość, 1440p to jest teraz standard.
@@takijeden7687statystyki steam przeczą twojej tezie, jeszcze trochę wody w Wiśle upłynie zanim 1440p będzie na miejscu 1080p
@@stach122kolejna sprawa to laptopy na których ludzie graja w fullhd 😅
Bardzo dobry wybór
Fajny odcinek jak zawsze lecz według mnie nie ma czegoś takiego jak karta przeznaczona pod konkretną rozdzielczość. Nikt przecież nikomu nie zabroni, żeby grał na 4090 w 1440p.
Pewnie, że nie ma. Bardziej chodzi o maksymalne wykorzystanie karty graficznej
No nikt nie zabroni, tak jak nikt nikomu nie zabroni nazwać takiej osoby głupią, bo marnuje pieniądze (nawet jeśli ma ich dużo)
Fajna broda, Jarek! Jak czyta to jakiś brodacz, to wpisujmy się na listę
Ja tam nie spodziewam się prędko komfortowego wyjścia poza 1080p. Już 970 miała być limitem dla 1080p. Tymczasem mamy 2023 rok i nadal 4070 ledwie zipie w ultra w 1080p. A co tu dopiero mówić o 1440p... Ale cóż, jak zamiast rozwijać wydajność sprzętu wymyśla się wynalazki pokroju generatora klatek, a potem bez tego generatora gra ma 30fps to cóż... Nie zgodzę się też, że 47fps w cyberpunku jest komfortowe. Ja grałem w to bodajże na 1070 wtedy jeszcze i ustawiałem sobie obniżanie rozdzielczości jak fpsy spadały poniżej 60fps. Wolałem miec rozmazany obraz niż pokaz slajdów na 40fps podczas walki.
Ale przecież 1080p jest mocno procesorową konfiguracją, dla 1440p 4070-4080 jest bardzo wydajnym zestawieniem.
O co chodzi z tym obniżaniem rozdzielczości jak fps spadały?
Co do 970 to 980Ti była reklamowana jako karta do real 4K gaming experience, a był to 2015 rok gdzie w sumie pierwsze tv 4k dopiero pojawiały się na rynku. Prawda jest taka że żeby coś dawało radę z 4k tu i teraz to każda nowsza generacja grafiki od nv licząc dwuletni cykl wydawniczy powinna poprzednią topową odmianę wprost miażdżyć, a póki co ile pamiętam to jest tak że nowe gpu xx70 odpowiada poprzedniej generacji xx80/Ti. W topowej półce mamy różnice rzędu maksymalnie 20% może 30% Ja osobiście nadal korzystam z rtx 2060 6gb w styczniu jak dobrze pójdzie będzie 5 lat, też wśród nv była to karta reklamowana albo jako full hd ultra (wystarczył niecały rok aby obalić) albo jako przedsmak 4k czyli możliwe było uzyskanie grywalnego fps przy 1440p.
Idąc po łebkach w grach do 2020 roku teoretycznie było to do spełnienia.
@@Player_-lu5kh chodzi o to, że ustawiasz docelową liczbę klatek które chcesz mieć np. 40. I minimalną rozdzielczość do której gra może zjechać np. 80%. Jeżeli gra wykryje, że masz 35fps to obniża rozdzielczość np. do 95%. Jeżeli wzrosną, ale tylko do 38fps to obniża dalej - do 90%. I tak w kółko aż osiągniesz ustawiony próg (80%) lub ustawioną liczbę klatek (40fps). Wówczas proces się zatrzymuje, a w chwili poprawy wydajności - znowu rozdzielczość rośnie, aż wróci do 100% docelowej.
To coś jak DLSS/FSR, tylko, że ze zmienną wartością - zamiast wybierać QUALITY/PERFORMANCE/ULTRA PERFORMANCE ustalasz tylko liczbę fps i minimalną rozdzielczość która nie jest pikselozą, a gra sama ustala poziom "rozmycia" żeby zachować płynność. Niestety w najnowszej wersji cyberpunka 2.0 ta opcja zdaje się w ogóle nie działać. Bazuje na FSR 1.0 i wyostrza obraz lepiej niż DLSS czy FSR 2.0 ale nie poprawia już wydajności tzn. nie obniża rozdzielczości. Jestem więc zmuszony do korzystania z dlss na ustawieniu automatycznym, ale nie mam opcji weryfikacji czy ta rozdzielczość się zmienia, bo nie da się wybrać docelowej liczby fps, więc nie wiem w jakich warunkach gra obniża jakość dlss z quality na balanced.
Mam wyświetlacz 1440p i jedyne co widzę, to kompresję YouTuba. Przykro mi Blacku, ale takie testy nie mają sensu.
Karta za 2500 zł to średnia pólka?
Bardziej wysoka
Generalnie w 90% gier ciężko dostrzec gołym okiem różnicę między ustawieniami high i ultra. Te drugie są dla entuzjastów z mocarnymi kartami, ale prawda jest taka, że High zapewnia praktycznie to samo. Z tegoż powodu to oczywiste, że 4k na High będzie lepiej wyglądało niż Ultra 1440p. Nie zgodzę się natomiast z tym, że medium 4k wygląda lepiej niż 1440p ultra. O ile sam obraz jest ostrzejszy, to już cięcia na efektach cząsteczkowych, roślinności, zasięgu widzenia, cieniowaniu i odbiciach zaczynają robić różnicę, a to są rzeczy, których wyższa rozdzielczość w żaden sposób nie rekompensuje.
rozdzielczość 4k ustawienia graficzne wysokie wymagają 8 gigabajtów pamięci videoram na karcie graficznej dlatego radeon R9 290X radeon firepro w8100 są wystarczające do rozdzielczości 4k ustawienia graficzne wysokie 60 FPS ale trzy radeony HD7970 podłączone kablem crossfire wybrał bym bo radeonów HD2900 XTX jeszcze nie naprawili
Ale po co grać w 4K skoro nie włącza się wszystkich detali to nie ma sensu.
Ja jestem graczem singlowym więc dla mnie 4k na 50 ramkach to minimum ale czasem muszę zbijać rozdzielczość na niższą kosztem ładnej otoczki graficznej do okoła mimo iż posiadam 3060TI. Bardzo fajny materiał .
To ja jednak wolę te 80fps na 1440p niż 50 na 4k
Wolę stabilne 60 fps w 4k niż 120 w 1440p :) oczywiście dwie rozdzielczości na ultra
@@robertm945 w każdej grze ustawiam na sztywno 60fps przy 4k i jest bajka
@@robertm945część wracam tu po czasie bo mam pytanie czy z DLSS też można ustawić na 60fps sztywno?
@@kamilw9839 z DLSS tak, z FG nie.
Może jakiś odcinek z komputerem typowo do esportówek?
będąc szczerym zastanawia mnie po co są detale ultra skoro by zauważyć różnice trzeba przypatrzyć bardzo blisko danych miejsc a i tak różnice są widoczne dla osób z bardziej spostrzegawczych wzrokiem ale jak sporo osób gra fabułę to trudno w ogóle zobaczyć te różnice
Po to by napędzać sprzedaż podzespołów.
Ja przy moich wadach wzroku nawet z bliska ledwo dostrzege różnice
Rozwiazanie: kupic jakies 4070S ktore spokojnie daje sobie rade w 1440p i za pomoca DLSS na poziomie Quality grac w 4K, gdzie roznicy w jaskosci wzgledem natywnego 4K nawet nie zauwazymy. Biorac pod uwage cene monitorow 4K to chyba juz nie ma co sie bawic w jakies 1440p, zwlaszcza ze karty beda coraz szybsze, a DLSS Quality na prawde daje rade. Jedyny problem to 12GB of VRAM a to bedzie malo do 4K, tak wiec niestety zostaje 4070tiS bo ma 16GB. 7800xt to tez dobry wybor, tylko trzeba miec na uwadze ze FSR generuje troche gorszy obraz niz DLSS (mniej wiecej FSR Quality rowna sie jakosci obrazu DLSS Performance). No ale 7800xt ma 16GB a 4070S ma 12GB.
ja gram na TV Samsung Quled 55" 7generacji hdmi 2.1 na RTX 3060 12gb miałem na full detalach od 60 do 80Fps zmieniłem tydzień temu na RTX 4070 12gb Gaming Asus Rog Strix Republic Of Gamers i mam na Full detalach z RT i DLSS do 170FPS nie schodzę poniżej 120FPS a jeszcze nie prubowałem podkręcać ale czuć moc tego rtx i Max temperatura to 62stopni .Pozdrawiam
Dzięki! :)
A ja mam sapphire 7900xtx nitro i wszystko śmiga w4k na ultra i jest zabawa
Ludzie piszący że łeee lepiej 1440p to ten sam typ ludzi którzy wmawiają że hd a 1440p nie jest aż tak duża różnica - jest gigantyczna xd
Nie ma jak to granie w 4 K na TV i siedzieć 2...4 metry od TV 😂😂😂
Z tą odległością od telewizora, to swego czasy był jakiś mit. Sam siedzę jakieś 3,5m od TV 65" i chętnie zmieniłbym go na 75". Dopóki nie musisz machać głową oglądając TV, to jest ok. Już dawno doszedłem do wniosku, że nie ma czegoś takiego jak za duży telewizor.
@@MarcinB01 tylko czy z 3,5 metra jesteś w stanie dostrzec różnicę pomiędzy 1080p a 4K?
@@grzes.witalis Nie są to jakieś wielkie różnice, ale zauważalne. Z resztą tu już nawet nie chodzi o gry. Przecież nawet jak oglądasz youtube, to widać różnicę. Jak zmienię TV na większy, to pewnie będzie widać jeszcze bardziej.
To moze zloty srodek - 1440p monitor na 24 calach xd
ppi jak 4k, a obciazenie 2k
no dobrze podobało się na plus :)
Daj pan spokój z tą kartą. To najgorszy możliwy wybór, zaraz po 6800XT i 6950XT i NV 4060. Dzisiaj granie bez "dopalaczy" nie ma sensu, bo staję się one równie ważne jak pozostałe parametry karty graficznej. Tylko dzięki ich użyciu doczekaliśmy tanich kart które sa w stanie generować obraz w 1440P w Path Tracingu (4070) w CP (w 60 FPS). A będzie tylko lepiej. Jeszcze pamietam, jak za czasów Amigi dyskutowaliśmy kiedy RT w czasie rzeczywistym będzie możliwy. I stało się. Rasteryzacja, ze względu na dużo trudniejszy sposób tworzenia grafiki i jej znacznie niższą jakość zostanie zapomniana w ciągu kilku najbliższych lat. Stąd w nowych kartach już nikt nie stara się o znaczne jej wzrosty. Teraz liczy się RT i AI na kartach. Jako ciekawostkę dodam jeszcze, że nowa aktualizacja sterów zrobiła UV karty do 0.9 V i w tym Path Tracingu w 1440P karta pobiera teraz 100W mocy. To naprawdę ciekawe.
Ciekawe ile zapłacili za recenzje xd. Wolę ultra detale w natywnej niż średnie lub fsr I dlss xd. Co gorsze przez takie recenzje broniące ,twórców będą zadowoleni tworzac grę bez optymalizacji do natywnej rozdzielczości i takie gry jak starfield, golem, forspoken itp.pokazuja do czego to prowadzi przez fitchery . Ale kasa na konto się liczy nie gracze .
Chyba jestem wystarczająco ślepy, bo gram na 4080 na monitorze 4K@144Hz z DLSSem+FG i jestem bardzo zadowolony. Na statycznym obrazie dopatrzysz się słabiej wyrenderowanej kratki wentylacyjnej(upośledzenie algorytmu), tak już w trakcie gry, biegania postacią w jakiejś grze AAA lepszy obraz daje mi Ultra+DLSS niż Medium/High native.
Rozdzielczość monitora mojego to 3440x1440p. Ja wolę jak najwięcej FPS'ów.
Nic nie widzę(telefon s8 z max 1080p na yt) xD
Dlatego zawsze mówię że trzeba kupować komputer dla normalnych ludzi ( i9 13900k +4090 ) i grać w 4k na ultra a nie kupować komputer dla biednych
Popieram, przecież granie w gry to coś najważniejszego w zyciu.
Jak ktoś ma wade wzroku to mu 4k czy 1080p nie robi różnicy
To fakt że sama rozdzielczość daje kopa do jakości obrazu a szczególnie jeśli przesiadamy się z full hd na 1440p albo z 1440p na 4k ma mega różnice w dokładności i szczegółowości obrazu sam pamiętam swoje wow jak na niższych ustawieniach grafika na 1440p miało skok jakości obrazu w porównaniu z full hd biorąc pod uwage samą rozdzielczość
Dalej Wiesiek daje popalic pc towi
Tytuł ,,Granie w 4K nie ma sensu,, też by pasował. Ja żadnych różnic nie widzę.
Bo kompresja filmiku na yt na żywo przed monitorem wszystko widac
ja mam monitor full hd i jak oglądam to nie widzę róznicy pomiędzy 2 k i 4k medium ? czy aby zobaczyć róznice to musze oglądnąć ten film na monitorze 4k ?
czlowieku 1440p to cudo w porownaniu do 1080p, doslownie 1080p wyglada jak pikseloza
Litosci. Full hd to do smartfona/max laptopa jrst dobre, a nie do 25-27 calowego monitora. Sam mam 1440p na 27calach i niestety pixeloza jest choc nie przeszkadza. Najgorsze są czcionki.
@@furieux6742
E tam mam 23,8" fhd 75hz i jest to idealny kompromis pomiędzy wielkością/jakością obrazu/obciążeniem karty graficznej, dla budżetowych sprzętów większości ludzkości, dzisiaj na steam w czołówce karty typu gtx1650/gtx1060/1050 ti i oczywiście fhd 61%.
@@doktorek8519
Miałem 31,5" 1440p i jednak wróciłem do 23,8" fhd, ppi praktycznie takie same :)
@@Gienek_CPU owszem, ale to dramat.. porzadną uzywke mozna złozyc do 3000 ktora spokojnie w 1440p sobie radzi. Sam kupiłem na wyrost kompa troche nowe/uzywane/powystawowe lub bez gwarancji za 3400 za 3070tke 12600k zasilacz seasonic. Porzadna obudowa modecom volcano, plyta asus h670, chlodzenie fortis 5 argb, ram 2x8 3600mhz rgb. Niestety wiekszosc kompow ludzie składają jakies szroty. Lepiej samemu złożyć i wiedziec co sie złożyło :)
Jeżeli da radę ustawić płynną rozgrywkę w 4K to gram w tej rozdzielczość, ustawienia poniżej gram 1440P. Dzięki za fajne porównanie.
Jak macie monitor 4k pod ręką to można się bawić, jak musicie kupić monitor pod kompa, albo potrzebujecie obydwu to nie polecam, bo na kompie z taką kartą ( cena około 6500-7000 zł) granie w 4k jest co najwyżej na teraz i to tak ledwo ledwo, zakładam że już w takim np. GTA 6, które wyjdzie 2024 będziecie musieli zejść do rozdziałki full HD, a przeskalowana w dół rozdziałka full HD na 32 calowym lub większym monitorze 4k nie wygląda dobrze, nawet na 27-28 calowym nie wygląda już zbyt dobrze :D. Do grania w 4k raczej trzeba przejść półkę lub dwie wyżej jeżeli chodzi o kartę graficzną, ale wtedy już wydajemy takie pieniądze, że cały na biało wchodzi OLED, gdzie monitor 2k oled ma lepszy obraz w grach niż 4k zwykły, ogólnie dużo potencjalnych wyborów :P
Monitor 4K to nie tylko gry - nie, że coś. Jeśli dla kogoś wybór monitora ma służyć zarówno do gier, multimediów i ogólnego korzystania z komputera to ostrość czcionek, interfejsu i pochodnych jest nieporównywalnie lepsza na 27-28"@4K względem 1440p. To warto dodać i dla mnie to była zdecydowana karta przetargowa.
Obraz może będzie ładniejszy jako całokształt na 4K na średnich niż 1440 na Ultra / ale wszelakie cieniowanie i różne tego typu odbicia i efekty Bloom itp itd Będą jednak zawsze na średnich /czyli Będą gorsze😂 Według statystyk większość i tak siedzi na 1080p później 1440 a 4K to niestety na razie to jest nisza bo karty są za drogie niestety... Więc po co mordować tą kartę skoro... Po pierwsze jest ona dedykowana do 1440 a po drugie po co zjeżdżać z detali a po trzecie wiesz o tym że recenzenci gier pierdolą jak to się mówią/ mają w dupie grafikę / ważna jest fabuła hi hi... ... Asami siedzą na RTX 4090 😅co cdla mnie też jest zupełnym bezsensowne. ja chcę pograć i komfortowo i ładnie z fajną fabułą A wybieranie czy to jest lepsze czy to to naprawdę mija się z celem... Ale szczerze powiem że materiał mi się podobał rzetelny jak zawsze u ciebie i Niekiedy warto dowiedzieć się czegoś nowego👍
Panie ja na RX580 gram w 4k.
Znaczy co to za życie, ale się da na upartego..
Starfielda musiałem tak pociąć,,, nie miałem szczęści grać w OldBliviona le teraz tego doświadczam..
I to nawet nie dlatego że gra nie działa, a dlatego że kod tej gry to śmietnik...
Jedyne co działa w tej grze to Havok, jedyna rzecz nie robiona prze g studia i betheste które to kleciły..
musiałem wywalić cienie i Habao żeby odmulić silnik, bo to co wysyła gra do silnika to jakiś bełkot pepeW
3080ti, z kreconym 8700k, takze 4k z dlss jak najbardziej i podbijam suwaczki jak najdalej w prawo, byleby utrzymac staline 60 fps
Testy na i5? Ale dlaczego? Ale po co? Ale jak? To tak się da? Tak wolno? To nie jest zakazane?
xd
Generalnie komfortowe granie nawet jeśli trzeba zejść z ustawień 😉co do rozdzielczości to 1440p
Bez ładu i składu
@@pennyyy311-su9sc a w czym problem bo nie rozumiem
Kiedyś grałem na 1080p to GTA V na ultra wyglądało gorzej, o wiele gorzej, niż jak przez HDMI podłączyłem kompa pod duży TV i zjechałem z detalami (gra z padem). Teraz z lepszym kompem na 1440p RDR2 ultra wygląda świetnie, a na TV to już w ogóle realizm prawie.
Dzięki.
"Gównażeria" nie naciagnie na drogie podzespoły kompa i monitor.
;)
Zdrowia i powodzenia...
Pozdro.
Przemo (1979)
4k is dumb, wystarczy pokazać co linus mówił, a nie tesować z lupą na 27" wyświetlaczu
w last of us średnio rozwinięta małpa może grać taka jest nudna i linniowa :p
kupuje stary komputer i monitor samsung 226BW bo wracam do rozdzielczości 1680x1050 16na10 procesor i7 980X płyta główna evga x58 3x sli classified pamięć ddr3 geil evo one 24 gigabajty karta graficzna nvidia quadro 6000 fermi100 podłączona kablem sli do dwóch nvidia quadro fx 5600 G80 sli karta dźwiękowa audio asus xonar D2 pci trzy dyski hdd hitachi ultrastar 7k2000 raid dwie nagrywarki dvd rw lightscribe czytnik kart sd chłodzenie procesora scythe ninja3 rewizja-B zasilacz corsair rmx850 głośniki microlab B77 windows vista ultimate 64 bitowy
Zgadzam się z tematem odcinka, choć u mnie to różnica miedzy FHD na max i 1440p z ograniczeniami (RTX 2060 6GB) do tego 32` +144Hz(oczywiście e-sporcie ).
Czyli jednak warto zainwestować chociażby w 4k monitor IPS nie wspominając o oledzie
Spoko testy wydajnościowe
Super poradnik
dwie geny i trzeba bedzie w 4k grac
3440x1440 na RX 6950xt
Jak w cyberpunku wlaczyc TAA
Jest włączone na stałe, chyba że włączysz DLSS/FSR/XeSS, wtedy ta technika zastępuje TAA.
1440p bez FSR to mydło. Ja gram tylko z FSR / CAS. Ale dużo myślę o przejściu na 4K ale ultra wide bym chciał
Zjadłeś jakieś trujące grzyby czy co? FSR renderuje grę w niższej rozdzielczości i ją upscaluje do 1440p. To NIGDY nie będzie lepszy obraz niż natywne 1440p.
@@stark_2991 Aha, moje oczy muszą kłamać. Dzięki.
@@kondziowy No niestety. FSR daje obraz gorszy niż natywny i to wie każdy, kto miał z nim do czynienia, mówi też o tym każdy test i porównanie w sieci. Być może kiedy włączysz CAS i obraz zostanie sztucznie wyostrzony, to Ci się wydaje ładniejszy. Nie wnikam.
@@stark_2991 ruclips.net/video/DrM45dcUNnY/видео.html
11:58. Wygląda na to że nie tylko moje oczy kłamią.