Słuchajcie, ważny komunikat! Niestety zbieg niefortunnych okoliczności spowodował, że ten film nie wygląda tak, jak wyglądać miał. Jakość jest znacznie poniżej tego, czego od siebie oczekuję, ale w związku ze zobowiązaniami, nie mogłem nagrać go ponownie i musiał on niestety wyjść w takiej formie, w jakiej go widzicie. Czynników było wiele, ale winą za taki rozwój sytuacji obarczam siebie, gdyż zostawiłem sobie za mało czasu na realizację filmu, który musi wyjść w określonym terminie. Przepraszam Was za tę gorszą jakość niż zwykle. Na pocieszenie, jutro będzie film w takim standardzie, do jakiego Was przyzwyczaiłem. Dzięki, że wpadliście i spokojnych Świąt! Zachęcam jeszcze do subskrypcji ➡ bit.ly/3lK7CYu I kliknięcia dzwoneczka 🔔 aby być na bieżąco z filmami. A tutaj promka partnera odcinka i karta, której użyliśmy do testów: Promocja ASUS ➡ pl.asus.click/Radeon_Promo Asus TUF Gaming Radeon RX 7600 XT OC ➡ pl.asus.click/Radeon_TekTesters
Ja od siebie rzucę tak pół serio, pół nie. 1440p to rozdziałka na low end gdzie odpalisz cyberpunk2077 w 720p(bo niżej się nie da niż 720p), przy opcji "Integer scalling", czyli x2, choć sam przechodziłem w 1520x855 z FSRQuality w 55-70 fps, jednak chyba wolałbym, w natywnym 720p a monitorek 1080p@165hz już jest. Monitor 4k jest najlepszym monitorem gamingowym: no jest 720P x3 gdy karta nam się już strarzeje, jest full hd by odpalać giereczki w 90-165fps, jest 4K by odpalać starocie lub indie. Jedyne co to nie skaluje się 640x480 podpinając monitor pod komputer z kartą voodoo, ale to może przy okazji monitorów 8k ;D
PCta mam od 1999 roku. W tym czasie najważniejszym upgradem dla mnie była przesiadka z HDD na SSD. Obecnie uważam że nastepnym kamieniem milowym sa monitory OLED
Pc mam rok krócej. Przesiadka z jedno-rdzeniowca x32 na core2duo/athlona64 x2 też dawała niezłego kopa. W warstwie oprogramowania pozytywnie również odebrałem przesiadkę z w95/98 na linię nt (2000/xp). Co do oledów, poczekamy jak stanieją, przestaną się wypalać. Producenci jeszcze przy tym grzebią :) Dyski ssd o pojemności poniżej 120gb padały swego czasu jak muchy. I o ile to nie magazyn na dane to można brać :)
@@marcinguzy Każda technologia ma wady wieku dziecięcego. Rzeczywiście w kwestii software, to prawda. Pamiętam jak wskoczyłem na 2000 a następnie XP to była zmiana. Co do procesorów to nie podzielam zdania. Na początku nikt nie potrafił wykorzystać ani 2 rdzeni, ani x64 - przynajmniej w grach :D. Zdaje sobie sprawę z wszystkich wad OLEDów, ale jak to mawiają, trumna nie ma kieszeni. Mam troszke grosika co mogłem przeznaczyć na OLED i padło na LG 27GS95QE-B. Monit ma wady, ale na serio jest wart każdej wydanej złotówki....
no ja niestety zostanę jeszcze długo w 1080p, mniejsze wymagania sprzętowe sprawiają że rzadziej muszę wymieniać części, jak się przestawię to raczej na 4k, a to jeszcze potrwa
@@stark_2991 Ale jednak zauważ że badając i porównując modele procesorów np jakiegoś "średniaka" inne jest jego obciążenie w grach w FHD a inne w UHD,. Oczywiście w zależności od danej karty bo z flagowcem nasz "średniak" w FHD będzie "piłowany" na 100%, a wyższej rozdzielczości już nie, bo będzie liczyć się wydajność danej karty graficznej.
@@コワルスキークリストファー To wynika z tego, że liczba klatek też jest inna. Ustaw stałą liczbę klatek i obciążenie procesora niezależnie od rozdzielczości pozostanie na praktycznie takim samym poziomie.
W sterowniku można włączyć licznik klatek i ten wyświetla poprawną podwojoną liczbę klatek. Sprawdzone na RX 6700XT. Temat był szeroko omawiany na kanale Ancient Gameplays.
Nie wyobrażam sobie powrotu do 1080p. Nawet jak karta nie daje rady natywnie w 1440p to "teguje" sobie dlss w trybie jakość gdzie nie widzę absolutnie żadnej różnicy. Dlss i frame gen to fantastyczne opcje, ale szkoda, że są traktowane jako tania optymalizacja niż faktycznie pomoc do pchnięcia grafiki dalej.
Nie mam zamiaru zmieniać karty ani monitora, więc zostaje fhd 24" 75hz ips które w zupełności wystarcza, karta to gtx 1660 super więc w sam raz do takiego monitora i liczby hz :D
@@TekTesters21:9 jako pulpit roboczy super. 35" i to trochę za duży monitor do pracy z tekstem zagęszczenie punktów na cal w granicach 100 to już dolna granica komfortu, w grach elegancko choć fakt rozdzielczość pożera FPSy. Generalnie to rozdzielczość raczej pod generację 40** a w zasadzie 50** u Nvidi. Mimo to polecam bo 4k to za dużo dla obecnych kart średniego i średniego niższego segmentu.
Fajny materiał Kamil jak zwykle, pozdrowionka! Ja siedzę na FHD 144 hz wraz z r7 7800x3d i rtx 4070s i tak sobie rozkminiam czy chcę przechodzić na 1440p. Moje oko przykuwa dużą uwagę do płynniejszej rozrywki w wysokim klatkarzu, więc ciężko jest mi zdecydować się czy warto przechodzić na ciut wyższą rozdzielczość kosztem niższej płynności
U mnie za 5 miesięcy wejdzie 7 rok z 2560 x1440 i 144 Hz na IPS. Zmieniłem na wyższą rozdzielczość, ze względu by nie zmieniać platformy LGA 1150 (Core 4 gen. z czasem z i5 do i7 4770K). Z Vegą 64 LC, monitor jest z Adaptive Sync, a że w 2017 r karty nVidia nie obsługiwały tej funkcji i dlatego wybrałem najmocniejszą kartę od AMD. Gry do 2020 r. działały całkiem, ale w nowszych zmiana ponad rok temu na Zen 5 z wspominaną kartą zyskałem sporo, bo w końcu 4 rdzenie obecnie to mało w porównaniu do sześciu. Na 6 lecie zmiany monitora w ubiegłym roku zmieniłem i kartę graficzną, bo Vega 64 LC (odpowiednik RX 6600 /RTX 2060 S) obecnie nadaje się do 1920 x 1080 na ustawieniach średniowysokich. Co do przyszłości w 4 k raczej nie będę wchodził, ze względu na wymagania od karty graficznej w takiej rozdzielczości.
Już dawno przesiadłem na 1440p jest mega różnica kupiłem sobie samsung odyssey g5 32" 144hz i jestem bardzo zadowolony syn też ma taki a młodszy syn ma Monitor HP 27xq 27" 144Hz i powiem że to super monitor i ma super regulacje
Ja posiadam aktualnie monitor AOC 24V2Q z Full HD i 75 Hz. Jak zacząłem testować monitory z wyższym odświeżaniem na moim kanale to dopiero złapałem się za głowę i nie mogłem uwierzyć dlaczego wcześniej nie kupiłem lepszego monitora - po prostu głupi byłem, jednak parę lat temu były droższe. Teraz się zastanawiam między AOC 24G4X Full HD z 180Hz a Q27G4X z QHD 180 Hz. Jeden testowałem monitor u siebie i spodobał mi się. Mam dylemat który wybrać. Z jednej strony wybrałbym 24 cale bo w zupełności wystarczy i jest idealny do mojego małego biurka a to tego posiadam RTX 3060 Ti oraz Ryzen 7 5700X. Z drugiej strony gdybym brał 27 cali to już bym miał na przyszłość monitor i bym nie musiał zmieniać tak szybko, jednak ilość klatek miałbym mniej w grach. Zobaczę jak dostanę ten drugi na testy to sobie porównam i wtedy zdecyduję, który mam wziąć. Pozdrawiam 🙂
Pozdro dla Stilgara i dla Ciebie! ;) Właśnie zbieram kasę w celu przesiadki na 1440p :) Stilgar jakiś czas temu zawrócił mi w głowie monitorem IIYAMA GCB3480WQSU-B1 34" 21:9 :D Liczę, że moja 3070 Ti podoła:D
raportuje się za pomocą nakładki wydajności radeon "ctrl shift o" w sterowniku w zakładce wydajność/wskaźniki->śledzenie ustawiasz co ma raportować i jak
Jak ktoś całe życie kupuje karty ze średniego segmentu to nie ma sensu zmieniać rozdzielczości monitora. Ładnie zostało to pokazane. Było ponad 60fps w 1080p a w 1440p ledwo 40 fps i zamiast karty za 1600 - 1700 zł trzeba kupić taką za 2000 - 2300 zł.
Dochodzi jeszcze obsluga gsync/adaptive sync gdzie zakres zaczyna sie najczesciej od 48 fps zeby to dzialalo....A i jeszcze jest kwestia ze AOC ma w ofercie monitor 24 cale 1440p. Mysle ze to spoko opcja bo w razie czego mozna przeskoczyc na 1080p i miec standardowe 24 1080p
Ja siedzę na 2 monitorach 1440p w proporcjach 16:9 i 21:9 ale posiadam jedynie kartę gtx 1660S. Jeśli gra daje mi chociaż te 40 klatek to gram w takiej rozdzielczości, jeśli nie to zmuszony jestem grać w FHD, bądź korzystam z GFN w wersji founders, gdzie też jest FHD, ale przynajmniej mogę ustawić lepszą jakość grafiki.
Zdaje mi się, że coś innego blokuje ci te klatki, bo ja mam starszą kartę (RedDevil RX 6700XT) i na fsr 2.1 Jakość i wszystko na max, mam stałe 60fps, nigdy nie spada poniżej, ale myślę że normalnie mam sporo ponad te 60fps, tylko mam włączone vsync na 60fps. Oczywiście na 1440p. Chyba że ten twój Radeon taki lichy.
Ja się przesiadłem z 1920x1080p na 2560x1080p. Dla mnie fullhd na monitorze jest wystarczające, a zawsze mam dodatkowe FPS na zwiększenie detali w grach.
Na moim LG 27gp850 bardzo dobrze skaluje się rozdzielczość HD. Do tego stopnia, że wygląda lepiej niż na monitorze HD. Dobra furtka tam gdzie brakuje wydajności, choć ze względu na duży rozmiar matrycy preferuję grę w trybie okienkowym 2050x1300 co pochłania tylko 10% więcej mocy niż HD. Na szczęście dzisiejsze monitory mają już dość dobry czas reakcji matrycy więc można myśleć o wymianie monitora, ale bez tego argumentu przesiadka na wyższą rozdzielczość była by nieopłacalna.
Większa rozdzielczość, więcej prądu, droższy sprzęt, więcej kasy. Ludzie nie wiedzą co kupić puki im tego nie pokażesz. A ludzkie oko jest dalej takie samo
Ponieważ gram tylko w WoTa najpierw zmieniłem kartę z dwóch GTX 460 w SLi na GTX 1050Ti potem przesiadłem się z 27''LG na 32"AOC i gram w 1440p teraz mam GTX 1650(miałem 1660Ti ale zabiłem ją przypadkiem podczas wymiany platformy)....klatki zablokowane na 75fps i naprawdę rzadko spadają poniżej tej wartości...procek Ryzen 7 5700X i ram 32GB 3600.
Będę w mniejszości, ale mi wystarcza FHD, nie lubię wysilać podzespołów. Nawet kilka miesięcy temu kupiłem Gigabyte G27F 2, ale niestety wyskoczyły jakieś kreski i będę musiał zareklamować.
No właśnie w połowie się zczaiłem, że coś tu nie tak. Nie wiem o jakiej jakości tutaj mowa, której rzekomo brakuje, ale ja zwróciłem uwagę na to, że film jest głównie na temat systemów AMD, jak podbić wydajność i ilość FPS. Dziwny tytuł filmu... Mam wrażenie, że trochę na siłę podciągnięcie tematu z oczywistą odpowiedzią pod tematykę AMD i tych dobroci, które oferuje w celu podbicia wydajności w grach ;)
Ponieważ jest sponsorowany przez AMD - zauważ, że nawet nie wypowiedział słowa NVIDIA tylko z delikatnym zastanowieniem "konkurencja od zielonych" :) Lubię oglądać filmy na temat testów i wydajności nowych technologii, ale zawsze trzeba mieć z tyłu głowy czy to jest w 100% niezależna opinia. Do Kamila i kolegów z innych kanałów nic nie mam, robią świetną robotę pokazując rzetelne testy i o to chodzi, ale zarabiać też muszą na swoje rodziny i głupio byłoby odmówić, a wnioski jaki sprzęt wybrać trzeba samemu wyciągnąć :) Niestety w tej branży nawięcej zarabia się przez dobry marketing, bo komputer ma każdy, ale niewiele osób potrafi go wybrać dla siebie w dobrym stosunku cena-wydajność pod konkretne przeznaczenie.
Jak dla mnie 1080p może wyglądać jedynie dobrze na laptopie. Przesiadłem się z 17 calowego laptopa na PC z 24 calowym monitorem 1440p i już na takim ekranie 1080p wygląda jak rzygi z mydlinami 😅 nie mówię już o wyższych przekątnych bo granie w 1080p na większym ekranie to już czysty masochizm
Krótko i na temat, nie , nie warto, bo "dzięki" tej wyższej rozdzielczości komputer, podzespoły dużo szybciej się starzeją i trzeba szybciej wydać pieniądze na nowe podzespoły i dlatego FHD, dla mnie, jest lepszym wyborem.
Nie, najrzadziej wymienianym elementem jest obudowa. Ponadto, w dobie transformacji rozdzielczości i, podkreślam I proporcji ekranów, istotnym jest podawanie też tej proporcji. Bo dziś 1440p oznacza jeden z trzech przypadków. Wielu użytkowników ma więcej niż jeden ekran. Ja mam dwa, oba 1440p ale różne proporcje, zatem też różne wymagania co do wydajności przy podobnym klatkarzu.
34" 3440x1440 zasilane RTX-em 3070, R5 5600X i 32 GB RAM. Przy tej rozdzielczości karta już ma co robić, a do najnowszych gier z ray tracingiem przydałaby się mocniejsza. Mimo wszystko można ciąć w Cybera przy 60 fps na bardzo przyzwoitych ustawieniach.
Posiadam RX 6700XT, kartę na której spokojnie mogę zagrać w 1440p, ale niestety z racji małej przestrzeni roboczej jestem zmuszony grać na 24" monitorze FullHD 75Hz. Ta rozdzielczość jest dla mnie w pełni wystarczająca i póki co nie mam zamiaru przechodzić na wyższą.
Pierwszy monitor z 1440p 27" kupiłem w 2016 roku jak tylko zaczęły się pojawiać w rozsądnych pieniądzach. Od tamtego czasu często z bólem serca pracuje mi się na fhd jeśli sytuacja tego wymaga.
ja mam 4090 i 1440p , 240Hz daje ładny obraz w ruchu a 4K 60fps to se można w tyłek wsadzić przereklamowane, ładne tylko na statycznych screenach a w ruchu totalna porażka
W tym roku przesiadłem się z monitora 768p TN na 1080 IPS 165 Hz. Różnica jest kolosalna. Nie sądziłem, że tyle tracę nawet jako niedzielny gracz. Siedzę 6-8h w tygodniu i za każdym razem jesten zajarany graniem.
Zaczynałem od (1996) 15` CRT wyciągał w 1024×768 100Hz, potem 19` TNT 75Hz w 1440×900, a następnie FHD w 27`TNT to był miód malina i to samo mam teraz na 32` 1440pVA zakrzywiony (oba monitory 144Hz). Dla mnie ważna jest wielkość "punktu" i oba ostatnie spełniają moje wymagania, większa rozdzielczość na mniejszej matrycy dla mnie jest nie wygodna(nieczytelna, za drobna). Co do sprzętu wychodzę z założenia, że należy wybrać największy monitor na jaki się ma miejsce i ewentualnie z chodzić z ustawieniami graficznymi danych gier. Porównanie gry na 27`(na max detalach) z grą na 32`z (na średnich ustawieniach) ma się nijak. Wielkość obrazu i przestrzeń robocza zwala z nóg, dlatego monitor kupuję raz, a dobrze, reszta i tak będzie kilka razy wymieniana. Co do odświeżania, to jest to odczucie osobiste, ja czuję dyskomfort gdy pracuję przy 60Hz 😒, za minimum dla mnie to 75Hz, a przy 100Hz moje oko odpoczywa😊. Oczywiście w grach to już inna sprawa ale to już było dużo razy poruszane. Pozdrowienia dla Stilgara robi bardzo dobrą robotę.
Bardzo dobry materiał. Dzięki. Siedzę na Full HD. Przesiadka na 2K wkrótce. Ale najpierw wymiana GPU. Pozdrowienia dla Stilgara, nie crobi matriał o monitorach 27'' :)
Dla mnie problemem nie jest wydajność, tylko pamięć vRAM. RTX 3080 10GB zupełnie nie radzi sobie na monitorze 3440x1440. A ja głupi dałem za nią półtorej roku temu 4500zł
Ja ostatnio wymieniłem na 27" 1440p 240hz. Przesiadka z esportowego Benq z matrycą TN i powiem że robi robotę, zarówno w esportowych gierkach jak i tych Triple A
@@tigerLDZja posiadam ten monitor tylko w wersji 32" od prawie roku. Jestem bardzo zadowolony i polecam w 100%. Jedyne do czego moge sie przyczepic to system ktory lubi sie czasem ladnie pobugowac lub zaczac lagowac.
Czyli kupuję monitor 2k, zjeżdżam wszystkimi suwakami od "wspomagaczy", żeby było płynnie i w efekcie uzyskuję gorszą jakość obrazu niż na monitorze 1080p - mistrzostwo ;) 2k i 4k zarezerwowane są dla ludzi grających wyłącznie niekompetytywnie (jakkolwiek) i zaspokajają się w porywach 60 klatkami, a 1080p wiecznie żywe jest dla ludzi, którzy grają w tytuły NIEsingleplayer. Poza tym 24" to dla 95% użytkowników max jeśli chodzi o komfortowe granie z "normalnej" odległości, więc era 2k i więcej dopiero nadejdzie. Pozdrawiam, pisząc i patrząc na mój najswspanialszy XL2546K.
@@CloperflakeGram w 1440p od kilku lat i nie mam żadnego problemu z uzyskaniem 120fps. Wszystko się rozbija o to w co grasz i na jakich ustawieniach. Jeśli jesteś niewolnikiem ustawień Ultra, to trzeba brać mocne GPU i tyle. Jeśli jesteś użytkownikiem, który potrafi myśleć, to ustawisz sobie grafikę na wysoką bez widocznej utraty jakości obrazu i dostaniesz +20-30% fps w większości przypadków.
ja myślę że wystarczyło podać równanie że 1440p jest o ileś procent bardziej gęste niż 1080p i karta graficzna też musi być o ileś procent mocniejsza i materiał można było zrobić w 5 minut
Bzdurki piszesz, PPI jest zależne od rozmiaru ekranu również a nie tylko rozdzielczości, można mieć takie samo PPI w monitorze 32 cale 1440p jak i 24 cale 1080p i to jest mega komfortowa kombinacja jak dla mnie, co do wydajności to tak, ale to też zależy. Taka porcja wiedzy może być jadnak dla kogoś wartościowa.
@@gracjans815 Problem w tym, że nie istnieje. W niektórych grach spadek liczby klatek (na tych samych ustawieniach i na tym samym GPU) w 1440p wzgledem 1080p wynosi 20%, a w innych 40 czy 50%.
Co do rozdzielczości w jakiej siedzę to jest to fullHD i nie zmienię jej zapewne nigdy, bo nie zmienię monitora na większy, a to z powodu powikłań po jaskrze, przez co mam mocno zawężone pole widzenia i co mi z większej powierzchni roboczej, jak widzieć będę tylko powiedzmy środek ekranu (no chyba, ze są monitory 21,5 cala 1440p to ja poproszę dwa na wynos). Co do zmian w wielkości to tak - popełniłem keidyś taki błąd, ale jeszcze w dawnych czasach, mianowicie przesiadając się z monitora 640x480 od razu na 1024x768, bo i specyfikacja komputera dawała radę max z 800x600, co nie do końca idealnie się skalowało. Ale i tak zmiana w jakości obrazu była odczuwalna, bo po pierwsze byłą to przesiadka z CRT na LCD i biurko było mi wdzięczne, bo mu odpadło z 8 kilo obciążenia jakoś, a i miejsca zrobiło się więcej, do tego przekątna z 15 cali podskoczyła do 17, no i nowy monitor obsługiwał 75 Hz zamiast 60 na starym. Niemniej pełnię jego możliwości zobaczyłem dopiero ze 2 lata później, gdy już natywnie grywałem w 1024x786 majac inną jednostkę.
Hardware w mojej ocenie nie jest gotowy na 4k. Również siedzę na 1440p i dla tej rozdzielczości optymalna wydaje się moja GPU tj. 7900xtx. Dopiero na tego rodzaju sprzęcie jestem w stanie dobić fps do możliwości monitora (165hz), a i to w niektórych tytułach okupione jest niska kultura pracy GPU. Na tej właśnie podstawie twierdzę, że na najnowsze tytuły w 4k, hardware nie jest gotowy. Cieszę się że przy zakupie monitora wybrałem 1440p, zamiast wyższej rozdzielczości, bo bym się zwyczajnie męczył i wkurzał, że mam zbyt słaby sprzęt. Mimo że jest to najlepszy sprzęt jaki obecnie mogę kupić od AMD. Z tego powodu wkurza mnie marketing producentów kart, te 60fps w dzisiejszych czasach to naprawdę jest bieda, a nie osiągnięcie ;(
to że 60hz to kaszana to wina technologi LCD/OLED itd 60Hz na CRT to zupełnie dwa różne światy zero laga, obraz w ruchu jak żyleta nawet wywijając myszką po całym blacie.
O czym ty chłopie mówisz jakby w 3 minucie od razu stawiasz tezę xD Przesiadka z 24 cali full hd na 27 cali 1440p to na prawdę duża zmiana w grach zwłaszcza w teksturach lepszej jakości i obraz jest znacznie ostrzejszy.
"Naprawdę duża zmiana"?? chyba na wypasionych kartach :) Na większości kart, do płynnej rozgrywki będzie potrzebny upscaling, a to już pogorszy obraz. Może się więc nagle okazać, że obraz na monitorze 1440p, będzie bardzo podobny do tego z 1080p :)
Świetny i bardzo ciekawy film, aż zasubskrybowałem twój kanał👍Planuję kupić monitor 1440p 27 cali, aktualnie używam samsunga 24 cale 1080p. 27 cali 1440p to dla mnie takie optimum jeśli chodzi o monitory, większego nie potrzebuję. Pozdrawiam Stilgara!
@@gureedoteam5632 co Ty gadasz różnica między 1440 a 1080p jest ogromna ;) dla mnie 1080p już nawet na 24 calowym ekranie jest niegrywalne bo mogę liczyć piksele na placach jednej ręki 😅
Tak na prawdę, to jak się ma porządny monitor pod 1080p, to nie ma żadnej potrzeby przesiadać się na 1440p. Dziwne też wydaje mi się, kupowanie nowego monitora 1440p, tylko po to, żeby używać upscalingu w grach, zamiast natywnej rozdzielczości. To prowadzi do pogorszenia obrazu, zamiast do jego poprawienia. W efekcie, dostajemy taki sam obraz, jak na dobrym monitorze 1080p, tylko teraz nasz nowy monitor jest znacznie droższy... normalnie deal życia :)
Nawet upscalowane 1440p wygląda znacznie lepiej niż 1080p. Zwłaszcza w nowych grach, gdzie często domyślną metodą AA jest TAA i nie da się tego wyłączyć, wtedy DLSS wręcz poprawia jakość obrazu względem rozdzielczości natywnej z TAA.
@@stark_2991 Wciąż, różnica w obrazie, nie jest zbyt duża, zwłaszcza jeśli masz monitor 1080p z wyższej półki. Oczywiście przesiadka ma sens, jeśli masz wypasioną kartę graficzną, ale jak masz coś pokroju RX 6600/RTX 2060/RTX 3060 to taka przesiadka nie ma sensu. Poza tym, dochodzi koszt samego monitora, porządny monitor pod 1440p tani nie jest, tak na oko, 2x droższy od 1080p (zwłaszcza jak chcesz z wysokim odświeżaniem), pytanie więc, czy za 2x wyższą cenę, dostajesz 2x lepszy obraz?? Oczywiście, że nie, więc po co przepłacać :) No chyba że masz kupe kasy do wydania, to się baw, nikt ci nie broni :D
Słuchajcie, ważny komunikat!
Niestety zbieg niefortunnych okoliczności spowodował, że ten film nie wygląda tak, jak wyglądać miał.
Jakość jest znacznie poniżej tego, czego od siebie oczekuję, ale w związku ze zobowiązaniami, nie mogłem nagrać go ponownie i musiał on niestety wyjść w takiej formie, w jakiej go widzicie.
Czynników było wiele, ale winą za taki rozwój sytuacji obarczam siebie, gdyż zostawiłem sobie za mało czasu na realizację filmu, który musi wyjść w określonym terminie.
Przepraszam Was za tę gorszą jakość niż zwykle. Na pocieszenie, jutro będzie film w takim standardzie, do jakiego Was przyzwyczaiłem.
Dzięki, że wpadliście i spokojnych Świąt!
Zachęcam jeszcze do subskrypcji ➡ bit.ly/3lK7CYu
I kliknięcia dzwoneczka 🔔 aby być na bieżąco z filmami.
A tutaj promka partnera odcinka i karta, której użyliśmy do testów:
Promocja ASUS ➡ pl.asus.click/Radeon_Promo
Asus TUF Gaming Radeon RX 7600 XT OC ➡ pl.asus.click/Radeon_TekTesters
Ziom - jest GIT! Jakość 4K i widać padający deszcz w CP i drobinki kurzu na podstawie monitora :D
Ale ze chodzi ci o to że musiałeś obniżyć jakoś puszczając w materiale te parę sekund z Forespoken? Jakoś dałem radę ^^ Dzięki za ciekawa analize^^
Jakbyś nic nie napisał to bym nawet nie zauważył.
Ja od siebie rzucę tak pół serio, pół nie.
1440p to rozdziałka na low end gdzie odpalisz cyberpunk2077 w 720p(bo niżej się nie da niż 720p), przy opcji "Integer scalling", czyli x2, choć sam przechodziłem w 1520x855 z FSRQuality w 55-70 fps, jednak chyba wolałbym, w natywnym 720p a monitorek 1080p@165hz już jest.
Monitor 4k jest najlepszym monitorem gamingowym: no jest 720P x3 gdy karta nam się już strarzeje, jest full hd by odpalać giereczki w 90-165fps, jest 4K by odpalać starocie lub indie.
Jedyne co to nie skaluje się 640x480 podpinając monitor pod komputer z kartą voodoo, ale to może przy okazji monitorów 8k ;D
Szczerze nie zwróciłem na to nawet uwagi bo merytorycznie usłyszałem to co chciałem, każdemu się może zdarzyć.
Ten 1 ziomek co kupił monitor 2k żeby mu sie lepiej z 720p skalowało
😆😆😆
Ja z rtx 3090 oraz monitor lg24gm77 tn
To jest dobry trop. Miałem wątpliwości przy kupowaniu, a tak to i na starość da radę
A no tak 720p razy dwa to 1440p
Ja bym tak zrobił
PCta mam od 1999 roku. W tym czasie najważniejszym upgradem dla mnie była przesiadka z HDD na SSD. Obecnie uważam że nastepnym kamieniem milowym sa monitory OLED
w pełni się z tobą zgodzę, monitory/tv oled to rewolucja, dziś robią tak dobre wrażenie jak plazmy w 2010-14, wspaniała jakość w każdym aspekcie
Pc mam rok krócej. Przesiadka z jedno-rdzeniowca x32 na core2duo/athlona64 x2 też dawała niezłego kopa. W warstwie oprogramowania pozytywnie również odebrałem przesiadkę z w95/98 na linię nt (2000/xp). Co do oledów, poczekamy jak stanieją, przestaną się wypalać. Producenci jeszcze przy tym grzebią :) Dyski ssd o pojemności poniżej 120gb padały swego czasu jak muchy. I o ile to nie magazyn na dane to można brać :)
@@marcinguzy Każda technologia ma wady wieku dziecięcego. Rzeczywiście w kwestii software, to prawda. Pamiętam jak wskoczyłem na 2000 a następnie XP to była zmiana. Co do procesorów to nie podzielam zdania. Na początku nikt nie potrafił wykorzystać ani 2 rdzeni, ani x64 - przynajmniej w grach :D. Zdaje sobie sprawę z wszystkich wad OLEDów, ale jak to mawiają, trumna nie ma kieszeni. Mam troszke grosika co mogłem przeznaczyć na OLED i padło na LG 27GS95QE-B. Monit ma wady, ale na serio jest wart każdej wydanej złotówki....
UWQHD 120Hz od lat, ciężko przesiąść się na inne proporcje i rozdzielczość.
Kto choć przez chwilę używał panoramy, już nie wróci do klasycznych proporcji.
no ja niestety zostanę jeszcze długo w 1080p, mniejsze wymagania sprzętowe sprawiają że rzadziej muszę wymieniać części, jak się przestawię to raczej na 4k, a to jeszcze potrwa
No z 15 lat :P
2k to jest sweet spot
W tych czasach to kazdy średniej jakość sprzęt uciagnie ci 1440p
@@krzys0302 Mój rx 6600 z wielkim trudem..
@@natenexx9974 Średni nie budżetowy ...
Generator klatek nie poprawia wydajności, tylko poprawia uczucie płynności. ;)
Za to kosztem ghostingu i responsywnosci
Moim najgorszym wyborem była przesiadka z FULL HD 60Hz na 4K 60Hz
nie ma sensu, nie ma o czym gadać!
typowe naganianie ze strony handlarzy
Pytanie nie powinno być "czy warto" tylko czy się stać.
Za te pieniądze możesz zainwestować w lepszy sprzęt, więc pytanie jest słuszne.
Nie warto. Siedzimy na 1080p i pc starczy na dluzej.
A najlepiej grać w 480p. Starczy na jeszcze dluzej.
szacun ;-)
Tylko schodząc z rozdzielczością dociskasz bardziej wymagania co do procesora.
Na Tech Power Up robią testy CPU też w HD (720 p).
@@コワルスキークリストファーObciążenie procesora nie rośnie z powodu niższej rozdzielczości, tylko z powodu większej liczby generowanych klatek.
@@stark_2991 Ale jednak zauważ że badając i porównując modele procesorów np jakiegoś "średniaka" inne jest jego obciążenie w grach w FHD a inne w UHD,.
Oczywiście w zależności od danej karty bo z flagowcem nasz "średniak" w FHD będzie "piłowany" na 100%, a wyższej rozdzielczości już nie, bo będzie liczyć się wydajność danej karty graficznej.
@@コワルスキークリストファー To wynika z tego, że liczba klatek też jest inna. Ustaw stałą liczbę klatek i obciążenie procesora niezależnie od rozdzielczości pozostanie na praktycznie takim samym poziomie.
W sterowniku można włączyć licznik klatek i ten wyświetla poprawną podwojoną liczbę klatek. Sprawdzone na RX 6700XT. Temat był szeroko omawiany na kanale Ancient Gameplays.
Nie wyobrażam sobie powrotu do 1080p. Nawet jak karta nie daje rady natywnie w 1440p to "teguje" sobie dlss w trybie jakość gdzie nie widzę absolutnie żadnej różnicy. Dlss i frame gen to fantastyczne opcje, ale szkoda, że są traktowane jako tania optymalizacja niż faktycznie pomoc do pchnięcia grafiki dalej.
UWQHD to jest coś do czego się mega przyzwyczaiłem i myślę że powrót do wąskich monitorów może być bolesny :)
Nie mam zamiaru zmieniać karty ani monitora, więc zostaje fhd 24" 75hz ips które w zupełności wystarcza, karta to gtx 1660 super więc w sam raz do takiego monitora i liczby hz :D
Aktualnie na 21/9 3440/14440 IPS polecam , sterownik Radeonów ma wbudowany własny licznik klatek i wszystkie wykresy i wszystko działa pozdrawiam
O patrz, zapomniałem, faktycznie 😁
A jak Ci się na 21:9 siedzi? Gra wszystko?
do tego jest jeszcze oprócz FSR wbudowany w sterownik FMF
@@TekTesters21:9 jako pulpit roboczy super. 35" i to trochę za duży monitor do pracy z tekstem zagęszczenie punktów na cal w granicach 100 to już dolna granica komfortu, w grach elegancko choć fakt rozdzielczość pożera FPSy. Generalnie to rozdzielczość raczej pod generację 40** a w zasadzie 50** u Nvidi. Mimo to polecam bo 4k to za dużo dla obecnych kart średniego i średniego niższego segmentu.
4070super ti i dalej fulll hd :P
Doceniam, że nie mylisz QHD z 2K jak robi to większość osób.
Ja tam mam monitor 24 cale i 2k i jest kozakiem w grach i jak codziennym użytku
Im wyższe zagęszczenie pikseli tym wyższa ostrość. Monitor 1440p w 24 calach będzie ostrzejszy niż 1440p w 27 calach
Dokladnie. Mialem 32 cale 2k i tera mam 32 cale 4k. Nie ma porownania wogole. Ale na 27 calach 2k juz spoko bo tez mialem
3440x1440. Dla mnie idealne proporcje i rozdzielczość
mam to samo zdanie, te proporcje sa serio swietne
Fajny materiał Kamil jak zwykle, pozdrowionka! Ja siedzę na FHD 144 hz wraz z r7 7800x3d i rtx 4070s i tak sobie rozkminiam czy chcę przechodzić na 1440p. Moje oko przykuwa dużą uwagę do płynniejszej rozrywki w wysokim klatkarzu, więc ciężko jest mi zdecydować się czy warto przechodzić na ciut wyższą rozdzielczość kosztem niższej płynności
Nie wiem po co ci 4070S jak masz ekran full hd. Bierz 1440p, bo to co masz teraz jest bez sensu
4070ti daje idealnie radę w 1440p, więc jak najbardziej.
27cali 1440p ta takie max bo wyżej tego to tylko 2160p ponieważ zagęszczenie pixeli jest większe
U mnie za 5 miesięcy wejdzie 7 rok z 2560 x1440 i 144 Hz na IPS.
Zmieniłem na wyższą rozdzielczość, ze względu by nie zmieniać platformy LGA 1150 (Core 4 gen. z czasem z i5 do i7 4770K).
Z Vegą 64 LC, monitor jest z Adaptive Sync, a że w 2017 r karty nVidia nie obsługiwały tej funkcji i dlatego wybrałem najmocniejszą kartę od AMD.
Gry do 2020 r. działały całkiem, ale w nowszych zmiana ponad rok temu na Zen 5 z wspominaną kartą zyskałem sporo, bo w końcu 4 rdzenie obecnie to mało w porównaniu do sześciu.
Na 6 lecie zmiany monitora w ubiegłym roku zmieniłem i kartę graficzną, bo Vega 64 LC (odpowiednik RX 6600 /RTX 2060 S) obecnie nadaje się do 1920 x 1080 na ustawieniach średniowysokich.
Co do przyszłości w 4 k raczej nie będę wchodził, ze względu na wymagania od karty graficznej w takiej rozdzielczości.
Już dawno przesiadłem na 1440p jest mega różnica kupiłem sobie samsung odyssey g5 32" 144hz i jestem bardzo zadowolony syn też ma taki a młodszy syn ma Monitor HP 27xq 27" 144Hz i powiem że to super monitor i ma super regulacje
32 cale jak dla mnie ma lepsze PPI - bardziej ergonomiczne i komfortowe jak nie używasz skalowania do pracy.
JA NA 1440P (144/165 HZ) TO PRZESIADŁEM SIE JUŻ DOBRE 5 LAT TEMU ;D
Ja posiadam aktualnie monitor AOC 24V2Q z Full HD i 75 Hz. Jak zacząłem testować monitory z wyższym odświeżaniem na moim kanale to dopiero złapałem się za głowę i nie mogłem uwierzyć dlaczego wcześniej nie kupiłem lepszego monitora - po prostu głupi byłem, jednak parę lat temu były droższe. Teraz się zastanawiam między AOC 24G4X Full HD z 180Hz a Q27G4X z QHD 180 Hz. Jeden testowałem monitor u siebie i spodobał mi się. Mam dylemat który wybrać. Z jednej strony wybrałbym 24 cale bo w zupełności wystarczy i jest idealny do mojego małego biurka a to tego posiadam RTX 3060 Ti oraz Ryzen 7 5700X. Z drugiej strony gdybym brał 27 cali to już bym miał na przyszłość monitor i bym nie musiał zmieniać tak szybko, jednak ilość klatek miałbym mniej w grach. Zobaczę jak dostanę ten drugi na testy to sobie porównam i wtedy zdecyduję, który mam wziąć. Pozdrawiam 🙂
Pozdro dla Stilgara i dla Ciebie! ;) Właśnie zbieram kasę w celu przesiadki na 1440p :) Stilgar jakiś czas temu zawrócił mi w głowie monitorem IIYAMA GCB3480WQSU-B1 34" 21:9 :D
Liczę, że moja 3070 Ti podoła:D
raportuje się za pomocą nakładki wydajności radeon "ctrl shift o" w sterowniku w zakładce wydajność/wskaźniki->śledzenie ustawiasz co ma raportować i jak
Właśnie miałem pisać żeby tak spróbować, z poziomu sterownika.
Jak ktoś całe życie kupuje karty ze średniego segmentu to nie ma sensu zmieniać rozdzielczości monitora. Ładnie zostało to pokazane. Było ponad 60fps w 1080p a w 1440p ledwo 40 fps i zamiast karty za 1600 - 1700 zł trzeba kupić taką za 2000 - 2300 zł.
Dochodzi jeszcze obsluga gsync/adaptive sync gdzie zakres zaczyna sie najczesciej od 48 fps zeby to dzialalo....A i jeszcze jest kwestia ze AOC ma w ofercie monitor 24 cale 1440p. Mysle ze to spoko opcja bo w razie czego mozna przeskoczyc na 1080p i miec standardowe 24 1080p
Ja siedzę na 2 monitorach 1440p w proporcjach 16:9 i 21:9 ale posiadam jedynie kartę gtx 1660S. Jeśli gra daje mi chociaż te 40 klatek to gram w takiej rozdzielczości, jeśli nie to zmuszony jestem grać w FHD, bądź korzystam z GFN w wersji founders, gdzie też jest FHD, ale przynajmniej mogę ustawić lepszą jakość grafiki.
Ja korzystam z monitora 4k od czasów GTX 1080 TI.
Zdaje mi się, że coś innego blokuje ci te klatki, bo ja mam starszą kartę (RedDevil RX 6700XT) i na fsr 2.1 Jakość i wszystko na max, mam stałe 60fps, nigdy nie spada poniżej, ale myślę że normalnie mam sporo ponad te 60fps, tylko mam włączone vsync na 60fps. Oczywiście na 1440p. Chyba że ten twój Radeon taki lichy.
Podobną wydajność powinny mieć te karty, 6700xt średnio szybszy chyba, musiałbym zerknąć do wyników.
Przerzuciłem się z 1080p na 1440p mając RX 6700 XT i jestem mega zadowolony.
Dla mnie różnica kolosalna 1080 na 24’ vs 1444 na 27’ a co dopiero 4K na 32 muszę wymienić
Oj tak a jaka różnica w cenie komputera, ona musi wymiatać... Portfel 😂
@@Tomkow_80 niestety tak ..😅
ja siedzę na 1080p i narazie nie mam zamiaru zmieniać p jak już to przesiadłbym się z 144hz na 360hz ale też na 1080p
Ja się przesiadłem z 1920x1080p na 2560x1080p. Dla mnie fullhd na monitorze jest wystarczające, a zawsze mam dodatkowe FPS na zwiększenie detali w grach.
Czy windows też bedzie w wyzszej rozdzialce alboprzeglafarka... czy tylko gry ?
@@bertold-ms1oo Windows tez
też o tym myślę. W wyścigach ważniejsze są fps niż rozdzielczość. Chcę monitor 34 cale ale 2560x1080p
No okej gry w rozdziallce fhd na, monitorze 1440 będą bardziej rozmazane, a, filmy także?
Na moim LG 27gp850 bardzo dobrze skaluje się rozdzielczość HD. Do tego stopnia, że wygląda lepiej niż na monitorze HD. Dobra furtka tam gdzie brakuje wydajności, choć ze względu na duży rozmiar matrycy preferuję grę w trybie okienkowym 2050x1300 co pochłania tylko 10% więcej mocy niż HD. Na szczęście dzisiejsze monitory mają już dość dobry czas reakcji matrycy więc można myśleć o wymianie monitora, ale bez tego argumentu przesiadka na wyższą rozdzielczość była by nieopłacalna.
Akurat stoję przed wyborem monitora więc materiał idealnie siądzie
Żeby włączyć generacje klatek trzeba miec min 60 fps. Tak zleca amd na swoiej stronie.
Większa rozdzielczość, więcej prądu, droższy sprzęt, więcej kasy. Ludzie nie wiedzą co kupić puki im tego nie pokażesz. A ludzkie oko jest dalej takie samo
Osobiście brakuje mi wyboru na rynku "2k" ale 16:10 a nie 16:9. 16:10 jest po prostu lepsze
Ponieważ gram tylko w WoTa najpierw zmieniłem kartę z dwóch GTX 460 w SLi na GTX 1050Ti potem przesiadłem się z 27''LG na 32"AOC i gram w 1440p teraz mam GTX 1650(miałem 1660Ti ale zabiłem ją przypadkiem podczas wymiany platformy)....klatki zablokowane na 75fps i naprawdę rzadko spadają poniżej tej wartości...procek Ryzen 7 5700X i ram 32GB 3600.
Cóż jak pokazują suche statystyki, ogromnej większości graczy starcza po prostu full HD, bo jest zwyczajnie taniej 😂, a we wszystko da się grać.
Będę w mniejszości, ale mi wystarcza FHD, nie lubię wysilać podzespołów. Nawet kilka miesięcy temu kupiłem Gigabyte G27F 2, ale niestety wyskoczyły jakieś kreski i będę musiał zareklamować.
Intel I7 7700k
AORUS GeForce Waterforce Extreme Edition GTX 1080ti 11G
Motherboard Asus ROG Strix Z270H Gaming
Samsung 960 EVO M2 SSD 250Gb
Enermax 1000 Watt
Corsair Vengeance DDR4 32GB Dual 3000 MHz
Powyższy zestaw daje mi stabilne 75 fps od 5 lat.
Na tych 3 monitorach w Assetto Corsa.
3x 1440p Acer 32” 166 MHz
No właśnie w połowie się zczaiłem, że coś tu nie tak. Nie wiem o jakiej jakości tutaj mowa, której rzekomo brakuje, ale ja zwróciłem uwagę na to, że film jest głównie na temat systemów AMD, jak podbić wydajność i ilość FPS. Dziwny tytuł filmu... Mam wrażenie, że trochę na siłę podciągnięcie tematu z oczywistą odpowiedzią pod tematykę AMD i tych dobroci, które oferuje w celu podbicia wydajności w grach ;)
Ponieważ jest sponsorowany przez AMD - zauważ, że nawet nie wypowiedział słowa NVIDIA tylko z delikatnym zastanowieniem "konkurencja od zielonych" :) Lubię oglądać filmy na temat testów i wydajności nowych technologii, ale zawsze trzeba mieć z tyłu głowy czy to jest w 100% niezależna opinia. Do Kamila i kolegów z innych kanałów nic nie mam, robią świetną robotę pokazując rzetelne testy i o to chodzi, ale zarabiać też muszą na swoje rodziny i głupio byłoby odmówić, a wnioski jaki sprzęt wybrać trzeba samemu wyciągnąć :) Niestety w tej branży nawięcej zarabia się przez dobry marketing, bo komputer ma każdy, ale niewiele osób potrafi go wybrać dla siebie w dobrym stosunku cena-wydajność pod konkretne przeznaczenie.
Co to masz za wyimaginowane problemy z 4K 42"-48", że musiałeś zejść do mikrusa 1440p ?
Trochę przesadzacie. Ja tam laptopa podkładam pod tv oled 4k i gram w 1080p. Wszystko wygląda mega git. Żadnych rozmyć!
Z odpowiednio dużej odległości każdy monitor/TV będzie się wydawał ostry.
Jak dla mnie 1080p może wyglądać jedynie dobrze na laptopie. Przesiadłem się z 17 calowego laptopa na PC z 24 calowym monitorem 1440p i już na takim ekranie 1080p wygląda jak rzygi z mydlinami 😅 nie mówię już o wyższych przekątnych bo granie w 1080p na większym ekranie to już czysty masochizm
z 17" 1080p laptopa dobrze przejść na 34" UWQHD
Krótko i na temat, nie , nie warto, bo "dzięki" tej wyższej rozdzielczości komputer, podzespoły dużo szybciej się starzeją i trzeba szybciej wydać pieniądze na nowe podzespoły i dlatego FHD, dla mnie, jest lepszym wyborem.
Nie, najrzadziej wymienianym elementem jest obudowa.
Ponadto, w dobie transformacji rozdzielczości i, podkreślam I proporcji ekranów, istotnym jest podawanie też tej proporcji. Bo dziś 1440p oznacza jeden z trzech przypadków. Wielu użytkowników ma więcej niż jeden ekran. Ja mam dwa, oba 1440p ale różne proporcje, zatem też różne wymagania co do wydajności przy podobnym klatkarzu.
34" 3440x1440 zasilane RTX-em 3070, R5 5600X i 32 GB RAM. Przy tej rozdzielczości karta już ma co robić, a do najnowszych gier z ray tracingiem przydałaby się mocniejsza. Mimo wszystko można ciąć w Cybera przy 60 fps na bardzo przyzwoitych ustawieniach.
31,5" 1440p 170hz VA od KTC. Konsola Xbox Series X.
Gram w 1080p. Uważam, że jest to optymalna rozdzielczość do grania jak dla mnie.
Monitor to LG 22MP58VQ-P.
Pozdrawiam
Posiadam RX 6700XT, kartę na której spokojnie mogę zagrać w 1440p, ale niestety z racji małej przestrzeni roboczej jestem zmuszony grać na 24" monitorze FullHD 75Hz. Ta rozdzielczość jest dla mnie w pełni wystarczająca i póki co nie mam zamiaru przechodzić na wyższą.
Pierwszy monitor z 1440p 27" kupiłem w 2016 roku jak tylko zaczęły się pojawiać w rozsądnych pieniądzach. Od tamtego czasu często z bólem serca pracuje mi się na fhd jeśli sytuacja tego wymaga.
Klatki z generatora są raportowane w nakładce uruchamianej z poziomu oprogramowania AMD.
ja mam 4090 i 1440p , 240Hz daje ładny obraz w ruchu a 4K 60fps to se można w tyłek wsadzić przereklamowane, ładne tylko na statycznych screenach a w ruchu totalna porażka
ja jako glowny monitor mam 34" 21:9 3440x1440, nad nim dodatkowy 22calowy 16:9 1920x1080 i z boku 29" 9:21 1080x2560 (21:9 1080p w pionie)
Nie wiem jak mozna grac na 1080p to juz lepiej wg nie grac w gry
Ja się przesiadłem z monitora IPS FHD 24' 60Hz na TV OLED 4k LG C1 48' 120Hz, przeskok niesamowity.
W tym roku przesiadłem się z monitora 768p TN na 1080 IPS 165 Hz. Różnica jest kolosalna.
Nie sądziłem, że tyle tracę nawet jako niedzielny gracz. Siedzę 6-8h w tygodniu i za każdym razem jesten zajarany graniem.
Najlepszy 4k 32", szczerze polecam. Nie będę robił już kroku wstecz :) . Kolejna zmiana to + 84Hz.
RX 7600 to nie jest grafika do 1440. Temat na siłę, by zareklamować, skądinąd dobrą markę.
Nakładka z oprogramowania Radeona pokazuje te wygenerowane klatki - trzeba ją właczyć.
1440p 165 hz ( 2560 x 1440) Rtx 4080 super - jestem mega zadowolony
Teraz to jest dylemat 1440p, mamy : 5120x1440, 3840x1440 i 2560x1440.
od 6lat uzywam 1440p
w życiu nie cofnąłbym się do fullhd.
+1 za amigę :)
kiedyś grałem na monitorze 1280x1024; przesiadka na Fhd była porównywalna do przesiadki z hdd na ssd; póki co zostanę na Fhd
Zaczynałem od (1996) 15` CRT wyciągał w 1024×768 100Hz, potem 19` TNT 75Hz w 1440×900, a następnie FHD w 27`TNT to był miód malina i to samo mam teraz na 32` 1440pVA zakrzywiony (oba monitory 144Hz). Dla mnie ważna jest wielkość "punktu" i oba ostatnie spełniają moje wymagania, większa rozdzielczość na mniejszej matrycy dla mnie jest nie wygodna(nieczytelna, za drobna). Co do sprzętu wychodzę z założenia, że należy wybrać największy monitor na jaki się ma miejsce i ewentualnie z chodzić z ustawieniami graficznymi danych gier. Porównanie gry na 27`(na max detalach) z grą na 32`z (na średnich ustawieniach) ma się nijak. Wielkość obrazu i przestrzeń robocza zwala z nóg, dlatego monitor kupuję raz, a dobrze, reszta i tak będzie kilka razy wymieniana. Co do odświeżania, to jest to odczucie osobiste, ja czuję dyskomfort gdy pracuję przy 60Hz 😒, za minimum dla mnie to 75Hz, a przy 100Hz moje oko odpoczywa😊. Oczywiście w grach to już inna sprawa ale to już było dużo razy poruszane. Pozdrowienia dla Stilgara robi bardzo dobrą robotę.
Niech stilgar weźmie na warsztat ktc G27P6
Bardzo dobry materiał. Dzięki. Siedzę na Full HD. Przesiadka na 2K wkrótce. Ale najpierw wymiana GPU. Pozdrowienia dla Stilgara, nie crobi matriał o monitorach 27'' :)
Też niedawno przeskoczyłem na 1440p i jest fajnie !
To rederowanie klatek od amd jest sopko, w modzie generator = dlss na seriach rtx 20xx i 30xx dwa razy wiecej klatek +/- polecam
Dla mnie problemem nie jest wydajność, tylko pamięć vRAM. RTX 3080 10GB zupełnie nie radzi sobie na monitorze 3440x1440. A ja głupi dałem za nią półtorej roku temu 4500zł
Półtorej odnosi się do rodzaju żeńskiego. Rok, to męski. Co Ty, nie umiesz odróżnić? Półtora roku!
Ja ostatnio wymieniłem na 27" 1440p 240hz. Przesiadka z esportowego Benq z matrycą TN i powiem że robi robotę, zarówno w esportowych gierkach jak i tych Triple A
Jaki monitor wziales? Bo wlasnie zastanawiam sie nad kupnem Samsunga Odyssey g7 VA 240hz 27" curved
@@tigerLDZ Gigabyte M27QX
@@tigerLDZja posiadam ten monitor tylko w wersji 32" od prawie roku. Jestem bardzo zadowolony i polecam w 100%. Jedyne do czego moge sie przyczepic to system ktory lubi sie czasem ladnie pobugowac lub zaczac lagowac.
FSR wydajność wygląda paskudnie
Czyli kupuję monitor 2k, zjeżdżam wszystkimi suwakami od "wspomagaczy", żeby było płynnie i w efekcie uzyskuję gorszą jakość obrazu niż na monitorze 1080p - mistrzostwo ;) 2k i 4k zarezerwowane są dla ludzi grających wyłącznie niekompetytywnie (jakkolwiek) i zaspokajają się w porywach 60 klatkami, a 1080p wiecznie żywe jest dla ludzi, którzy grają w tytuły NIEsingleplayer. Poza tym 24" to dla 95% użytkowników max jeśli chodzi o komfortowe granie z "normalnej" odległości, więc era 2k i więcej dopiero nadejdzie. Pozdrawiam, pisząc i patrząc na mój najswspanialszy XL2546K.
W 2k to grałem w 2015r
@@jakubek1511podziwiam są masochizm, dla mnie gra zaczyna się od 120fps
@@Cloperflake dlatego dalej zapierdalasz w minekrafta lub cs go.
@@marcinm2767w Minecrafta to raczej mój syn, ja jestem za duży na takie zabawki, ale miło, że Ty znasz ;)
@@CloperflakeGram w 1440p od kilku lat i nie mam żadnego problemu z uzyskaniem 120fps. Wszystko się rozbija o to w co grasz i na jakich ustawieniach. Jeśli jesteś niewolnikiem ustawień Ultra, to trzeba brać mocne GPU i tyle. Jeśli jesteś użytkownikiem, który potrafi myśleć, to ustawisz sobie grafikę na wysoką bez widocznej utraty jakości obrazu i dostaniesz +20-30% fps w większości przypadków.
Serio gierki??? Tutaj wazny jest wzrost przestrzeni roboczej, a na reszte i tak dzieci w gierkach nie beda zwracac uwagi
ja myślę że wystarczyło podać równanie że 1440p jest o ileś procent bardziej gęste niż 1080p i karta graficzna też musi być o ileś procent mocniejsza i materiał można było zrobić w 5 minut
Zależy czy zmieniasz przekątna monitora czy nie...
Bzdurki piszesz, PPI jest zależne od rozmiaru ekranu również a nie tylko rozdzielczości, można mieć takie samo PPI w monitorze 32 cale 1440p jak i 24 cale 1080p i to jest mega komfortowa kombinacja jak dla mnie, co do wydajności to tak, ale to też zależy. Taka porcja wiedzy może być jadnak dla kogoś wartościowa.
Ilość klatek nie spada proporcjonalnie do wzrostu liczby renderowanych pikseli.
nie musi być wprost proporcjonalna, wystarczy że istnieje jakaś sensowna zależność. Łatwo określić karty do 4k, karty do 2k i karty do FHD
@@gracjans815 Problem w tym, że nie istnieje. W niektórych grach spadek liczby klatek (na tych samych ustawieniach i na tym samym GPU) w 1440p wzgledem 1080p wynosi 20%, a w innych 40 czy 50%.
Przesiadłem się z 1080 Full HD na 4K. A jak zobaczyłem tą ostrość obrazu w grach jak np. Wiedźmin 2 to się zakochałem.
Dokładnie, wielu się nie przesiada bo nie wie co traci.
@@ukasz7073 Większość sie nie przesiada na 4k bo by im sie piekarnik zrobił z komputera
2 lata temu zmieniłem monitor FullHD 24" na 32 cali 1440p 165 Hz i jest mega.
Uważam że 27" cali do 1440 jest za mało. 32" jest idealnie.
@Ewenement44 mam Gigabyte G32QC 165 Hz. I też jestem zadowolony. Również ostry.
wszystko spoko tylko gry głupieją przez to bo za szybki obraz jest
Co do rozdzielczości w jakiej siedzę to jest to fullHD i nie zmienię jej zapewne nigdy, bo nie zmienię monitora na większy, a to z powodu powikłań po jaskrze, przez co mam mocno zawężone pole widzenia i co mi z większej powierzchni roboczej, jak widzieć będę tylko powiedzmy środek ekranu (no chyba, ze są monitory 21,5 cala 1440p to ja poproszę dwa na wynos).
Co do zmian w wielkości to tak - popełniłem keidyś taki błąd, ale jeszcze w dawnych czasach, mianowicie przesiadając się z monitora 640x480 od razu na 1024x768, bo i specyfikacja komputera dawała radę max z 800x600, co nie do końca idealnie się skalowało. Ale i tak zmiana w jakości obrazu była odczuwalna, bo po pierwsze byłą to przesiadka z CRT na LCD i biurko było mi wdzięczne, bo mu odpadło z 8 kilo obciążenia jakoś, a i miejsca zrobiło się więcej, do tego przekątna z 15 cali podskoczyła do 17, no i nowy monitor obsługiwał 75 Hz zamiast 60 na starym. Niemniej pełnię jego możliwości zobaczyłem dopiero ze 2 lata później, gdy już natywnie grywałem w 1024x786 majac inną jednostkę.
Najmniej to 24 cale dla 1440p jak sam szukałem, z czego to były tylko 2 modele.
@@Smok1125 no właśnie. A to już za duży dla mnie
Ja z kolei mam małe biurko i też nie mogę poświęcić na nim tyle miejsca na duży monitor i też ubolewam że rynek 19 i 22 cale się praktycznie skończył
@@xflashu8075 kup sobie dokręcane do blatu ramię i powieś na montażu vesa, choćby i 32 cale. Wielkość biurka to mały problem
@@nihilistycznyateista cena tego to też dla mnie problem
RTX 3060 Ti 8GB. Czy jest sens wejść w 1440?
3440x1440 jak dla mnie bajka. I tylko OLED
Na tej wysokiej wydajności jak piksele skakały na latarniach :D
Ilość klatek po włączeniu afmf można zanotować włączajac z poziomu sterownika licznik fps itp
Ani 1080 ani 1440 bo mam monitor 21:9 na 29" i z RX 6700XT daje radę 😂
Hardware w mojej ocenie nie jest gotowy na 4k. Również siedzę na 1440p i dla tej rozdzielczości optymalna wydaje się moja GPU tj. 7900xtx. Dopiero na tego rodzaju sprzęcie jestem w stanie dobić fps do możliwości monitora (165hz), a i to w niektórych tytułach okupione jest niska kultura pracy GPU. Na tej właśnie podstawie twierdzę, że na najnowsze tytuły w 4k, hardware nie jest gotowy. Cieszę się że przy zakupie monitora wybrałem 1440p, zamiast wyższej rozdzielczości, bo bym się zwyczajnie męczył i wkurzał, że mam zbyt słaby sprzęt. Mimo że jest to najlepszy sprzęt jaki obecnie mogę kupić od AMD. Z tego powodu wkurza mnie marketing producentów kart, te 60fps w dzisiejszych czasach to naprawdę jest bieda, a nie osiągnięcie ;(
to że 60hz to kaszana to wina technologi LCD/OLED itd 60Hz na CRT to zupełnie dwa różne światy zero laga, obraz w ruchu jak żyleta nawet wywijając myszką po całym blacie.
Rtx 3060 12gb i5 12400f monitor 1440p
Amiga - szacun
Ja żałuję że jest tak mało monitorów 29''
Jakis taki dziwny dzwiek z tego malego mica.
O czym ty chłopie mówisz jakby w 3 minucie od razu stawiasz tezę xD Przesiadka z 24 cali full hd na 27 cali 1440p to na prawdę duża zmiana w grach zwłaszcza w teksturach lepszej jakości i obraz jest znacznie ostrzejszy.
"Naprawdę duża zmiana"?? chyba na wypasionych kartach :) Na większości kart, do płynnej rozgrywki będzie potrzebny upscaling, a to już pogorszy obraz. Może się więc nagle okazać, że obraz na monitorze 1440p, będzie bardzo podobny do tego z 1080p :)
@@gureedoteam56321440p z dlls quality wyglada duzo lepiej niz 1080p native : )
@@Rajd3rs To zależy, jak masz dobrej jakości monitor pod 1080p, to różnica owszem będzie, ale niewielka :)
@@gureedoteam5632Zamiast się mądrzyć może kup sobie takie monitory i porównaj xD
@@Rajd3rs Nie muszę, mam monitor Philipsa 1080p, a brat LG 1440p, więc mam porównanie :)
Świetny i bardzo ciekawy film, aż zasubskrybowałem twój kanał👍Planuję kupić monitor 1440p 27 cali, aktualnie używam samsunga 24 cale 1080p. 27 cali 1440p to dla mnie takie optimum jeśli chodzi o monitory, większego nie potrzebuję. Pozdrawiam Stilgara!
Jak masz porządny monitot 1080p, to przesiadka na 1440p, może być nieco rozczarowująca. Te rozdzielczości nie różnią się aż tak bardzo :)
@@gureedoteam5632 co Ty gadasz różnica między 1440 a 1080p jest ogromna ;) dla mnie 1080p już nawet na 24 calowym ekranie jest niegrywalne bo mogę liczyć piksele na placach jednej ręki 😅
@@fronttliner01 to masz głowę 10 cm od monitora albo taką chujową matrycę
1440p jest dobre pod skalowanie :D
Tak na prawdę, to jak się ma porządny monitor pod 1080p, to nie ma żadnej potrzeby przesiadać się na 1440p. Dziwne też wydaje mi się, kupowanie nowego monitora 1440p, tylko po to, żeby używać upscalingu w grach, zamiast natywnej rozdzielczości. To prowadzi do pogorszenia obrazu, zamiast do jego poprawienia. W efekcie, dostajemy taki sam obraz, jak na dobrym monitorze 1080p, tylko teraz nasz nowy monitor jest znacznie droższy... normalnie deal życia :)
Nawet upscalowane 1440p wygląda znacznie lepiej niż 1080p. Zwłaszcza w nowych grach, gdzie często domyślną metodą AA jest TAA i nie da się tego wyłączyć, wtedy DLSS wręcz poprawia jakość obrazu względem rozdzielczości natywnej z TAA.
@@stark_2991 Wciąż, różnica w obrazie, nie jest zbyt duża, zwłaszcza jeśli masz monitor 1080p z wyższej półki. Oczywiście przesiadka ma sens, jeśli masz wypasioną kartę graficzną, ale jak masz coś pokroju RX 6600/RTX 2060/RTX 3060 to taka przesiadka nie ma sensu. Poza tym, dochodzi koszt samego monitora, porządny monitor pod 1440p tani nie jest, tak na oko, 2x droższy od 1080p (zwłaszcza jak chcesz z wysokim odświeżaniem), pytanie więc, czy za 2x wyższą cenę, dostajesz 2x lepszy obraz?? Oczywiście, że nie, więc po co przepłacać :)
No chyba że masz kupe kasy do wydania, to się baw, nikt ci nie broni :D
@@gureedoteam5632 Ty jesteś teoretykiem, a ja praktykiem. Zrozumiesz kiedy w końcu kupisz taki monitor.
@@stark_2991 Mam bardzo fajnego Philipsa 1080p, a brat LG 1440p, więc tak, mam porównanie :)
@@gureedoteam5632 Więc mamy po prostu inne opinie na ten sam temat.