Słuchajcie, ważny komunikat! Niestety zbieg niefortunnych okoliczności spowodował, że ten film nie wygląda tak, jak wyglądać miał. Jakość jest znacznie poniżej tego, czego od siebie oczekuję, ale w związku ze zobowiązaniami, nie mogłem nagrać go ponownie i musiał on niestety wyjść w takiej formie, w jakiej go widzicie. Czynników było wiele, ale winą za taki rozwój sytuacji obarczam siebie, gdyż zostawiłem sobie za mało czasu na realizację filmu, który musi wyjść w określonym terminie. Przepraszam Was za tę gorszą jakość niż zwykle. Na pocieszenie, jutro będzie film w takim standardzie, do jakiego Was przyzwyczaiłem. Dzięki, że wpadliście i spokojnych Świąt! Zachęcam jeszcze do subskrypcji ➡ bit.ly/3lK7CYu I kliknięcia dzwoneczka 🔔 aby być na bieżąco z filmami. A tutaj promka partnera odcinka i karta, której użyliśmy do testów: Promocja ASUS ➡ pl.asus.click/Radeon_Promo Asus TUF Gaming Radeon RX 7600 XT OC ➡ pl.asus.click/Radeon_TekTesters
PCta mam od 1999 roku. W tym czasie najważniejszym upgradem dla mnie była przesiadka z HDD na SSD. Obecnie uważam że nastepnym kamieniem milowym sa monitory OLED
Pc mam rok krócej. Przesiadka z jedno-rdzeniowca x32 na core2duo/athlona64 x2 też dawała niezłego kopa. W warstwie oprogramowania pozytywnie również odebrałem przesiadkę z w95/98 na linię nt (2000/xp). Co do oledów, poczekamy jak stanieją, przestaną się wypalać. Producenci jeszcze przy tym grzebią :) Dyski ssd o pojemności poniżej 120gb padały swego czasu jak muchy. I o ile to nie magazyn na dane to można brać :)
@@marcinguzy Każda technologia ma wady wieku dziecięcego. Rzeczywiście w kwestii software, to prawda. Pamiętam jak wskoczyłem na 2000 a następnie XP to była zmiana. Co do procesorów to nie podzielam zdania. Na początku nikt nie potrafił wykorzystać ani 2 rdzeni, ani x64 - przynajmniej w grach :D. Zdaje sobie sprawę z wszystkich wad OLEDów, ale jak to mawiają, trumna nie ma kieszeni. Mam troszke grosika co mogłem przeznaczyć na OLED i padło na LG 27GS95QE-B. Monit ma wady, ale na serio jest wart każdej wydanej złotówki....
a co ten oled, zwykłe przesycone gówno które sie wypala, jedyne co ten ekran ma do zaoferowania to dobra czerń bo kolory to dla fanów przesyconych gówien typu samsung, dobry ips ma znacznie bardziej referencyjny obraz jak oled. No ale ludzie widocznie to lubią.
@@MikeleKonstantyFiedorowiczIV Chyba kpisz. OLED-y najczęściej mają pełne pokrycie różnych standardów modeli kolorów. A ich czerń to jest to, co sprawia, że są nieporównywalnie lepsze od LED'ów - nieskończony kontrast.
no ja niestety zostanę jeszcze długo w 1080p, mniejsze wymagania sprzętowe sprawiają że rzadziej muszę wymieniać części, jak się przestawię to raczej na 4k, a to jeszcze potrwa
Tak na prawdę, to jak się ma porządny monitor pod 1080p, to nie ma żadnej potrzeby przesiadać się na 1440p. Dziwne też wydaje mi się, kupowanie nowego monitora 1440p, tylko po to, żeby używać upscalingu w grach, zamiast natywnej rozdzielczości. To prowadzi do pogorszenia obrazu, zamiast do jego poprawienia. W efekcie, dostajemy taki sam obraz, jak na dobrym monitorze 1080p, tylko teraz nasz nowy monitor jest znacznie droższy... normalnie deal życia :)
Nawet upscalowane 1440p wygląda znacznie lepiej niż 1080p. Zwłaszcza w nowych grach, gdzie często domyślną metodą AA jest TAA i nie da się tego wyłączyć, wtedy DLSS wręcz poprawia jakość obrazu względem rozdzielczości natywnej z TAA.
@@stark_2991 Wciąż, różnica w obrazie, nie jest zbyt duża, zwłaszcza jeśli masz monitor 1080p z wyższej półki. Oczywiście przesiadka ma sens, jeśli masz wypasioną kartę graficzną, ale jak masz coś pokroju RX 6600/RTX 2060/RTX 3060 to taka przesiadka nie ma sensu. Poza tym, dochodzi koszt samego monitora, porządny monitor pod 1440p tani nie jest, tak na oko, 2x droższy od 1080p (zwłaszcza jak chcesz z wysokim odświeżaniem), pytanie więc, czy za 2x wyższą cenę, dostajesz 2x lepszy obraz?? Oczywiście, że nie, więc po co przepłacać :) No chyba że masz kupe kasy do wydania, to się baw, nikt ci nie broni :D
W tym roku przesiadłem się z monitora 768p TN na 1080 IPS 165 Hz. Różnica jest kolosalna. Nie sądziłem, że tyle tracę nawet jako niedzielny gracz. Siedzę 6-8h w tygodniu i za każdym razem jesten zajarany graniem.
W sterowniku można włączyć licznik klatek i ten wyświetla poprawną podwojoną liczbę klatek. Sprawdzone na RX 6700XT. Temat był szeroko omawiany na kanale Ancient Gameplays.
raportuje się za pomocą nakładki wydajności radeon "ctrl shift o" w sterowniku w zakładce wydajność/wskaźniki->śledzenie ustawiasz co ma raportować i jak
Ja się przesiadłem z 1920x1080p na 2560x1080p. Dla mnie fullhd na monitorze jest wystarczające, a zawsze mam dodatkowe FPS na zwiększenie detali w grach.
U mnie za 5 miesięcy wejdzie 7 rok z 2560 x1440 i 144 Hz na IPS. Zmieniłem na wyższą rozdzielczość, ze względu by nie zmieniać platformy LGA 1150 (Core 4 gen. z czasem z i5 do i7 4770K). Z Vegą 64 LC, monitor jest z Adaptive Sync, a że w 2017 r karty nVidia nie obsługiwały tej funkcji i dlatego wybrałem najmocniejszą kartę od AMD. Gry do 2020 r. działały całkiem, ale w nowszych zmiana ponad rok temu na Zen 5 z wspominaną kartą zyskałem sporo, bo w końcu 4 rdzenie obecnie to mało w porównaniu do sześciu. Na 6 lecie zmiany monitora w ubiegłym roku zmieniłem i kartę graficzną, bo Vega 64 LC (odpowiednik RX 6600 /RTX 2060 S) obecnie nadaje się do 1920 x 1080 na ustawieniach średniowysokich. Co do przyszłości w 4 k raczej nie będę wchodził, ze względu na wymagania od karty graficznej w takiej rozdzielczości.
Ja ostatnio wymieniłem na 27" 1440p 240hz. Przesiadka z esportowego Benq z matrycą TN i powiem że robi robotę, zarówno w esportowych gierkach jak i tych Triple A
@@tigerLDZja posiadam ten monitor tylko w wersji 32" od prawie roku. Jestem bardzo zadowolony i polecam w 100%. Jedyne do czego moge sie przyczepic to system ktory lubi sie czasem ladnie pobugowac lub zaczac lagowac.
Spędziłem większość swojego życia na 1080p/60hz i kilka miesięcy temu skusiłem się na pewien monitor od LG 1440p/144hz polecany przez Stilgara. Nawet nie miałem pojęcia, że właśnie tego trzeba mi było. Dla moich oczu przeskok z FHD na WQHD i wyższe odświeżanie był istną przepaścią i w jakości obrazu zakochałem się już w pierwszych godzinach użytkowania. Nie wyobrażam sobie teraz zejść niżej.
Nie wyobrażam sobie powrotu do 1080p. Nawet jak karta nie daje rady natywnie w 1440p to "teguje" sobie dlss w trybie jakość gdzie nie widzę absolutnie żadnej różnicy. Dlss i frame gen to fantastyczne opcje, ale szkoda, że są traktowane jako tania optymalizacja niż faktycznie pomoc do pchnięcia grafiki dalej.
@@TekTesters21:9 jako pulpit roboczy super. 35" i to trochę za duży monitor do pracy z tekstem zagęszczenie punktów na cal w granicach 100 to już dolna granica komfortu, w grach elegancko choć fakt rozdzielczość pożera FPSy. Generalnie to rozdzielczość raczej pod generację 40** a w zasadzie 50** u Nvidi. Mimo to polecam bo 4k to za dużo dla obecnych kart średniego i średniego niższego segmentu.
Co do rozdzielczości w jakiej siedzę to jest to fullHD i nie zmienię jej zapewne nigdy, bo nie zmienię monitora na większy, a to z powodu powikłań po jaskrze, przez co mam mocno zawężone pole widzenia i co mi z większej powierzchni roboczej, jak widzieć będę tylko powiedzmy środek ekranu (no chyba, ze są monitory 21,5 cala 1440p to ja poproszę dwa na wynos). Co do zmian w wielkości to tak - popełniłem keidyś taki błąd, ale jeszcze w dawnych czasach, mianowicie przesiadając się z monitora 640x480 od razu na 1024x768, bo i specyfikacja komputera dawała radę max z 800x600, co nie do końca idealnie się skalowało. Ale i tak zmiana w jakości obrazu była odczuwalna, bo po pierwsze byłą to przesiadka z CRT na LCD i biurko było mi wdzięczne, bo mu odpadło z 8 kilo obciążenia jakoś, a i miejsca zrobiło się więcej, do tego przekątna z 15 cali podskoczyła do 17, no i nowy monitor obsługiwał 75 Hz zamiast 60 na starym. Niemniej pełnię jego możliwości zobaczyłem dopiero ze 2 lata później, gdy już natywnie grywałem w 1024x786 majac inną jednostkę.
Zaczynałem od (1996) 15` CRT wyciągał w 1024×768 100Hz, potem 19` TNT 75Hz w 1440×900, a następnie FHD w 27`TNT to był miód malina i to samo mam teraz na 32` 1440pVA zakrzywiony (oba monitory 144Hz). Dla mnie ważna jest wielkość "punktu" i oba ostatnie spełniają moje wymagania, większa rozdzielczość na mniejszej matrycy dla mnie jest nie wygodna(nieczytelna, za drobna). Co do sprzętu wychodzę z założenia, że należy wybrać największy monitor na jaki się ma miejsce i ewentualnie z chodzić z ustawieniami graficznymi danych gier. Porównanie gry na 27`(na max detalach) z grą na 32`z (na średnich ustawieniach) ma się nijak. Wielkość obrazu i przestrzeń robocza zwala z nóg, dlatego monitor kupuję raz, a dobrze, reszta i tak będzie kilka razy wymieniana. Co do odświeżania, to jest to odczucie osobiste, ja czuję dyskomfort gdy pracuję przy 60Hz 😒, za minimum dla mnie to 75Hz, a przy 100Hz moje oko odpoczywa😊. Oczywiście w grach to już inna sprawa ale to już było dużo razy poruszane. Pozdrowienia dla Stilgara robi bardzo dobrą robotę.
Jak ktoś całe życie kupuje karty ze średniego segmentu to nie ma sensu zmieniać rozdzielczości monitora. Ładnie zostało to pokazane. Było ponad 60fps w 1080p a w 1440p ledwo 40 fps i zamiast karty za 1600 - 1700 zł trzeba kupić taką za 2000 - 2300 zł.
Ponieważ gram tylko w WoTa najpierw zmieniłem kartę z dwóch GTX 460 w SLi na GTX 1050Ti potem przesiadłem się z 27''LG na 32"AOC i gram w 1440p teraz mam GTX 1650(miałem 1660Ti ale zabiłem ją przypadkiem podczas wymiany platformy)....klatki zablokowane na 75fps i naprawdę rzadko spadają poniżej tej wartości...procek Ryzen 7 5700X i ram 32GB 3600.
Pierwszy monitor z 1440p 27" kupiłem w 2016 roku jak tylko zaczęły się pojawiać w rozsądnych pieniądzach. Od tamtego czasu często z bólem serca pracuje mi się na fhd jeśli sytuacja tego wymaga.
@@Tombitp ja tam się z tym nie zgadzam chociaż sam korzystam z rozdzielczości 1440p bo żeby sobie komfortowo pograć w tej rozdzielczości nie trzeba mieć karty z najwyższej półki bo jednak do rozdzielczości 4k przyda się karta właśnie typu 4080 ti lub 4090 które są strasznie drogie, a do 1440p wystarczy karta 4070 lub 4070 super które są kilkukrotnie tańsze, a wyglądowo 1440p przebija 1080p kilkukrotnie. Chociaż ja też nie potrzebuje takiej samej wydajności jak w 1080p bo na takich kartach jak wspomniałem (4070 i 4070 super) różnica spadku przykładowo z 140 na 90 FPS nie jest widoczna gołym okiem w grach single, a wyglądowo sporo lepiej. Szanuje jednak twoją opinie :)
Mam małe biurko i siedzę blisko monitora. Niedawno poskładałem nową skrzynię. 5600x sparowałem z 6750xt i mój wybór padł na FullHD. Po przesiadce z 21" 60hz na 24" 165hz przez tydzień nie mogłem się na patrzeć jak to kozacko wygląda.
@@_nietypowy hmmmm mam 27" 240 hz i nie był to dla mnie efekt wow, raczej było coś w stylu no wydałem kasę i widać zmianę xD Czułbym się zawiedzony gdybym wydał kasę i nie zobaczyłbym żadnej równicy xD
Już dawno przesiadłem na 1440p jest mega różnica kupiłem sobie samsung odyssey g5 32" 144hz i jestem bardzo zadowolony syn też ma taki a młodszy syn ma Monitor HP 27xq 27" 144Hz i powiem że to super monitor i ma super regulacje
Bardzo dobry materiał. Dzięki. Siedzę na Full HD. Przesiadka na 2K wkrótce. Ale najpierw wymiana GPU. Pozdrowienia dla Stilgara, nie crobi matriał o monitorach 27'' :)
Dochodzi jeszcze obsluga gsync/adaptive sync gdzie zakres zaczyna sie najczesciej od 48 fps zeby to dzialalo....A i jeszcze jest kwestia ze AOC ma w ofercie monitor 24 cale 1440p. Mysle ze to spoko opcja bo w razie czego mozna przeskoczyc na 1080p i miec standardowe 24 1080p
Będę w mniejszości, ale mi wystarcza FHD, nie lubię wysilać podzespołów. Nawet kilka miesięcy temu kupiłem Gigabyte G27F 2, ale niestety wyskoczyły jakieś kreski i będę musiał zareklamować.
Popełniłem dokładnie ten sam błąd, z 1080p 60Hz przesiadłem się na 4k 60Hz, ale naprawiłem swój błąd i przeskoczyłem na 1440p 165hz, to było już 4-5 lat temu. Teraz marzy mi się OLED coś pomiędzy rozciągniętym 1440p w proporcjach 21:9 165hz
Pozdro dla Stilgara i dla Ciebie! ;) Właśnie zbieram kasę w celu przesiadki na 1440p :) Stilgar jakiś czas temu zawrócił mi w głowie monitorem IIYAMA GCB3480WQSU-B1 34" 21:9 :D Liczę, że moja 3070 Ti podoła:D
Fajny materiał Kamil jak zwykle, pozdrowionka! Ja siedzę na FHD 144 hz wraz z r7 7800x3d i rtx 4070s i tak sobie rozkminiam czy chcę przechodzić na 1440p. Moje oko przykuwa dużą uwagę do płynniejszej rozrywki w wysokim klatkarzu, więc ciężko jest mi zdecydować się czy warto przechodzić na ciut wyższą rozdzielczość kosztem niższej płynności
Ja popełniłem błąd kilka lat temu, jak wybrałem monitor FullHD 27 cali zamiast 24, i co prawda do teraz mi służy, ale pluję sobie w brodę i następny będzie o rozdzielczości 1440p 27 cali/zaszaleję i wezmę 4K 32 cale. Wesołych i spokojnych świąt! PS Pozdro dla Stilgara ✌️
Poniekąd można powiedzieć że każda karta jest do FullHD bo tylko chyba 4090 i 7900 są wstanie dać natywny obraz 4k itd w rozsądnym klatkażu. Do tej pory gdy włączam DLSS czuje się oszukiwany. W metro exodus na DLSS niebyłe w stanie korzystać z dziennika bo napisy były rozmazane. Natywna rozdzielczość to natywna rozdzielczość.
Gram teraz w Metro Exodus w wersji EE (gdzie jest już DLSS 2.x, w wersji podstawowej było DLSS 1. generacji - tragedia) i bardzo dobrze to wygląda, a jestem wyczulony na mydło w grach.
Na WQHD przesiadałem się od 2014 roku, wymieniając monitory do pracy i rozrywki na 2x IPS 27" + 1x VA 31.5" - Lightroom, Photoshop, postprodukcja filmów, itp. Miałem też inne monitory, łącznie z TN, ponieważ często musiałem optymalizować paletę barw. Mój dobór rozdzielczości był definiowany wielkością pikseli, dlatego do dziś dziwi mnie kupowanie monitora 21" 4K. Przesiadka z 21" czy nawet 24" FullHD na 27" QHD miała i ma nadal sens, i oczywiście widzę różnicę, stawiając dwa tej samej wielkości monitory obok siebie, o różnej rozdzielczości, ale chyba nie o to w tym wszystkich chodzi? Dla mnie czasy się zmieniły tylko o tyle, że obecnie, jeden monitor ma żona, drugi córka, trzeci druga córka, a ja... męczę się na 21" 1680x1050 i w takiej też rozdzielczości oglądałem ten film :) Do dużego się człowiek łatwo przyzwyczaja, gorzej w drugą stronę. Przed COVID-19 zrobiłem nawet doświadczenie, puszczając film z projektora na ekran ~100", gdzie pierwsza część była wyświetlona projektorem 4K skalowana ze źródła 2560x1440, a druga część tego samego filmu projektorem 1280x720. Nikt się nie połapał przy odległości 3,5m od ekranu. Tak, wiem,to akurat światło odbite więc też działa nieco inaczej. A co do ilości FPS, to i tak nie ma to większego sensu. Według najnowszych badań, z tego roku (2024), najnowszymi dostępnymi technologiami, to nawet jeśli jesteś młodą kobietą, to nic powyżej 40fps twój mózg nie zarejestruje, podobnie jak kolejnych bilionów barw. Inna sprawa, że niektóre algorytmy gier mają specjalnie tak ustawioną synchronizację, by dawać owe uczucie. Mało kto pamięta, że owe klatkaże były wymuszone częstotliwościami prądu w sieci elektrycznej, i że stosowane były zabiegi wyświetlania co drugiej linii, ale dziś nie mamy kineskopów, tylko matryce utrzymujące stan do kolejnej zmiany. The show must go on, a kasa korporacji zgadzać, więc tych, co włączają synchronizację monitorów na sztywno i ilość klatek na 50 lub 60fps, najchętniej posłali by na stos :) To samo dziś jest z aparatami, gdzie wydrukowane zdjęcie starą lustrzanką 5Mpx a nową 50Mpx jest nie do odróżnienia. Pomijam fakt, że z tego drugiego da się łatwiej uzyskać inny kadr, ale jeśli dobrze wykonamy zdjęcie, to efekt jest nie do rozpoznania nieuzbrojonym okiem. Technologia już lata temu prześcignęła próg ludzkiej fizyczności, a czymś trzeba napędzać konsumpcjonizm.
Posiadam RX 6700XT, kartę na której spokojnie mogę zagrać w 1440p, ale niestety z racji małej przestrzeni roboczej jestem zmuszony grać na 24" monitorze FullHD 75Hz. Ta rozdzielczość jest dla mnie w pełni wystarczająca i póki co nie mam zamiaru przechodzić na wyższą.
Jeśli chodzi afmf, u mnie wskakuje bez minimalizowania gry. Działa dość dobrze ale zbyt duże opóźnienie. U mnie przy ok. natywnych 60 FPS podbija do ok 120 ale przy 30 ms opóźnienia. Co jest wyczuwalne, szkoda że nie ma suwaka żeby np dokładało co 4 klatka przy mniejszych opóźnieniach. Wtedy bym używał.
Warto zaznaczyć, że w opisie technologii fluid motion jest napisane, że ilość "wygenerowanych" klatek jest poprawnie widoczna korzystając ze wskaźników z poziomu sterownika AMD. Z tego względu, korzystając np. z Rivia Tuner (instalowane z MSI Afterburner) różnice mogą być niewidoczne - co nie oznacza, że ich nie ma ;)
ja myślę że wystarczyło podać równanie że 1440p jest o ileś procent bardziej gęste niż 1080p i karta graficzna też musi być o ileś procent mocniejsza i materiał można było zrobić w 5 minut
Bzdurki piszesz, PPI jest zależne od rozmiaru ekranu również a nie tylko rozdzielczości, można mieć takie samo PPI w monitorze 32 cale 1440p jak i 24 cale 1080p i to jest mega komfortowa kombinacja jak dla mnie, co do wydajności to tak, ale to też zależy. Taka porcja wiedzy może być jadnak dla kogoś wartościowa.
@@gracjans815 Problem w tym, że nie istnieje. W niektórych grach spadek liczby klatek (na tych samych ustawieniach i na tym samym GPU) w 1440p wzgledem 1080p wynosi 20%, a w innych 40 czy 50%.
Zakup dużego monitora 4k do filmów i zmiana rozdzielczości w grach na fhd czy 2k ma sens czy nie jest to dobre rozwiazanie? Pytam bo widziałem ,że sobie zmieniłeś w cyber punku rozdziałkę i bez problemu śmiga , więc skoro kupujemy monitor na lata to zakup takiego 4k może być wyborem właśnie na lata tak?
Na początku filmu powiedziałeś że lubisz serię 7600 od amd. A co powiesz na temat karty również od amd ale 6750xt ? Powoli zbieram części do swojego nowego PC i zastanawiam się nad tymi dwiema kartami. W testach 6750 wypada lepiej ale jest już leciwą konstrukcją, myślisz że warto iść w ten model ? Pozdrawiam.
Świetny i bardzo ciekawy film, aż zasubskrybowałem twój kanał👍Planuję kupić monitor 1440p 27 cali, aktualnie używam samsunga 24 cale 1080p. 27 cali 1440p to dla mnie takie optimum jeśli chodzi o monitory, większego nie potrzebuję. Pozdrawiam Stilgara!
@@gureedoteam5632 co Ty gadasz różnica między 1440 a 1080p jest ogromna ;) dla mnie 1080p już nawet na 24 calowym ekranie jest niegrywalne bo mogę liczyć piksele na placach jednej ręki 😅
Zamówiłem matryce do laptopa która zalałem . Ta okazała sie 1440 p . Obraz jest o niebo lepszy ale FPSy spadły i to o 1/4 . Wcześniej miałem 1080. Karte w lapku mam GTX 1060 i daje rade . CS GO około 110 kl/s na wysokich.
1440p nie ma sensu jeśli tylko to ma nam się zmienić. Meine kolega miał FHD / 60Hz. Nie pytajcie mnie nie wiem dlaczego, przesiadł się na QHD / 165Hz. To wtedy miało sens (Choć ma na tyle silnego kompa że mógłby i 4K). W takim wypadku ma to jak najbardziej rację bytu ale jeśli mamy tylko zmienić rodzielczość to przepłacanie hajsu. Lepiej iść do burdelu i się zadowolić niż trwonić pieniądze.
Hardware w mojej ocenie nie jest gotowy na 4k. Również siedzę na 1440p i dla tej rozdzielczości optymalna wydaje się moja GPU tj. 7900xtx. Dopiero na tego rodzaju sprzęcie jestem w stanie dobić fps do możliwości monitora (165hz), a i to w niektórych tytułach okupione jest niska kultura pracy GPU. Na tej właśnie podstawie twierdzę, że na najnowsze tytuły w 4k, hardware nie jest gotowy. Cieszę się że przy zakupie monitora wybrałem 1440p, zamiast wyższej rozdzielczości, bo bym się zwyczajnie męczył i wkurzał, że mam zbyt słaby sprzęt. Mimo że jest to najlepszy sprzęt jaki obecnie mogę kupić od AMD. Z tego powodu wkurza mnie marketing producentów kart, te 60fps w dzisiejszych czasach to naprawdę jest bieda, a nie osiągnięcie ;(
to że 60hz to kaszana to wina technologi LCD/OLED itd 60Hz na CRT to zupełnie dwa różne światy zero laga, obraz w ruchu jak żyleta nawet wywijając myszką po całym blacie.
Gdzieś w 2018, z gtx 1060, przesiadłem się z 2K na FHD. Wzrost wydajności był spory. Karta wystarczyła na kolejne 2 lata. Jakość natywnego FHD bije na głowę skalowane FHD na 2K. Być może dziś z DLSS jest to mniej problematyczne.
Jak korzystam z monitora 1080p z włączoną funkcją DLDSR w sterowniku Nvidia, skalującą wyświetlanie rozdzielczości do 1440p. Dla mnie obraz jest wyraźnie lepszy i nie mam większej potrzeby wymieniać na nowy monitor.
Ja posiadam aktualnie monitor AOC 24V2Q z Full HD i 75 Hz. Jak zacząłem testować monitory z wyższym odświeżaniem na moim kanale to dopiero złapałem się za głowę i nie mogłem uwierzyć dlaczego wcześniej nie kupiłem lepszego monitora - po prostu głupi byłem, jednak parę lat temu były droższe. Teraz się zastanawiam między AOC 24G4X Full HD z 180Hz a Q27G4X z QHD 180 Hz. Jeden testowałem monitor u siebie i spodobał mi się. Mam dylemat który wybrać. Z jednej strony wybrałbym 24 cale bo w zupełności wystarczy i jest idealny do mojego małego biurka a to tego posiadam RTX 3060 Ti oraz Ryzen 7 5700X. Z drugiej strony gdybym brał 27 cali to już bym miał na przyszłość monitor i bym nie musiał zmieniać tak szybko, jednak ilość klatek miałbym mniej w grach. Zobaczę jak dostanę ten drugi na testy to sobie porównam i wtedy zdecyduję, który mam wziąć. Pozdrawiam 🙂
Zrobiłem ten sam błąd, co Kamil - przesiadka z 1080p na 4k. Gdybym mógł cofnąć czas, to faktycznie 1440p byłoby lepszym wyborem. Teraz szkoda dobry monitor sprzedawać za półdarmo. Jednak nie jest tak źle - właściwie wszystkie gry udaje się grywalnie odpalić w 4k. Monitor ma świetną paletę barw, ale niskie odświeżanie - 60Hz, więc przy synchronizacji 60 klatek jest osiągalne na 3060Ti GDDR6X. W nowszych grach trzeba nieco zejść z ustawieniami, ale z DLSS/FSR niewiele. Obraz piękny np. w God of War, AC Valhala, Wiedźmin3 - 4k na 60Hz bez zarzutu; grywalność też. Aplikacji szczególnie wyszukanych nie używam, ale faktycznie skalowanie potrafi być irytujące.
Nie - monitor kupiłem dużo wcześniej; żeby było ciekawiej - do 1060. Jednak wówczas nie zależało mi na graniu, tylko na innym hobby - malarstwie i tu paleta barw była kluczowa (wyświetlanie obrazów, nie przetwarzanie). Później wzięło mnie trochę na giercolenie i kupiłem 3060 Ti, bo wyższe modele były w całkiem kosmicznych cenach.
Kupiłem 3 lata temu 1440p 170hz 27" do tego szeroki gamut. Zamierzam orzrz kolejne kilka lat korzystać az OLED z 240 hz 2k o proporcjach przynajmniej 21/9 nie będzie kosztować za duzo
16:30 "Czy zdarzyło się wam kiedyś podjąć złą decyzję" - tak raz kupiłem monitor 1440p 144Hz bo absolutnie wszyscy w internetach twierdzą że przesiadka z 60Hz na 144Hz dramatycznie poprawia jakość grania. Dla mnie nie zmieniło to dokładnie nic. Nie zobaczyłem żadnej różnicy(zanim ktoś napisze coś głupiego - siedzę w komputerach od lat 90 i wiem jak ustawić odswieżanie w monitorze a gpu ciągnie 120+ fps). Panel został wymieniony na 4K 60Hz i efekt wizualny był zdecydowanie lepszy. Natomiast jak powiedział autor pod koniec warto iść w 4K dopiero od 32" a ten monitor był dla mnie za duży. Koniec końców stanęło na monitorze Dell S2722DC 1440p 75Hz który mogę z całego serca polecić.
Akurat różnice widać przy 60 na 144. Przy 40-stce następuje degradacja oka, może dlatego. Nie pamiętam już co dokładnie, mam jeszcze 4 lata, ale słyszałem to już od kilku okulistów. Warto sprawdzić oczy
@@chocholatemilkshake4799 Nie zrozumiałeś - nie każdy widzi tą różnicę. Ja nie widzę. Ani teraz, mając 39 lat, ani przed laty. Tak samo nie widzę efektu 3D. Ale hej - na kompie oszczędzam prąd bo karta graficzna się nudzi no i telefon mi znacznie dłużej działa na baterii przy 60Hz🤣
@@stanisawszczypua9076 mam 2 monitory - 1440p 32 cale 165hz i 24 cale 1080p 60hz ... nie powiem że nie widzę różnicy ale szczerze zachwytu i wielkiej przepaści też nie widzę .
@@mioszk504 Wygląda na to że ktoś nie potrafii czytać ze zrozumieniem - nie każdy tą różnicę widzi. Widzę poprawę płynności między 30 a ~50 klatkami na sekundę i praktycznie wszystko powyżej jest identyczne.
A co myslisz o przesiadce z 27” 1080p na 32” 1440p? Czy lepiej pojsc juz w 32” 4k czy moze 27” 1440p? Karta obecnie to 6700xt ale przymierzam sie do zmiany na 4070 super.
ja posiadam 6700xt i 32 1440p 170hz. Karta jeszcze daje radę. Ale zależy w co się gra i jakie ma się oczekiwania. Też miałem zmieniać na 4070 super. Ale poczekam na kolejną generację. Bo póki co na wydajność nie narzekam.
@@tomaszcsmn.2640 no monitor mam juz pewnie z 10 lat. Kiedys to chyba byl taki standard, ogolnie fajne skalowanie bo na 100% dobra wielkosc jest ale czcionka troche poszarpana.
Dla mnie problemem nie jest wydajność, tylko pamięć vRAM. RTX 3080 10GB zupełnie nie radzi sobie na monitorze 3440x1440. A ja głupi dałem za nią półtorej roku temu 4500zł
O czym ty chłopie mówisz jakby w 3 minucie od razu stawiasz tezę xD Przesiadka z 24 cali full hd na 27 cali 1440p to na prawdę duża zmiana w grach zwłaszcza w teksturach lepszej jakości i obraz jest znacznie ostrzejszy.
"Naprawdę duża zmiana"?? chyba na wypasionych kartach :) Na większości kart, do płynnej rozgrywki będzie potrzebny upscaling, a to już pogorszy obraz. Może się więc nagle okazać, że obraz na monitorze 1440p, będzie bardzo podobny do tego z 1080p :)
Przy sterownikach AMD, jak się włączy wbudowany w adrenaline monitor, to wtedy można śmiało zobaczyć monitorowanie procka, karty, pamięci i FPS. Jedyny problem, jaki mi się czasem zdarza z tym wbudowanym miernikiem od AMD to to, że mi czasem nie pokazuje taktowania procka i temperatury, i muszę go resetować by poprawnie pokazał. Ja poszedłem w 4K, tyle że 28 cali, bo jednak nieco mniej miejsca było i bym się jeszcze nie zmieścił cenowo w moim zestawie, na początek 60 Hz mi w 4K styknie. Jak technologia będzie bardziej przystępna cenowo, to zmienię na coś mocniejszego.
Przesiadłem się z 25' 1080p na 32' 2160p. Moim zdaniem trochę przedobrzyłem bo ogranicza mnie karta, ale skok w ostrości i jakości obrazu jest po prostu niewyobrażalny. Chociaż mnie to aż tak nie boli bo mam pokaźną kupkę wstydu ze starszych gier do ogrania. W bardziej podbramkowych sytuacjach ratuje się FSR i zbijaniem AA na niższe ustawienia (wbrem ludowej mądrości co je możecie wyczytać w internecie AA nawet w 4k jest ciągle potrzebne, ale mniej więc ustawiam je na minimum). W ogóle temat optymalizacji ustawień pod 4k jest ciekawy bo wbrew pozorom nie zachodzi tu prosta zależność FPS4k = FPSFullHD/4.
Na moim LG 27gp850 bardzo dobrze skaluje się rozdzielczość HD. Do tego stopnia, że wygląda lepiej niż na monitorze HD. Dobra furtka tam gdzie brakuje wydajności, choć ze względu na duży rozmiar matrycy preferuję grę w trybie okienkowym 2050x1300 co pochłania tylko 10% więcej mocy niż HD. Na szczęście dzisiejsze monitory mają już dość dobry czas reakcji matrycy więc można myśleć o wymianie monitora, ale bez tego argumentu przesiadka na wyższą rozdzielczość była by nieopłacalna.
Faktycznie jeśli chodzi o wygląd systemu, aplikacji, czcionek, zmieniając z natywnej 1440p do 1080p, widać rozmycie. Jednak jak testowałem to w Baldur's Gate 3, nie zauważyłem różnicy w jakości obrazu, więc może w grach jednak inaczej to działa? Testowane na ekranie laptopa z taką samą kartą jak w filmiku (jednak wersja mobilna, więc trochę mniej wydajna, ale i tak jest OK).
Zrobiłem podobnie. Przesiadłem się z FHD 27 cali na UHD 32 cale i nigdy nie wróciłem do innej rozdzielczości natywnej monitora (nie, nie mam 4090). Utrata ostrości/jakości obrazu w grach związania z niepełnym skalowaniem do 1440P, nie jest dla mnie aż tak istotna (pewnie dlatego, że PPI dla FHD przy 27 calach i 1440P dla 32 cali jest identyczne, a monitor też sam potrafi wyostrzyć to i owo niwelując problemy niepełnego skalowania - po prostu nie zauważam różnicy). Za to UHD oferuje dużą przestrzeń roboczą i chociażby możliwość oglądania materiałów video (np. takich jak ten :P ). W skrajnych przypadkach, UHD skaluje się całkowicie do FHD (tylko PPI drastycznie niskie i trzeba siedzieć dalej ... np z PADem).
Czyli kupuję monitor 2k, zjeżdżam wszystkimi suwakami od "wspomagaczy", żeby było płynnie i w efekcie uzyskuję gorszą jakość obrazu niż na monitorze 1080p - mistrzostwo ;) 2k i 4k zarezerwowane są dla ludzi grających wyłącznie niekompetytywnie (jakkolwiek) i zaspokajają się w porywach 60 klatkami, a 1080p wiecznie żywe jest dla ludzi, którzy grają w tytuły NIEsingleplayer. Poza tym 24" to dla 95% użytkowników max jeśli chodzi o komfortowe granie z "normalnej" odległości, więc era 2k i więcej dopiero nadejdzie. Pozdrawiam, pisząc i patrząc na mój najswspanialszy XL2546K.
@@CloperflakeGram w 1440p od kilku lat i nie mam żadnego problemu z uzyskaniem 120fps. Wszystko się rozbija o to w co grasz i na jakich ustawieniach. Jeśli jesteś niewolnikiem ustawień Ultra, to trzeba brać mocne GPU i tyle. Jeśli jesteś użytkownikiem, który potrafi myśleć, to ustawisz sobie grafikę na wysoką bez widocznej utraty jakości obrazu i dostaniesz +20-30% fps w większości przypadków.
Ja wymieniałem 1080p na coś lepszego i w sumie nie mogłem się zdecydować w którą stronę iść - UWQHD 34" czy 4K 32". Ostatecznie wybrałem monitor 21:9 i nie żałuję. Jakbym wybrał ten drugi, to pewnie też bym nie żałował.
Ja mam dosyc stary PC. CPU fx8300 i RX580 8GB. Uzywam ekranu 1440p i dziala to zaskakujaco dobrze. W moim przypaku zejscie na 1080p strawia ze CPU staje sie botleneckiem i fps spada :D Ogolnie do gier jest sztos. Ale np netflix nie wspiera 1440p i czesto fiilmy wygladaja bardzo zle. Wydaje mi sie czy 1080p wygladalo by lepeij na ekranie 4k niz na 1440p ?
Przy budowie kompa jakieś 1.5 roku temu miałem ten sam dylemat. Wszyscy odradzali przejścia na 2K przy RTX 3060, ale i tak postanowiłem zaryzykować. Wszystkie gierki są całkowicie grywalne, oczywiście tytuły AAA na Ultra z RT nie przechodzą bo klatki lecą na łeb, ale realnie nie spotkałem gierki która by zmiażdżyła ten zestaw pomimo tego, że 3060 nie jest nawet stworzona do tej rozdziałki. Gry typu WoT, LoL, CS2 chodzą idealnie. Hogwarts Legacy czy Cyberpunk już gorzej bo tutaj RT musi być załączony na low, ustawienia mieszane, ale w gruncie rzeczy Ultra. Tak czy siak dla gracza, który lubi ładnie i płynnie polecałbym 1440p dopiero od 3070Ti/4070 tak, żeby nie musieć rezygnować z lepszych ustawień graficznych. Jeżeli jednak tytuły AAA nie są priorytetem to nawet na tym waflu czyli 3060 idzie grać/pracować bez żadnych problemów.
Ostanio się przesiadlem z 27 cali 1080p na 27 cali 1440p i jest MEGA. polecam jeśli macie średnio pułkową kartę graficzną. Mój RTX 4070 SUPER daje radę i kartę też polecam
No właśnie w połowie się zczaiłem, że coś tu nie tak. Nie wiem o jakiej jakości tutaj mowa, której rzekomo brakuje, ale ja zwróciłem uwagę na to, że film jest głównie na temat systemów AMD, jak podbić wydajność i ilość FPS. Dziwny tytuł filmu... Mam wrażenie, że trochę na siłę podciągnięcie tematu z oczywistą odpowiedzią pod tematykę AMD i tych dobroci, które oferuje w celu podbicia wydajności w grach ;)
Ponieważ jest sponsorowany przez AMD - zauważ, że nawet nie wypowiedział słowa NVIDIA tylko z delikatnym zastanowieniem "konkurencja od zielonych" :) Lubię oglądać filmy na temat testów i wydajności nowych technologii, ale zawsze trzeba mieć z tyłu głowy czy to jest w 100% niezależna opinia. Do Kamila i kolegów z innych kanałów nic nie mam, robią świetną robotę pokazując rzetelne testy i o to chodzi, ale zarabiać też muszą na swoje rodziny i głupio byłoby odmówić, a wnioski jaki sprzęt wybrać trzeba samemu wyciągnąć :) Niestety w tej branży nawięcej zarabia się przez dobry marketing, bo komputer ma każdy, ale niewiele osób potrafi go wybrać dla siebie w dobrym stosunku cena-wydajność pod konkretne przeznaczenie.
@@konrad3958 Właśnie ja z tego nie korzystam, tylko natywna rozdziałka :) Mam rtxa 3070 i też na razie zostaje na fhd, obczaję serie 5000 nvidii i może wtedy przeskoczę na wqhd🤔
W praktyce 1080p źle wygląda na monitorach o przekątnej większej niż 24". Poza tym w nowych grach nie ma sensu ustawiać ręcznie niższej rozdzielczości. Zamiast tego korzystaj z DLSS/FSR. W 4K DLSS w trybie Performance renderuje obraz w 1080p, ale dodatkowo jest on poprawiany przez algorytmy i wygląda znacznie lepiej niż takie ręcznie ustawione 1080p.
15 lat temu w lokalnym sklepie komputerowym rodzice kupili mi pierwszy komputer z największym monitorem jaki tam był. LG flatron w2242T, czyli 22" 1680x1050 i 60hz. Nadal na nim działam i jest wystarczający dla obecnego gtx 1650 super. W planach mam w tym roku wymienić procesor ryzen 3 3100 na 7 5800x3d. A dopiero w następnym roku zmiana monitora na 1440p.
aktualnie mam laptopa z 4060 ktory ma ekran 2k i zastanawiam sie nad wiekszym ekranem, myslalem o wielkościach 24-27 i wacham sie nad rozdzielczościa 1080p a 2k czasami pogram sobie na podzielonym ekranie wiec wiekszy ekran był by dobrym wyborem, jednak nigdy nie korzystałem z 27 cali aktualnie mam tv 40 cali 60hz full hd jednak granie na nim to udręka jest za duży / pixeloza i 60hz kłuje w oczy. czy 27 cali na 1080p był by kiepskim wyborem ? troche sie obawiam że niektóre gry nie pociągnał na 2k
ja mam 27 cali 1080p, jak dla mnie w grach i filmach bez różnicy, jedynie jak się trochę przybliżę do monitora podczas czytania tekstu to 24 wypada trochę lepiej
Jestem posiadaczem KTC H27T22 i muszę przyznać, że bardzo fajny monitor. Chyba największym jego plusem jest cena. Jednak chętnie obejrzę jego recenzję od Stilgara
Wcześniej miałem 24' w Fhd, wielkość optymalna, ale chcialem podbić rozdzielczość. Ostatecznie kupiłem 2k ale w 27'. Niby fajnie, ale choć mam go już kilka ladnych miesięcy i cały czas wydaje mi się za wielki... Czemu nie kupiłem 24' 2k? Praktycznie nieosiągalne. A jak są to w zaporowych cenach. Nie wiem czemu producenci nie oferują 24' z takimi matrycami, a już w 4k bez problemu. Pozdrawiam.
Ja też kupiłem 27 cali, ale z rozdzielczością 4K i tak samo jak dla ciebie - był dla mnie za wielki. To już nie jest monitor, a telewizor... Niekomfortowo się tego używa z tak bliskiej odległości jak się siedzi przy biurku. Bardziej męczy oczy, ciężko ogarniać to co się dzieje na rogach ekranu w grach, bo jest to po prostu zbyt duże. Na dniach wracam do 24 cali. Niestety wybór nie jest zbyt duży bo są albo delle 24 cale 1440p i 60Hz za powyżej 1000zł, albo iiyamy 1440p, 100Hz za 800zł.
Słuchajcie, ważny komunikat!
Niestety zbieg niefortunnych okoliczności spowodował, że ten film nie wygląda tak, jak wyglądać miał.
Jakość jest znacznie poniżej tego, czego od siebie oczekuję, ale w związku ze zobowiązaniami, nie mogłem nagrać go ponownie i musiał on niestety wyjść w takiej formie, w jakiej go widzicie.
Czynników było wiele, ale winą za taki rozwój sytuacji obarczam siebie, gdyż zostawiłem sobie za mało czasu na realizację filmu, który musi wyjść w określonym terminie.
Przepraszam Was za tę gorszą jakość niż zwykle. Na pocieszenie, jutro będzie film w takim standardzie, do jakiego Was przyzwyczaiłem.
Dzięki, że wpadliście i spokojnych Świąt!
Zachęcam jeszcze do subskrypcji ➡ bit.ly/3lK7CYu
I kliknięcia dzwoneczka 🔔 aby być na bieżąco z filmami.
A tutaj promka partnera odcinka i karta, której użyliśmy do testów:
Promocja ASUS ➡ pl.asus.click/Radeon_Promo
Asus TUF Gaming Radeon RX 7600 XT OC ➡ pl.asus.click/Radeon_TekTesters
Ziom - jest GIT! Jakość 4K i widać padający deszcz w CP i drobinki kurzu na podstawie monitora :D
Ale ze chodzi ci o to że musiałeś obniżyć jakoś puszczając w materiale te parę sekund z Forespoken? Jakoś dałem radę ^^ Dzięki za ciekawa analize^^
Jakbyś nic nie napisał to bym nawet nie zauważył.
Szczerze nie zwróciłem na to nawet uwagi bo merytorycznie usłyszałem to co chciałem, każdemu się może zdarzyć.
PCta mam od 1999 roku. W tym czasie najważniejszym upgradem dla mnie była przesiadka z HDD na SSD. Obecnie uważam że nastepnym kamieniem milowym sa monitory OLED
w pełni się z tobą zgodzę, monitory/tv oled to rewolucja, dziś robią tak dobre wrażenie jak plazmy w 2010-14, wspaniała jakość w każdym aspekcie
Pc mam rok krócej. Przesiadka z jedno-rdzeniowca x32 na core2duo/athlona64 x2 też dawała niezłego kopa. W warstwie oprogramowania pozytywnie również odebrałem przesiadkę z w95/98 na linię nt (2000/xp). Co do oledów, poczekamy jak stanieją, przestaną się wypalać. Producenci jeszcze przy tym grzebią :) Dyski ssd o pojemności poniżej 120gb padały swego czasu jak muchy. I o ile to nie magazyn na dane to można brać :)
@@marcinguzy Każda technologia ma wady wieku dziecięcego. Rzeczywiście w kwestii software, to prawda. Pamiętam jak wskoczyłem na 2000 a następnie XP to była zmiana. Co do procesorów to nie podzielam zdania. Na początku nikt nie potrafił wykorzystać ani 2 rdzeni, ani x64 - przynajmniej w grach :D. Zdaje sobie sprawę z wszystkich wad OLEDów, ale jak to mawiają, trumna nie ma kieszeni. Mam troszke grosika co mogłem przeznaczyć na OLED i padło na LG 27GS95QE-B. Monit ma wady, ale na serio jest wart każdej wydanej złotówki....
a co ten oled, zwykłe przesycone gówno które sie wypala, jedyne co ten ekran ma do zaoferowania to dobra czerń bo kolory to dla fanów przesyconych gówien typu samsung, dobry ips ma znacznie bardziej referencyjny obraz jak oled. No ale ludzie widocznie to lubią.
@@MikeleKonstantyFiedorowiczIV Chyba kpisz. OLED-y najczęściej mają pełne pokrycie różnych standardów modeli kolorów. A ich czerń to jest to, co sprawia, że są nieporównywalnie lepsze od LED'ów - nieskończony kontrast.
Ten 1 ziomek co kupił monitor 2k żeby mu sie lepiej z 720p skalowało
😆😆😆
Ja z rtx 3090 oraz monitor lg24gm77 tn
To jest dobry trop. Miałem wątpliwości przy kupowaniu, a tak to i na starość da radę
A no tak 720p razy dwa to 1440p
Ja bym tak zrobił
no ja niestety zostanę jeszcze długo w 1080p, mniejsze wymagania sprzętowe sprawiają że rzadziej muszę wymieniać części, jak się przestawię to raczej na 4k, a to jeszcze potrwa
No z 15 lat :P
2k to jest sweet spot
W tych czasach to kazdy średniej jakość sprzęt uciagnie ci 1440p
@@krzys0302 Mój rx 6600 z wielkim trudem..
@@natenexx9974 Średni nie budżetowy ...
UWQHD 120Hz od lat, ciężko przesiąść się na inne proporcje i rozdzielczość.
Kto choć przez chwilę używał panoramy, już nie wróci do klasycznych proporcji.
@@mbwrobel dlatego ja nie używam
Tak na prawdę, to jak się ma porządny monitor pod 1080p, to nie ma żadnej potrzeby przesiadać się na 1440p. Dziwne też wydaje mi się, kupowanie nowego monitora 1440p, tylko po to, żeby używać upscalingu w grach, zamiast natywnej rozdzielczości. To prowadzi do pogorszenia obrazu, zamiast do jego poprawienia. W efekcie, dostajemy taki sam obraz, jak na dobrym monitorze 1080p, tylko teraz nasz nowy monitor jest znacznie droższy... normalnie deal życia :)
Nawet upscalowane 1440p wygląda znacznie lepiej niż 1080p. Zwłaszcza w nowych grach, gdzie często domyślną metodą AA jest TAA i nie da się tego wyłączyć, wtedy DLSS wręcz poprawia jakość obrazu względem rozdzielczości natywnej z TAA.
@@stark_2991 Wciąż, różnica w obrazie, nie jest zbyt duża, zwłaszcza jeśli masz monitor 1080p z wyższej półki. Oczywiście przesiadka ma sens, jeśli masz wypasioną kartę graficzną, ale jak masz coś pokroju RX 6600/RTX 2060/RTX 3060 to taka przesiadka nie ma sensu. Poza tym, dochodzi koszt samego monitora, porządny monitor pod 1440p tani nie jest, tak na oko, 2x droższy od 1080p (zwłaszcza jak chcesz z wysokim odświeżaniem), pytanie więc, czy za 2x wyższą cenę, dostajesz 2x lepszy obraz?? Oczywiście, że nie, więc po co przepłacać :)
No chyba że masz kupe kasy do wydania, to się baw, nikt ci nie broni :D
@@gureedoteam5632 Ty jesteś teoretykiem, a ja praktykiem. Zrozumiesz kiedy w końcu kupisz taki monitor.
@@stark_2991 Mam bardzo fajnego Philipsa 1080p, a brat LG 1440p, więc tak, mam porównanie :)
@@gureedoteam5632 Więc mamy po prostu inne opinie na ten sam temat.
W tym roku przesiadłem się z monitora 768p TN na 1080 IPS 165 Hz. Różnica jest kolosalna.
Nie sądziłem, że tyle tracę nawet jako niedzielny gracz. Siedzę 6-8h w tygodniu i za każdym razem jesten zajarany graniem.
W sterowniku można włączyć licznik klatek i ten wyświetla poprawną podwojoną liczbę klatek. Sprawdzone na RX 6700XT. Temat był szeroko omawiany na kanale Ancient Gameplays.
Generator klatek nie poprawia wydajności, tylko poprawia uczucie płynności. ;)
Za to kosztem ghostingu i responsywnosci
raportuje się za pomocą nakładki wydajności radeon "ctrl shift o" w sterowniku w zakładce wydajność/wskaźniki->śledzenie ustawiasz co ma raportować i jak
Właśnie miałem pisać żeby tak spróbować, z poziomu sterownika.
Ja się przesiadłem z 1920x1080p na 2560x1080p. Dla mnie fullhd na monitorze jest wystarczające, a zawsze mam dodatkowe FPS na zwiększenie detali w grach.
Czy windows też bedzie w wyzszej rozdzialce alboprzeglafarka... czy tylko gry ?
@@bertold-ms1oo Windows tez
też o tym myślę. W wyścigach ważniejsze są fps niż rozdzielczość. Chcę monitor 34 cale ale 2560x1080p
Moim najgorszym wyborem była przesiadka z FULL HD 60Hz na 4K 60Hz
Rozwiń
@@absurdchaos2759 nie ma chłop na częsci
@@absurdchaos2759 Może dlatego że nigdy nie ma więcej jak 60 klatek
U mnie za 5 miesięcy wejdzie 7 rok z 2560 x1440 i 144 Hz na IPS.
Zmieniłem na wyższą rozdzielczość, ze względu by nie zmieniać platformy LGA 1150 (Core 4 gen. z czasem z i5 do i7 4770K).
Z Vegą 64 LC, monitor jest z Adaptive Sync, a że w 2017 r karty nVidia nie obsługiwały tej funkcji i dlatego wybrałem najmocniejszą kartę od AMD.
Gry do 2020 r. działały całkiem, ale w nowszych zmiana ponad rok temu na Zen 5 z wspominaną kartą zyskałem sporo, bo w końcu 4 rdzenie obecnie to mało w porównaniu do sześciu.
Na 6 lecie zmiany monitora w ubiegłym roku zmieniłem i kartę graficzną, bo Vega 64 LC (odpowiednik RX 6600 /RTX 2060 S) obecnie nadaje się do 1920 x 1080 na ustawieniach średniowysokich.
Co do przyszłości w 4 k raczej nie będę wchodził, ze względu na wymagania od karty graficznej w takiej rozdzielczości.
Ja ostatnio wymieniłem na 27" 1440p 240hz. Przesiadka z esportowego Benq z matrycą TN i powiem że robi robotę, zarówno w esportowych gierkach jak i tych Triple A
Jaki monitor wziales? Bo wlasnie zastanawiam sie nad kupnem Samsunga Odyssey g7 VA 240hz 27" curved
@@tigerLDZ Gigabyte M27QX
@@tigerLDZja posiadam ten monitor tylko w wersji 32" od prawie roku. Jestem bardzo zadowolony i polecam w 100%. Jedyne do czego moge sie przyczepic to system ktory lubi sie czasem ladnie pobugowac lub zaczac lagowac.
Spędziłem większość swojego życia na 1080p/60hz i kilka miesięcy temu skusiłem się na pewien monitor od LG 1440p/144hz polecany przez Stilgara. Nawet nie miałem pojęcia, że właśnie tego trzeba mi było. Dla moich oczu przeskok z FHD na WQHD i wyższe odświeżanie był istną przepaścią i w jakości obrazu zakochałem się już w pierwszych godzinach użytkowania. Nie wyobrażam sobie teraz zejść niżej.
a rozmiar?
@@danielkowalski7527 27 cali
Stawiam, że to był lg ultragear 27-850pb 😂
@@Lodiczek bardzo blisko, 27GN800P-B. 850 ma odświeżanie 165hz
@@Butcher_666 a rozmiar drugiego? ;-D
Info o przesiadce dalej niepełne ;P
Nie wyobrażam sobie powrotu do 1080p. Nawet jak karta nie daje rady natywnie w 1440p to "teguje" sobie dlss w trybie jakość gdzie nie widzę absolutnie żadnej różnicy. Dlss i frame gen to fantastyczne opcje, ale szkoda, że są traktowane jako tania optymalizacja niż faktycznie pomoc do pchnięcia grafiki dalej.
UWQHD to jest coś do czego się mega przyzwyczaiłem i myślę że powrót do wąskich monitorów może być bolesny :)
Aktualnie na 21/9 3440/14440 IPS polecam , sterownik Radeonów ma wbudowany własny licznik klatek i wszystkie wykresy i wszystko działa pozdrawiam
O patrz, zapomniałem, faktycznie 😁
A jak Ci się na 21:9 siedzi? Gra wszystko?
do tego jest jeszcze oprócz FSR wbudowany w sterownik FMF
@@TekTesters21:9 jako pulpit roboczy super. 35" i to trochę za duży monitor do pracy z tekstem zagęszczenie punktów na cal w granicach 100 to już dolna granica komfortu, w grach elegancko choć fakt rozdzielczość pożera FPSy. Generalnie to rozdzielczość raczej pod generację 40** a w zasadzie 50** u Nvidi. Mimo to polecam bo 4k to za dużo dla obecnych kart średniego i średniego niższego segmentu.
Co do rozdzielczości w jakiej siedzę to jest to fullHD i nie zmienię jej zapewne nigdy, bo nie zmienię monitora na większy, a to z powodu powikłań po jaskrze, przez co mam mocno zawężone pole widzenia i co mi z większej powierzchni roboczej, jak widzieć będę tylko powiedzmy środek ekranu (no chyba, ze są monitory 21,5 cala 1440p to ja poproszę dwa na wynos).
Co do zmian w wielkości to tak - popełniłem keidyś taki błąd, ale jeszcze w dawnych czasach, mianowicie przesiadając się z monitora 640x480 od razu na 1024x768, bo i specyfikacja komputera dawała radę max z 800x600, co nie do końca idealnie się skalowało. Ale i tak zmiana w jakości obrazu była odczuwalna, bo po pierwsze byłą to przesiadka z CRT na LCD i biurko było mi wdzięczne, bo mu odpadło z 8 kilo obciążenia jakoś, a i miejsca zrobiło się więcej, do tego przekątna z 15 cali podskoczyła do 17, no i nowy monitor obsługiwał 75 Hz zamiast 60 na starym. Niemniej pełnię jego możliwości zobaczyłem dopiero ze 2 lata później, gdy już natywnie grywałem w 1024x786 majac inną jednostkę.
Najmniej to 24 cale dla 1440p jak sam szukałem, z czego to były tylko 2 modele.
@@Smok1125 no właśnie. A to już za duży dla mnie
Ja z kolei mam małe biurko i też nie mogę poświęcić na nim tyle miejsca na duży monitor i też ubolewam że rynek 19 i 22 cale się praktycznie skończył
@@xflashu8075 kup sobie dokręcane do blatu ramię i powieś na montażu vesa, choćby i 32 cale. Wielkość biurka to mały problem
@@nihilistycznyateista cena tego to też dla mnie problem
Zaczynałem od (1996) 15` CRT wyciągał w 1024×768 100Hz, potem 19` TNT 75Hz w 1440×900, a następnie FHD w 27`TNT to był miód malina i to samo mam teraz na 32` 1440pVA zakrzywiony (oba monitory 144Hz). Dla mnie ważna jest wielkość "punktu" i oba ostatnie spełniają moje wymagania, większa rozdzielczość na mniejszej matrycy dla mnie jest nie wygodna(nieczytelna, za drobna). Co do sprzętu wychodzę z założenia, że należy wybrać największy monitor na jaki się ma miejsce i ewentualnie z chodzić z ustawieniami graficznymi danych gier. Porównanie gry na 27`(na max detalach) z grą na 32`z (na średnich ustawieniach) ma się nijak. Wielkość obrazu i przestrzeń robocza zwala z nóg, dlatego monitor kupuję raz, a dobrze, reszta i tak będzie kilka razy wymieniana. Co do odświeżania, to jest to odczucie osobiste, ja czuję dyskomfort gdy pracuję przy 60Hz 😒, za minimum dla mnie to 75Hz, a przy 100Hz moje oko odpoczywa😊. Oczywiście w grach to już inna sprawa ale to już było dużo razy poruszane. Pozdrowienia dla Stilgara robi bardzo dobrą robotę.
Jak ktoś całe życie kupuje karty ze średniego segmentu to nie ma sensu zmieniać rozdzielczości monitora. Ładnie zostało to pokazane. Było ponad 60fps w 1080p a w 1440p ledwo 40 fps i zamiast karty za 1600 - 1700 zł trzeba kupić taką za 2000 - 2300 zł.
Akurat stoję przed wyborem monitora więc materiał idealnie siądzie
Ponieważ gram tylko w WoTa najpierw zmieniłem kartę z dwóch GTX 460 w SLi na GTX 1050Ti potem przesiadłem się z 27''LG na 32"AOC i gram w 1440p teraz mam GTX 1650(miałem 1660Ti ale zabiłem ją przypadkiem podczas wymiany platformy)....klatki zablokowane na 75fps i naprawdę rzadko spadają poniżej tej wartości...procek Ryzen 7 5700X i ram 32GB 3600.
Pierwszy monitor z 1440p 27" kupiłem w 2016 roku jak tylko zaczęły się pojawiać w rozsądnych pieniądzach. Od tamtego czasu często z bólem serca pracuje mi się na fhd jeśli sytuacja tego wymaga.
Przesiadłem się niedawno z 1080p na 1440 p. Niebo a ziemia. Serdecznie polecam. Zmieniłem kartę z rx 6600 xt na tx 7800 xt :)
Ja na tym rx 7800 xt w 4k gram. Jak dla mnie super karta. Pozdro
@@Tombitp ja tam się z tym nie zgadzam chociaż sam korzystam z rozdzielczości 1440p bo żeby sobie komfortowo pograć w tej rozdzielczości nie trzeba mieć karty z najwyższej półki bo jednak do rozdzielczości 4k przyda się karta właśnie typu 4080 ti lub 4090 które są strasznie drogie, a do 1440p wystarczy karta 4070 lub 4070 super które są kilkukrotnie tańsze, a wyglądowo 1440p przebija 1080p kilkukrotnie. Chociaż ja też nie potrzebuje takiej samej wydajności jak w 1080p bo na takich kartach jak wspomniałem (4070 i 4070 super) różnica spadku przykładowo z 140 na 90 FPS nie jest widoczna gołym okiem w grach single, a wyglądowo sporo lepiej. Szanuje jednak twoją opinie :)
@@szymonczernek2067nie ma karty 4080 ti jedynie super
Piszczą u Ciebie cewki, 7800xt?
Bo ja kupiłem Asusa, ale odesłałem przez cewki.
@@andrzejprzytua592 nic nie piszczy u mnie. Ja mam model od XFX- speedster merc 319 :)
Mam małe biurko i siedzę blisko monitora. Niedawno poskładałem nową skrzynię. 5600x sparowałem z 6750xt i mój wybór padł na FullHD. Po przesiadce z 21" 60hz na 24" 165hz przez tydzień nie mogłem się na patrzeć jak to kozacko wygląda.
No, a teraz sobie wyobraź, że istnieją osoby, które po takiej przesiadce nie maja efektu wow... Nie pojmuje tego
@@_nietypowy hmmmm mam 27" 240 hz i nie był to dla mnie efekt wow, raczej było coś w stylu no wydałem kasę i widać zmianę xD Czułbym się zawiedzony gdybym wydał kasę i nie zobaczyłbym żadnej równicy xD
@@mariuszstaron2245 efekt wow = widac róznice :P
Już dawno przesiadłem na 1440p jest mega różnica kupiłem sobie samsung odyssey g5 32" 144hz i jestem bardzo zadowolony syn też ma taki a młodszy syn ma Monitor HP 27xq 27" 144Hz i powiem że to super monitor i ma super regulacje
32 cale jak dla mnie ma lepsze PPI - bardziej ergonomiczne i komfortowe jak nie używasz skalowania do pracy.
Bardzo dobry materiał. Dzięki. Siedzę na Full HD. Przesiadka na 2K wkrótce. Ale najpierw wymiana GPU. Pozdrowienia dla Stilgara, nie crobi matriał o monitorach 27'' :)
Też niedawno przeskoczyłem na 1440p i jest fajnie !
Przerzuciłem się z 1080p na 1440p mając RX 6700 XT i jestem mega zadowolony.
Dochodzi jeszcze obsluga gsync/adaptive sync gdzie zakres zaczyna sie najczesciej od 48 fps zeby to dzialalo....A i jeszcze jest kwestia ze AOC ma w ofercie monitor 24 cale 1440p. Mysle ze to spoko opcja bo w razie czego mozna przeskoczyc na 1080p i miec standardowe 24 1080p
Będę w mniejszości, ale mi wystarcza FHD, nie lubię wysilać podzespołów. Nawet kilka miesięcy temu kupiłem Gigabyte G27F 2, ale niestety wyskoczyły jakieś kreski i będę musiał zareklamować.
kiedyś grałem na monitorze 1280x1024; przesiadka na Fhd była porównywalna do przesiadki z hdd na ssd; póki co zostanę na Fhd
Popełniłem dokładnie ten sam błąd, z 1080p 60Hz przesiadłem się na 4k 60Hz, ale naprawiłem swój błąd i przeskoczyłem na 1440p 165hz, to było już 4-5 lat temu. Teraz marzy mi się OLED coś pomiędzy rozciągniętym 1440p w proporcjach 21:9 165hz
Pozdro dla Stilgara i dla Ciebie! ;) Właśnie zbieram kasę w celu przesiadki na 1440p :) Stilgar jakiś czas temu zawrócił mi w głowie monitorem IIYAMA GCB3480WQSU-B1 34" 21:9 :D
Liczę, że moja 3070 Ti podoła:D
Ilość klatek po włączeniu afmf można zanotować włączajac z poziomu sterownika licznik fps itp
Fajny materiał Kamil jak zwykle, pozdrowionka! Ja siedzę na FHD 144 hz wraz z r7 7800x3d i rtx 4070s i tak sobie rozkminiam czy chcę przechodzić na 1440p. Moje oko przykuwa dużą uwagę do płynniejszej rozrywki w wysokim klatkarzu, więc ciężko jest mi zdecydować się czy warto przechodzić na ciut wyższą rozdzielczość kosztem niższej płynności
Nie wiem po co ci 4070S jak masz ekran full hd. Bierz 1440p, bo to co masz teraz jest bez sensu
4070ti daje idealnie radę w 1440p, więc jak najbardziej.
Typ ma kartę do 1440p i siedzi na 1080
Ja się przesiadłem z monitora IPS FHD 24' 60Hz na TV OLED 4k LG C1 48' 120Hz, przeskok niesamowity.
Ja popełniłem błąd kilka lat temu, jak wybrałem monitor FullHD 27 cali zamiast 24, i co prawda do teraz mi służy, ale pluję sobie w brodę i następny będzie o rozdzielczości 1440p 27 cali/zaszaleję i wezmę 4K 32 cale. Wesołych i spokojnych świąt!
PS Pozdro dla Stilgara ✌️
Poniekąd można powiedzieć że każda karta jest do FullHD bo tylko chyba 4090 i 7900 są wstanie dać natywny obraz 4k itd w rozsądnym klatkażu. Do tej pory gdy włączam DLSS czuje się oszukiwany. W metro exodus na DLSS niebyłe w stanie korzystać z dziennika bo napisy były rozmazane. Natywna rozdzielczość to natywna rozdzielczość.
4080 też daje radę, tylko w niektórych grach dałem limit na 60fps, żeby nie było dużych skoków
TO tylko teraz tak szajba odbiła graczom. Po prostu zawsze cięło się jakieś ustawienia graficzne, albo były chrupnięcia.
Mysle ze wszystko powyżej rtx3080ti. Wiadomo sa wyjątki jak ktos chce grac w cp77 path tracing.
Gram teraz w Metro Exodus w wersji EE (gdzie jest już DLSS 2.x, w wersji podstawowej było DLSS 1. generacji - tragedia) i bardzo dobrze to wygląda, a jestem wyczulony na mydło w grach.
Na WQHD przesiadałem się od 2014 roku, wymieniając monitory do pracy i rozrywki na 2x IPS 27" + 1x VA 31.5" - Lightroom, Photoshop, postprodukcja filmów, itp. Miałem też inne monitory, łącznie z TN, ponieważ często musiałem optymalizować paletę barw. Mój dobór rozdzielczości był definiowany wielkością pikseli, dlatego do dziś dziwi mnie kupowanie monitora 21" 4K. Przesiadka z 21" czy nawet 24" FullHD na 27" QHD miała i ma nadal sens, i oczywiście widzę różnicę, stawiając dwa tej samej wielkości monitory obok siebie, o różnej rozdzielczości, ale chyba nie o to w tym wszystkich chodzi? Dla mnie czasy się zmieniły tylko o tyle, że obecnie, jeden monitor ma żona, drugi córka, trzeci druga córka, a ja... męczę się na 21" 1680x1050 i w takiej też rozdzielczości oglądałem ten film :) Do dużego się człowiek łatwo przyzwyczaja, gorzej w drugą stronę. Przed COVID-19 zrobiłem nawet doświadczenie, puszczając film z projektora na ekran ~100", gdzie pierwsza część była wyświetlona projektorem 4K skalowana ze źródła 2560x1440, a druga część tego samego filmu projektorem 1280x720. Nikt się nie połapał przy odległości 3,5m od ekranu. Tak, wiem,to akurat światło odbite więc też działa nieco inaczej. A co do ilości FPS, to i tak nie ma to większego sensu. Według najnowszych badań, z tego roku (2024), najnowszymi dostępnymi technologiami, to nawet jeśli jesteś młodą kobietą, to nic powyżej 40fps twój mózg nie zarejestruje, podobnie jak kolejnych bilionów barw. Inna sprawa, że niektóre algorytmy gier mają specjalnie tak ustawioną synchronizację, by dawać owe uczucie. Mało kto pamięta, że owe klatkaże były wymuszone częstotliwościami prądu w sieci elektrycznej, i że stosowane były zabiegi wyświetlania co drugiej linii, ale dziś nie mamy kineskopów, tylko matryce utrzymujące stan do kolejnej zmiany. The show must go on, a kasa korporacji zgadzać, więc tych, co włączają synchronizację monitorów na sztywno i ilość klatek na 50 lub 60fps, najchętniej posłali by na stos :) To samo dziś jest z aparatami, gdzie wydrukowane zdjęcie starą lustrzanką 5Mpx a nową 50Mpx jest nie do odróżnienia. Pomijam fakt, że z tego drugiego da się łatwiej uzyskać inny kadr, ale jeśli dobrze wykonamy zdjęcie, to efekt jest nie do rozpoznania nieuzbrojonym okiem. Technologia już lata temu prześcignęła próg ludzkiej fizyczności, a czymś trzeba napędzać konsumpcjonizm.
Posiadam RX 6700XT, kartę na której spokojnie mogę zagrać w 1440p, ale niestety z racji małej przestrzeni roboczej jestem zmuszony grać na 24" monitorze FullHD 75Hz. Ta rozdzielczość jest dla mnie w pełni wystarczająca i póki co nie mam zamiaru przechodzić na wyższą.
11:59 to nie mozna bylo na moment włączyć wbudowanej w sterownik nakladki zeby pokazac przyrost fps? Przeciez to 2 kliknięcia w nakladce amd.
Jeśli chodzi afmf, u mnie wskakuje bez minimalizowania gry. Działa dość dobrze ale zbyt duże opóźnienie. U mnie przy ok. natywnych 60 FPS podbija do ok 120 ale przy 30 ms opóźnienia. Co jest wyczuwalne, szkoda że nie ma suwaka żeby np dokładało co 4 klatka przy mniejszych opóźnieniach. Wtedy bym używał.
Warto zaznaczyć, że w opisie technologii fluid motion jest napisane, że ilość "wygenerowanych" klatek jest poprawnie widoczna korzystając ze wskaźników z poziomu sterownika AMD. Z tego względu, korzystając np. z Rivia Tuner (instalowane z MSI Afterburner) różnice mogą być niewidoczne - co nie oznacza, że ich nie ma ;)
ja myślę że wystarczyło podać równanie że 1440p jest o ileś procent bardziej gęste niż 1080p i karta graficzna też musi być o ileś procent mocniejsza i materiał można było zrobić w 5 minut
Zależy czy zmieniasz przekątna monitora czy nie...
Bzdurki piszesz, PPI jest zależne od rozmiaru ekranu również a nie tylko rozdzielczości, można mieć takie samo PPI w monitorze 32 cale 1440p jak i 24 cale 1080p i to jest mega komfortowa kombinacja jak dla mnie, co do wydajności to tak, ale to też zależy. Taka porcja wiedzy może być jadnak dla kogoś wartościowa.
Ilość klatek nie spada proporcjonalnie do wzrostu liczby renderowanych pikseli.
nie musi być wprost proporcjonalna, wystarczy że istnieje jakaś sensowna zależność. Łatwo określić karty do 4k, karty do 2k i karty do FHD
@@gracjans815 Problem w tym, że nie istnieje. W niektórych grach spadek liczby klatek (na tych samych ustawieniach i na tym samym GPU) w 1440p wzgledem 1080p wynosi 20%, a w innych 40 czy 50%.
Zakup dużego monitora 4k do filmów i zmiana rozdzielczości w grach na fhd czy 2k ma sens czy nie jest to dobre rozwiazanie? Pytam bo widziałem ,że sobie zmieniłeś w cyber punku rozdziałkę i bez problemu śmiga , więc skoro kupujemy monitor na lata to zakup takiego 4k może być wyborem właśnie na lata tak?
Na początku filmu powiedziałeś że lubisz serię 7600 od amd. A co powiesz na temat karty również od amd ale 6750xt ? Powoli zbieram części do swojego nowego PC i zastanawiam się nad tymi dwiema kartami. W testach 6750 wypada lepiej ale jest już leciwą konstrukcją, myślisz że warto iść w ten model ? Pozdrawiam.
Na pewno lepiej kupić niż 7600 XT.
AMD w przeciwieństwie do Nvidii oferuje najnowsze technologie także dla starszych kart.
ja jako glowny monitor mam 34" 21:9 3440x1440, nad nim dodatkowy 22calowy 16:9 1920x1080 i z boku 29" 9:21 1080x2560 (21:9 1080p w pionie)
Świetny i bardzo ciekawy film, aż zasubskrybowałem twój kanał👍Planuję kupić monitor 1440p 27 cali, aktualnie używam samsunga 24 cale 1080p. 27 cali 1440p to dla mnie takie optimum jeśli chodzi o monitory, większego nie potrzebuję. Pozdrawiam Stilgara!
Jak masz porządny monitot 1080p, to przesiadka na 1440p, może być nieco rozczarowująca. Te rozdzielczości nie różnią się aż tak bardzo :)
@@gureedoteam5632 co Ty gadasz różnica między 1440 a 1080p jest ogromna ;) dla mnie 1080p już nawet na 24 calowym ekranie jest niegrywalne bo mogę liczyć piksele na placach jednej ręki 😅
@@fronttliner01 to masz głowę 10 cm od monitora albo taką chujową matrycę
kiedy wybielisz monitor crt ?
Chyba podoba mi się taki, jaki jest teraz
Zamówiłem matryce do laptopa która zalałem . Ta okazała sie 1440 p . Obraz jest o niebo lepszy ale FPSy spadły i to o 1/4 . Wcześniej miałem 1080. Karte w lapku mam GTX 1060 i daje rade . CS GO około 110 kl/s na wysokich.
Przesiadłem się z 1080 Full HD na 4K. A jak zobaczyłem tą ostrość obrazu w grach jak np. Wiedźmin 2 to się zakochałem.
Dokładnie, wielu się nie przesiada bo nie wie co traci.
@@ukasz7073 Większość sie nie przesiada na 4k bo by im sie piekarnik zrobił z komputera
1440p nie ma sensu jeśli tylko to ma nam się zmienić. Meine kolega miał FHD / 60Hz. Nie pytajcie mnie nie wiem dlaczego, przesiadł się na QHD / 165Hz. To wtedy miało sens (Choć ma na tyle silnego kompa że mógłby i 4K). W takim wypadku ma to jak najbardziej rację bytu ale jeśli mamy tylko zmienić rodzielczość to przepłacanie hajsu. Lepiej iść do burdelu i się zadowolić niż trwonić pieniądze.
Hardware w mojej ocenie nie jest gotowy na 4k. Również siedzę na 1440p i dla tej rozdzielczości optymalna wydaje się moja GPU tj. 7900xtx. Dopiero na tego rodzaju sprzęcie jestem w stanie dobić fps do możliwości monitora (165hz), a i to w niektórych tytułach okupione jest niska kultura pracy GPU. Na tej właśnie podstawie twierdzę, że na najnowsze tytuły w 4k, hardware nie jest gotowy. Cieszę się że przy zakupie monitora wybrałem 1440p, zamiast wyższej rozdzielczości, bo bym się zwyczajnie męczył i wkurzał, że mam zbyt słaby sprzęt. Mimo że jest to najlepszy sprzęt jaki obecnie mogę kupić od AMD. Z tego powodu wkurza mnie marketing producentów kart, te 60fps w dzisiejszych czasach to naprawdę jest bieda, a nie osiągnięcie ;(
to że 60hz to kaszana to wina technologi LCD/OLED itd 60Hz na CRT to zupełnie dwa różne światy zero laga, obraz w ruchu jak żyleta nawet wywijając myszką po całym blacie.
Hey... jak masz monitor 4k to może takie porównanie - skalowane 4k z trybu wydajność (50% czyli 1080p) do natywnego 1080p. Jakie róznice w wydajności?
Gdzieś w 2018, z gtx 1060, przesiadłem się z 2K na FHD. Wzrost wydajności był spory. Karta wystarczyła na kolejne 2 lata. Jakość natywnego FHD bije na głowę skalowane FHD na 2K. Być może dziś z DLSS jest to mniej problematyczne.
ja siedzę na 1080p i narazie nie mam zamiaru zmieniać p jak już to przesiadłbym się z 144hz na 360hz ale też na 1080p
Jak korzystam z monitora 1080p z włączoną funkcją DLDSR w sterowniku Nvidia, skalującą wyświetlanie rozdzielczości do 1440p. Dla mnie obraz jest wyraźnie lepszy i nie mam większej potrzeby wymieniać na nowy monitor.
Co to masz za wyimaginowane problemy z 4K 42"-48", że musiałeś zejść do mikrusa 1440p ?
Ja posiadam aktualnie monitor AOC 24V2Q z Full HD i 75 Hz. Jak zacząłem testować monitory z wyższym odświeżaniem na moim kanale to dopiero złapałem się za głowę i nie mogłem uwierzyć dlaczego wcześniej nie kupiłem lepszego monitora - po prostu głupi byłem, jednak parę lat temu były droższe. Teraz się zastanawiam między AOC 24G4X Full HD z 180Hz a Q27G4X z QHD 180 Hz. Jeden testowałem monitor u siebie i spodobał mi się. Mam dylemat który wybrać. Z jednej strony wybrałbym 24 cale bo w zupełności wystarczy i jest idealny do mojego małego biurka a to tego posiadam RTX 3060 Ti oraz Ryzen 7 5700X. Z drugiej strony gdybym brał 27 cali to już bym miał na przyszłość monitor i bym nie musiał zmieniać tak szybko, jednak ilość klatek miałbym mniej w grach. Zobaczę jak dostanę ten drugi na testy to sobie porównam i wtedy zdecyduję, który mam wziąć. Pozdrawiam 🙂
Zrobiłem ten sam błąd, co Kamil - przesiadka z 1080p na 4k. Gdybym mógł cofnąć czas, to faktycznie 1440p byłoby lepszym wyborem. Teraz szkoda dobry monitor sprzedawać za półdarmo. Jednak nie jest tak źle - właściwie wszystkie gry udaje się grywalnie odpalić w 4k. Monitor ma świetną paletę barw, ale niskie odświeżanie - 60Hz, więc przy synchronizacji 60 klatek jest osiągalne na 3060Ti GDDR6X. W nowszych grach trzeba nieco zejść z ustawieniami, ale z DLSS/FSR niewiele. Obraz piękny np. w God of War, AC Valhala, Wiedźmin3 - 4k na 60Hz bez zarzutu; grywalność też. Aplikacji szczególnie wyszukanych nie używam, ale faktycznie skalowanie potrafi być irytujące.
Kupiłeś monitor 4k do 3060 ti ? :)
Nie - monitor kupiłem dużo wcześniej; żeby było ciekawiej - do 1060. Jednak wówczas nie zależało mi na graniu, tylko na innym hobby - malarstwie i tu paleta barw była kluczowa (wyświetlanie obrazów, nie przetwarzanie). Później wzięło mnie trochę na giercolenie i kupiłem 3060 Ti, bo wyższe modele były w całkiem kosmicznych cenach.
W każdym razie w grach grafika w 4k z obniżonymi detalami i tak jest lepsza, niż w 1440p z maksymalnymi - Blacku kiedyś robił takie porównanie.
Kupiłem 3 lata temu 1440p 170hz 27" do tego szeroki gamut. Zamierzam orzrz kolejne kilka lat korzystać az OLED z 240 hz 2k o proporcjach przynajmniej 21/9 nie będzie kosztować za duzo
16:30 "Czy zdarzyło się wam kiedyś podjąć złą decyzję" - tak raz kupiłem monitor 1440p 144Hz bo absolutnie wszyscy w internetach twierdzą że przesiadka z 60Hz na 144Hz dramatycznie poprawia jakość grania. Dla mnie nie zmieniło to dokładnie nic. Nie zobaczyłem żadnej różnicy(zanim ktoś napisze coś głupiego - siedzę w komputerach od lat 90 i wiem jak ustawić odswieżanie w monitorze a gpu ciągnie 120+ fps). Panel został wymieniony na 4K 60Hz i efekt wizualny był zdecydowanie lepszy. Natomiast jak powiedział autor pod koniec warto iść w 4K dopiero od 32" a ten monitor był dla mnie za duży. Koniec końców stanęło na monitorze Dell S2722DC 1440p 75Hz który mogę z całego serca polecić.
Akurat różnice widać przy 60 na 144. Przy 40-stce następuje degradacja oka, może dlatego. Nie pamiętam już co dokładnie, mam jeszcze 4 lata, ale słyszałem to już od kilku okulistów. Warto sprawdzić oczy
@@chocholatemilkshake4799 Nie zrozumiałeś - nie każdy widzi tą różnicę. Ja nie widzę. Ani teraz, mając 39 lat, ani przed laty. Tak samo nie widzę efektu 3D. Ale hej - na kompie oszczędzam prąd bo karta graficzna się nudzi no i telefon mi znacznie dłużej działa na baterii przy 60Hz🤣
@@stanisawszczypua9076 mam 2 monitory - 1440p 32 cale 165hz i 24 cale 1080p 60hz ... nie powiem że nie widzę różnicy ale szczerze zachwytu i wielkiej przepaści też nie widzę .
Wygląda ba to że masz problem ze wzrokiem 60hz między 144 to jest kosmos różnica
@@mioszk504 Wygląda na to że ktoś nie potrafii czytać ze zrozumieniem - nie każdy tą różnicę widzi. Widzę poprawę płynności między 30 a ~50 klatkami na sekundę i praktycznie wszystko powyżej jest identyczne.
A co myslisz o przesiadce z 27” 1080p na 32” 1440p? Czy lepiej pojsc juz w 32” 4k czy moze 27” 1440p? Karta obecnie to 6700xt ale przymierzam sie do zmiany na 4070 super.
ja posiadam 6700xt i 32 1440p 170hz. Karta jeszcze daje radę. Ale zależy w co się gra i jakie ma się oczekiwania. Też miałem zmieniać na 4070 super. Ale poczekam na kolejną generację. Bo póki co na wydajność nie narzekam.
27 cali w 1080p to porażka, max 24 cale do 1080p
@@tomaszcsmn.2640 no monitor mam juz pewnie z 10 lat. Kiedys to chyba byl taki standard, ogolnie fajne skalowanie bo na 100% dobra wielkosc jest ale czcionka troche poszarpana.
Dla mnie problemem nie jest wydajność, tylko pamięć vRAM. RTX 3080 10GB zupełnie nie radzi sobie na monitorze 3440x1440. A ja głupi dałem za nią półtorej roku temu 4500zł
Półtorej odnosi się do rodzaju żeńskiego. Rok, to męski. Co Ty, nie umiesz odróżnić? Półtora roku!
O czym ty chłopie mówisz jakby w 3 minucie od razu stawiasz tezę xD Przesiadka z 24 cali full hd na 27 cali 1440p to na prawdę duża zmiana w grach zwłaszcza w teksturach lepszej jakości i obraz jest znacznie ostrzejszy.
"Naprawdę duża zmiana"?? chyba na wypasionych kartach :) Na większości kart, do płynnej rozgrywki będzie potrzebny upscaling, a to już pogorszy obraz. Może się więc nagle okazać, że obraz na monitorze 1440p, będzie bardzo podobny do tego z 1080p :)
@@gureedoteam56321440p z dlls quality wyglada duzo lepiej niz 1080p native : )
@@Rajd3rs To zależy, jak masz dobrej jakości monitor pod 1080p, to różnica owszem będzie, ale niewielka :)
@@gureedoteam5632Zamiast się mądrzyć może kup sobie takie monitory i porównaj xD
@@Rajd3rs Nie muszę, mam monitor Philipsa 1080p, a brat LG 1440p, więc mam porównanie :)
Bardzo fajny i pomocny materiał wesołych świąt życzę Pozdrawiam
Alt + shift + g szybciej włączysz afmf i działa w locie w każdej chwili a w sterowniku masz zakładkę do śledzenia wydajności
Przy sterownikach AMD, jak się włączy wbudowany w adrenaline monitor, to wtedy można śmiało zobaczyć monitorowanie procka, karty, pamięci i FPS. Jedyny problem, jaki mi się czasem zdarza z tym wbudowanym miernikiem od AMD to to, że mi czasem nie pokazuje taktowania procka i temperatury, i muszę go resetować by poprawnie pokazał. Ja poszedłem w 4K, tyle że 28 cali, bo jednak nieco mniej miejsca było i bym się jeszcze nie zmieścił cenowo w moim zestawie, na początek 60 Hz mi w 4K styknie. Jak technologia będzie bardziej przystępna cenowo, to zmienię na coś mocniejszego.
Dobre pytanie - a czy warto używać mikroskopu zamiast okularów ???
Pytanie nie powinno być "czy warto" tylko czy się stać.
Za te pieniądze możesz zainwestować w lepszy sprzęt, więc pytanie jest słuszne.
Dzięki za info😊
15:50 Nie wiem jak inni ale ja siedzę prosto przed monitorem pod kątem 90 stopni.
Ja korzystam z monitora 4k od czasów GTX 1080 TI.
Przesiadłem się z 25' 1080p na 32' 2160p. Moim zdaniem trochę przedobrzyłem bo ogranicza mnie karta, ale skok w ostrości i jakości obrazu jest po prostu niewyobrażalny. Chociaż mnie to aż tak nie boli bo mam pokaźną kupkę wstydu ze starszych gier do ogrania. W bardziej podbramkowych sytuacjach ratuje się FSR i zbijaniem AA na niższe ustawienia (wbrem ludowej mądrości co je możecie wyczytać w internecie AA nawet w 4k jest ciągle potrzebne, ale mniej więc ustawiam je na minimum). W ogóle temat optymalizacji ustawień pod 4k jest ciekawy bo wbrew pozorom nie zachodzi tu prosta zależność FPS4k = FPSFullHD/4.
JA NA 1440P (144/165 HZ) TO PRZESIADŁEM SIE JUŻ DOBRE 5 LAT TEMU ;D
Gram w 1080p. Uważam, że jest to optymalna rozdzielczość do grania jak dla mnie.
Monitor to LG 22MP58VQ-P.
Pozdrawiam
w cp2077 nie ma sensu używać FSR gdy masz XESS, który jest akurat jedną z lepszych implementacji tej technologi
Na moim LG 27gp850 bardzo dobrze skaluje się rozdzielczość HD. Do tego stopnia, że wygląda lepiej niż na monitorze HD. Dobra furtka tam gdzie brakuje wydajności, choć ze względu na duży rozmiar matrycy preferuję grę w trybie okienkowym 2050x1300 co pochłania tylko 10% więcej mocy niż HD. Na szczęście dzisiejsze monitory mają już dość dobry czas reakcji matrycy więc można myśleć o wymianie monitora, ale bez tego argumentu przesiadka na wyższą rozdzielczość była by nieopłacalna.
Faktycznie jeśli chodzi o wygląd systemu, aplikacji, czcionek, zmieniając z natywnej 1440p do 1080p, widać rozmycie. Jednak jak testowałem to w Baldur's Gate 3, nie zauważyłem różnicy w jakości obrazu, więc może w grach jednak inaczej to działa? Testowane na ekranie laptopa z taką samą kartą jak w filmiku (jednak wersja mobilna, więc trochę mniej wydajna, ale i tak jest OK).
Zrobiłem podobnie. Przesiadłem się z FHD 27 cali na UHD 32 cale i nigdy nie wróciłem do innej rozdzielczości natywnej monitora (nie, nie mam 4090). Utrata ostrości/jakości obrazu w grach związania z niepełnym skalowaniem do 1440P, nie jest dla mnie aż tak istotna (pewnie dlatego, że PPI dla FHD przy 27 calach i 1440P dla 32 cali jest identyczne, a monitor też sam potrafi wyostrzyć to i owo niwelując problemy niepełnego skalowania - po prostu nie zauważam różnicy). Za to UHD oferuje dużą przestrzeń roboczą i chociażby możliwość oglądania materiałów video (np. takich jak ten :P ). W skrajnych przypadkach, UHD skaluje się całkowicie do FHD (tylko PPI drastycznie niskie i trzeba siedzieć dalej ... np z PADem).
Czyli kupuję monitor 2k, zjeżdżam wszystkimi suwakami od "wspomagaczy", żeby było płynnie i w efekcie uzyskuję gorszą jakość obrazu niż na monitorze 1080p - mistrzostwo ;) 2k i 4k zarezerwowane są dla ludzi grających wyłącznie niekompetytywnie (jakkolwiek) i zaspokajają się w porywach 60 klatkami, a 1080p wiecznie żywe jest dla ludzi, którzy grają w tytuły NIEsingleplayer. Poza tym 24" to dla 95% użytkowników max jeśli chodzi o komfortowe granie z "normalnej" odległości, więc era 2k i więcej dopiero nadejdzie. Pozdrawiam, pisząc i patrząc na mój najswspanialszy XL2546K.
W 2k to grałem w 2015r
@@jakubek1511podziwiam są masochizm, dla mnie gra zaczyna się od 120fps
@@Cloperflake dlatego dalej zapierdalasz w minekrafta lub cs go.
@@marcinm2767w Minecrafta to raczej mój syn, ja jestem za duży na takie zabawki, ale miło, że Ty znasz ;)
@@CloperflakeGram w 1440p od kilku lat i nie mam żadnego problemu z uzyskaniem 120fps. Wszystko się rozbija o to w co grasz i na jakich ustawieniach. Jeśli jesteś niewolnikiem ustawień Ultra, to trzeba brać mocne GPU i tyle. Jeśli jesteś użytkownikiem, który potrafi myśleć, to ustawisz sobie grafikę na wysoką bez widocznej utraty jakości obrazu i dostaniesz +20-30% fps w większości przypadków.
Ja wymieniałem 1080p na coś lepszego i w sumie nie mogłem się zdecydować w którą stronę iść - UWQHD 34" czy 4K 32".
Ostatecznie wybrałem monitor 21:9 i nie żałuję. Jakbym wybrał ten drugi, to pewnie też bym nie żałował.
Ja mam dosyc stary PC. CPU fx8300 i RX580 8GB. Uzywam ekranu 1440p i dziala to zaskakujaco dobrze. W moim przypaku zejscie na 1080p strawia ze CPU staje sie botleneckiem i fps spada :D Ogolnie do gier jest sztos. Ale np netflix nie wspiera 1440p i czesto fiilmy wygladaja bardzo zle.
Wydaje mi sie czy 1080p wygladalo by lepeij na ekranie 4k niz na 1440p ?
A jak wyglada sytuacja z dlss w grze ktora tego nie ma? W sterownikach nvidii chyba tez jest opcja wlaczenia.
Przy budowie kompa jakieś 1.5 roku temu miałem ten sam dylemat. Wszyscy odradzali przejścia na 2K przy RTX 3060, ale i tak postanowiłem zaryzykować. Wszystkie gierki są całkowicie grywalne, oczywiście tytuły AAA na Ultra z RT nie przechodzą bo klatki lecą na łeb, ale realnie nie spotkałem gierki która by zmiażdżyła ten zestaw pomimo tego, że 3060 nie jest nawet stworzona do tej rozdziałki. Gry typu WoT, LoL, CS2 chodzą idealnie. Hogwarts Legacy czy Cyberpunk już gorzej bo tutaj RT musi być załączony na low, ustawienia mieszane, ale w gruncie rzeczy Ultra. Tak czy siak dla gracza, który lubi ładnie i płynnie polecałbym 1440p dopiero od 3070Ti/4070 tak, żeby nie musieć rezygnować z lepszych ustawień graficznych. Jeżeli jednak tytuły AAA nie są priorytetem to nawet na tym waflu czyli 3060 idzie grać/pracować bez żadnych problemów.
13:50 w Cyberbuga77 jeszcze nie grałem, ale to co się tam dzieje z drogą to jakaś masakra
u mnie nie ma takiego widocznego doczytywania tekstur
Przesiadłem się dwa lata temu na 4K OLED i już nie ma powrotu.
Moja historia to 576p, 768 CRT, 1050p LCD, 1440p 144HZ, a teraz 4K 120Hz.
Ja tam mam monitor 24 cale i 2k i jest kozakiem w grach i jak codziennym użytku
Ostanio się przesiadlem z 27 cali 1080p na 27 cali 1440p i jest MEGA. polecam jeśli macie średnio pułkową kartę graficzną. Mój RTX 4070 SUPER daje radę i kartę też polecam
Zrobiłem podobnie tyle że na 32" 1440p bo chciałem większy monitor a 4k dla 4070 to sporo za dużo
Podglad klatek , z FG zapewnia tylko panel z oprogramowania sterownika amd. U mnie to ctrl+shift+O
Dla mnie różnica kolosalna 1080 na 24’ vs 1444 na 27’ a co dopiero 4K na 32 muszę wymienić
Oj tak a jaka różnica w cenie komputera, ona musi wymiatać... Portfel 😂
@@Tomkow_80 niestety tak ..😅
No właśnie w połowie się zczaiłem, że coś tu nie tak. Nie wiem o jakiej jakości tutaj mowa, której rzekomo brakuje, ale ja zwróciłem uwagę na to, że film jest głównie na temat systemów AMD, jak podbić wydajność i ilość FPS. Dziwny tytuł filmu... Mam wrażenie, że trochę na siłę podciągnięcie tematu z oczywistą odpowiedzią pod tematykę AMD i tych dobroci, które oferuje w celu podbicia wydajności w grach ;)
Ponieważ jest sponsorowany przez AMD - zauważ, że nawet nie wypowiedział słowa NVIDIA tylko z delikatnym zastanowieniem "konkurencja od zielonych" :) Lubię oglądać filmy na temat testów i wydajności nowych technologii, ale zawsze trzeba mieć z tyłu głowy czy to jest w 100% niezależna opinia. Do Kamila i kolegów z innych kanałów nic nie mam, robią świetną robotę pokazując rzetelne testy i o to chodzi, ale zarabiać też muszą na swoje rodziny i głupio byłoby odmówić, a wnioski jaki sprzęt wybrać trzeba samemu wyciągnąć :) Niestety w tej branży nawięcej zarabia się przez dobry marketing, bo komputer ma każdy, ale niewiele osób potrafi go wybrać dla siebie w dobrym stosunku cena-wydajność pod konkretne przeznaczenie.
Pomimo 4060Ti postanowiłem zostać w 1080p i grać pod kurek z klatkami, a że IIyama dała fajny model G-Mastera za 499zł to nie wahałem się długo.
Pomimo, że co? Przecież to za słaba karta do 1440
@@PulserTrance można uruchomić dlss i frame generator ale wolałem właśnie zostać w 1080 :)
@@konrad3958 Właśnie ja z tego nie korzystam, tylko natywna rozdziałka :) Mam rtxa 3070 i też na razie zostaje na fhd, obczaję serie 5000 nvidii i może wtedy przeskoczę na wqhd🤔
Im wyższe zagęszczenie pikseli tym wyższa ostrość. Monitor 1440p w 24 calach będzie ostrzejszy niż 1440p w 27 calach
Dokladnie. Mialem 32 cale 2k i tera mam 32 cale 4k. Nie ma porownania wogole. Ale na 27 calach 2k juz spoko bo tez mialem
A czy na monitorze 4k ma sens w grach ustawiać 1080p? W teorii dobrze się skaluje ale jak jest w praktyce?
W praktyce 1080p źle wygląda na monitorach o przekątnej większej niż 24". Poza tym w nowych grach nie ma sensu ustawiać ręcznie niższej rozdzielczości. Zamiast tego korzystaj z DLSS/FSR. W 4K DLSS w trybie Performance renderuje obraz w 1080p, ale dodatkowo jest on poprawiany przez algorytmy i wygląda znacznie lepiej niż takie ręcznie ustawione 1080p.
Posiadam Rx 7600 + Ryzen 5 5600. Warto przechodzić na 1440p? Uciągnie ten sprzęt taką rozdzielczość w najnowszych grach na maksymalnych ustawieniach?
I jak.?
15 lat temu w lokalnym sklepie komputerowym rodzice kupili mi pierwszy komputer z największym monitorem jaki tam był. LG flatron w2242T, czyli 22" 1680x1050 i 60hz. Nadal na nim działam i jest wystarczający dla obecnego gtx 1650 super.
W planach mam w tym roku wymienić procesor ryzen 3 3100 na 7 5800x3d. A dopiero w następnym roku zmiana monitora na 1440p.
U mnie od trzech lat 27 cali Aorus 1440p i 165Hz. Wcześniej 24 cale od LG z rozdziałką FHD i 75Hz.
aktualnie mam laptopa z 4060 ktory ma ekran 2k i zastanawiam sie nad wiekszym ekranem, myslalem o wielkościach 24-27 i wacham sie nad rozdzielczościa 1080p a 2k czasami pogram sobie na podzielonym ekranie wiec wiekszy ekran był by dobrym wyborem, jednak nigdy nie korzystałem z 27 cali aktualnie mam tv 40 cali 60hz full hd jednak granie na nim to udręka jest za duży / pixeloza i 60hz kłuje w oczy. czy 27 cali na 1080p był by kiepskim wyborem ? troche sie obawiam że niektóre gry nie pociągnał na 2k
ja mam 27 cali 1080p, jak dla mnie w grach i filmach bez różnicy, jedynie jak się trochę przybliżę do monitora podczas czytania tekstu to 24 wypada trochę lepiej
Jestem posiadaczem KTC H27T22 i muszę przyznać, że bardzo fajny monitor. Chyba największym jego plusem jest cena. Jednak chętnie obejrzę jego recenzję od Stilgara
Wcześniej miałem 24' w Fhd, wielkość optymalna, ale chcialem podbić rozdzielczość. Ostatecznie kupiłem 2k ale w 27'. Niby fajnie, ale choć mam go już kilka ladnych miesięcy i cały czas wydaje mi się za wielki... Czemu nie kupiłem 24' 2k? Praktycznie nieosiągalne. A jak są to w zaporowych cenach. Nie wiem czemu producenci nie oferują 24' z takimi matrycami, a już w 4k bez problemu. Pozdrawiam.
Ja też kupiłem 27 cali, ale z rozdzielczością 4K i tak samo jak dla ciebie - był dla mnie za wielki. To już nie jest monitor, a telewizor... Niekomfortowo się tego używa z tak bliskiej odległości jak się siedzi przy biurku. Bardziej męczy oczy, ciężko ogarniać to co się dzieje na rogach ekranu w grach, bo jest to po prostu zbyt duże. Na dniach wracam do 24 cali. Niestety wybór nie jest zbyt duży bo są albo delle 24 cale 1440p i 60Hz za powyżej 1000zł, albo iiyamy 1440p, 100Hz za 800zł.