0:40 To wynikało właśnie z tego że zadebiutowało tam śledzenie promieni, by karta dawała jako taką wydajnością z włączonym RT musiała mieć odpowiednią moc, nie było sensu robić słabszej karty ze śledzeniem promieni, DLSS było dopiero w powijakach, nie powstała nawet wtedy 2050, najsłabszy RTX z pierwszej serii musiał mieć po porostu taką moc. A jego cena na starcie była dużo bardziej zbliżona do 1070 niż do 1060.
Właśnie uświadomiłem sobie jak stary jest mój PC. Gdy go składałem to w polecanych zestawach w moim budżecie był właśnie GTX 1060 i RX580 (który wybrałem w wersji 8GB i uważam go za niezłą kartę) masakra jak ten czas leci
A ja mialem najpierw gtx 1060 3gb potem go zamieniłem na gtx 1660super a w styczniu zmieniłem całą platforme i nabyłem rtx 3060ti z gddr6x. W końcu jest kop i to nawet w 1440p😊
Ja zmieniłem pare dni temu swoją 1060 6gb od Asusa która służyła mi wspaniale na RX6950XT od Asrocka, nie żałuje wydanych pieniędzy. Miałem juz dawno zmienić GPU ale w czasach RTX2060 wybuchł kryzys i ceny kart odkleiło. Teraz w cenie 3000zł schodzący Radeon nie ma chyba konkurencji, brac póki jeszcze są w sklepie😉.
Год назад+9
Ja to bym obejrzał kolejny powrot do przeszłości z rx580 8gb i 1060 6gb, ciekawe jak bardzo rx objechał by 1060 Dodatkowo sporo osob nadal siedzi na tych kartach nadal
@@fedurrrass4226 rx 580 to syf za darmo bym nie wzial grzalka i huyowo sie gra w takie gry jak cs go mialem i wiem co mowie :D zyskuje to tylko cyferki a plynniej na gtx chodzi nawet jak cyferki pokazuja 20 mniej a odczucia z gry calkiem inne niz cyferki ale wszystko oceniacie tylko oczami :D i jecie jak piekne jabluszko to nie znaczy ze dobre :D oczkami wszystko kupujecie a to ze 1060 40 cyferek a 4060 140 cyferek a na jednej i drugiej tak samo chodzi gra plynnie nic nie tnie nic sie nie dzieje tylko cyferki mniejsze :)
A jak wygląda sprawa w laptopach gamingowych? Lepiej brać nvidie i rtx 3060 z większym TDP czy nowsze 4060, a może coś od amd? Wypowie się ktoś kto testował, miał styczność czy ogólnie siedzi w temacie?
Ja tam uważam że nie ma sensu dopłacać do serii 40xx. Ogólnie seria 40xx jest do d*** ,postęp względem serii 30xx jest średni i do tego dochodzi okrojona pamięć w niższych modelach, ogólnie jedyne dobre karty z tej serii to 4080/90 ale ich oczywistą wadą jest cena. Trochę zszedłem z tematu ale podsumowując bierz po taniości układ z 3060 itp.
Sam używam do dziś GTXa 1060 kupiłem go w czasach, gdy wiedźmin 3 był nową grą. Służy mi dzielnie od 2016 roku i jak na razie nie mam zamiaru go zmieniać, bo po co skoro dalej ciesz
@@sawomirbartosiak2487I po co się go czepiasz skoro jemu może to wystarcza, albo gra w takie gry właśnie z 2015-2020 roku gdzie 1060 jeszcze wystarcza.
@TechLipton Przydałby się odcinek o tym w jakim stopniu procek obcina grafikę. Chodzi mi o to że sporo osób myśli o wymianie grafiki na szybszą gdy gry już nie chcą chodzić tak jak powinny. Jednak większość testów jak nie wszystkie skupiają się na tym aby porównać karty (i tylko karty). No i nie ma w tym nic złego. Ale Ktoś kto składa sobie nowy sprzęt nie kupi teraz i5-6500 a do tego RTX4080 i odwrotnie ktoś kto ma 13900K nie będzie tam wsadzał GTX1060. Niemniej jednak, jeżeli ktoś ma już jakiś sprzęt i chce wymienić kartę na lepszą, bo wymiana procka to z reguły wymiana całej platformy, to zmieni np. z i5-6500+GTX1060+16GB RAM, na RTX2070 lub 3060. I teraz PYTANIE na ILE wymiana grafiki poprawi jakość rozgrywki? Czy procek będzie dławił grafikę a jeżeli tak to jak bardzo. Innymi słowy na ile jest sens ładować kasę w grafikę żeby nie przesadzić. Jak widzę test w którym GTX1060 robi 80 klatek w wieśku FHD na ULTRA DETALACH to się pytam "coo0o0oo00o?"
Dziś przesiadłem się z 2060 na 4070 Super. Różnica jest nie do opisania. W poważaniu mam "rzeczywistą" (bez FG) wydajność 4070 (bo podobno FG nie jest prawilne), jeśli przy włączonym generatorze klatek CP2077 śmiga na ultra w 126 klatkach na full HD. Wcześniej miałem na niskich ustawieniach grafiki jakieś 70 klatek. Zwiększanie ustawień graficznych do wyższych, oznaczało spadek klatkowania do bardzo niekomfortowych 14-40. Wcześniej taki przeskok jakościowy odczułem, jak zamieniałem GTX960 na RTX 2060. Komfort rozgrywki rośnie niewiarygodnie dzięki FG, więc nie widzę pwodów, żeby tę technologię wytykać palcami. Teraz, po nowym roku, (docelowo) zamieniam monitor FHD 24" na 34" UWQHD i przy tej rozdziałce powinienem nadal mieć w okolicach 70-90 fps, a to wystarczy do komfortowej zabawy.
Ja tam jeszcze śmigam na lapku z gtx1060 6gb i i7 8gen. Wiedźmin 3 next gen na wysokich w FHD trzyma 55-60fps, na uber 35-50fps. Po tylu latach nadal daje radę.
@@sawomirbartosiak2487 Ja wiem co widzę u siebie. Na wysokich da się grać bez problemu. Lipton nie pokazuj pięknych ustawień . Jeśli włączył efekt włosów i cienie max to będzie 30 fps. Więc nie mów o bajkach jak nie obczaiłeś tematu do końca. Bo oba te efekty nie są potrzebne do płynnego grania i cieszenia się dobrą grafiką. W szczególności ten od włosów.
Ja mam RTX 2080 Gaming OC i współpracuje z monitorem 4K przy 60Hz działa płynnie przy rozdzielczości 144Hz monitor gaśnie co jakiś czas, bo jest już za słaba. W Skyrimie (przy 60Hz oczywiście) podczas gorących dni osiągała 83 stopnie C i gra wywalała do pulpitu, albo BSOD. Materiał super dzięki. Łapa w górę.
Proszę zrób teścik gtx 560 oraz 660. Jak wypadają w nowych grach. Jeszcze 4 lata temu grałem na gtx 660 i grałem we wszystko poza GTA 5 online, a single jeszcze działało.
Cieszę się, że w zeszłym roku skusiłem się na RTX3060ti. Jak dla 1080p w zupełności wystarcza, mam nadzieję że te 8GB vramu wytrzyma jeszcze z 2-3 lata. Trochę ból bo dupowata wersja (MSI Ventus 2X) ale 83 stopni jeszcze nie przekroczyła. Pozdro. :)
Przymierzam się do wymiany ROG GTX 1060 (6GB) na ProArt RTX 4060 Ti (16GB). 3 lata temu złożyłem kompa na Asus Prime Z490M-Plus, i7 10700KF, 2x16GB G Skill TridentZ 3600MHz, a GTXa przeniosłem ze starego kompa. Aktualnie cena ProArt wynosi 2200, a ROG 2600. Chyba nie ma sensu aż 4 stówek dopłacać do ROG? Aktualnie nie ogarniam tych wszystkich DLSS i innych dupereli ;) Wychowałem się na przejściu z DirectX 8.1 na 9.0c. To był szał, gdy w NFSU2 pojawiły się krople deszczu na ekranie :) P. S. myślę też, o złożeniu jakiegoś retrokompa na winxp do grania w gierki typu NFSU, Gothic 1,2, itp, oczywiście bez dostępu do internetu. Taki pomysł wpadł mi, gdy rok temu naprawiłem Amigę 500.
Za 2600 zł to kolega nie kupuje żadnego RTX 4060 Ti, bo to strata pieniędzy. Jedyny sensowny wybór w tej kwocie to RTX 4070 SUPER. Do 10700KF jak znalazł.
Te testy musialyby byc prowadzone na odpowiednim oprogramowaniu bo inaczej to nie ma sensu. Patrz typa wyzej ktory mowi ze quadeo nie oplaca sie przy rtx xD dzieciaki kompletnie nie rozumieja po co sa takie karty a youtuberzy nie potrafia korzystac ze specjalistycznego oprogramowania typu cad czy graficznych
@@g0ral Właśnie o takie testy bardziej pro mi chodzi. Jak ludzie teraz komentują że quadro nie ma sensu przy RTX XD Chyba nie zrozumieli o co mi chodzi o porównania do stajni AMD o np MI300 itp :)
Fajnie by było zobaczyć materiał porównujący roczny koszt energii zużytej przez dane karty. Można to również przedstawić w stosunku kosztu energii do ilości FPS i na tej podstawie wybrać zwycięzcę. Seria 2xxx wprowadziła RT, 3xxx go usprawniła, natomiast 4xxx obniżyła zużycie energii. Wygląda to jak kolejne etapy testów technologii.
no mi crashuje jedi survivor na 4060 z błędem o niewystarczającym vramie, co ciekawe nie jest ważne czy włączę tam fsr albo rt czy nie, gra po prostu twierdzi po chwili grania że nie mam vramu + nie jest to zależne od ustawień graficznych. Na RX 470 8gb nie miałem takiego problemu, nawet jeśli włączyłem ustawienia ultra przy włączonym fsr to gra miała mało klatek ale nie crashowała
@@adamkluska356 Głupoty wypisujesz!! Nigdy wcześniej ani później GPU w desktopach i laptopach nie były tak bliskie wydajnościowo jak w serii 1000! GTX 1060 w obu wersjach miał tyle samo rdzeni, taką samą przepustowość pamięci, jedynie desktopowa wersja miała o kilka procent szybsze zegary.
Mam ciekawą ideę finansową na temat zakupu takich kart. Nigdy nie byłem miłośnikiem zielonych ALE przy tych seriach od 60-90 wyliczyłem że najlepiej jest kupować najmocniejszą z poprzedniej generacji w trakcie kiedy kończą ją produkować. Cena do wydajności jest wtedy na poziomie średnich nowej serii i spokojnie starczająca na lata. Przez ostatnie 10 lat patrząc na serię 10-40 kupiłbyś wtedy tylko 3 karty, wydając tyle ile za jedną [zakładając że poprzednie sprzedaż za 30% ceny]. Kwestia tylko zabezpieczeń i ryzyka braku aktualizacji.... ://
W tej tabelce 0:54 baaaardzo przydałoby się w ostatniej kolumnie dodanie RTX3050. Wtedy już jak na dłoni byłoby widać, że 4060 to 4050. Nvidia próbowała tego samego z 4070Ti, nazywając ją początkowo 4080. Przy okazji jest błąd w ilości pamięci 2060.
Chętnie bym się dowiedział jak na ich polu ma się moja RTX2080 Ti. I ogólnie fajnie jakby pojawiły się testy bardziej na zasadzie kwot w jakich można dostać karty w 2023 czyli np. bierzemy 4060 i porównujemy cenowo z np. 3060/70ti, 2080ti i 1660 Ti albo super. Raczej ktoś kto myśli o nowej karcie prędzej szukałby po kwestii budżetu niż po tym, że chciałbym 60, teraz tylko pytanie .. jakiej generacji. Obejrzałbym, szczególnie, że porównanie rzetelne i fajnie się ogląda.
Jaka jest różnica miedzy RTX 4060 Gainward Która ma 8 lini pci-e vs MSI Gaming X -16 lini pci-e (fizycznie) AD107 obsługuje tylko 8 linii wdłg. specyfikacji technicznej Panowie Pomożecie ? :) Jaka wersja 4060 jest wdłg. was najlepsza (chłodzenie/temp) grafa ma być do lekkich gierek typu CS ; PUBG ; WOT ; LOL ; Rocket League i od czasu do czasu coś fabularnego z ładną grafiką w 1080p Zastanawiałem się też nad RX 7600 ale w grach te karty wypadają bardzo podobnie a RTX wciąga 50W mniej
z tego co się orientuje 8 lini pci-e jest wykorzystywane w rtx 4060 przez 128 bit, a reszta "po prostu tam jest, żeby lepiej kartę trzymało". Część firm ucina tą bezużyteczną część, oszczędzając na tym trochę kasy
Różnica nie duża, szkoda kasy. Moim zdaniem nie warto zmieniać karty co generację a dużo lepiej jest co drugą generację ponieważ wtedy skok wydajności jest wyraźny, więc radziłbym poczekać na serię RTX 5000
Panie lipton, zauważyłem iż zaglądasz pan w sekcje komentarzy... Tak się właśnie składa, że miałbym pytanie. Składam właśnie komputer i zastanawiam się czy jest sens dopłacać do 13600k, czy wystarczy mi 13500. Nie mam zamiaru nic podkręcać. Nie wiem czy to ma znaczenie, ale do zestawu będe brać rtx 4070, albo rx 6950 xt i chciałem 32 GB ddr5, ale nie wiem jaką płytę brać pod ddr5 🤔
zdecydowanie 13500 ci wystarczy przypomnę to lepszy procesor od i9 11900k i nie ma sensu na chwilę obecną dopłacać poczekaj se do 2024 będzie 14 gena na początku roku wtedy będzie więcej technologii a tak to stracisz kase na praktycznie niczym
Hej mam pytanie zamierzam składać nowego pc i znalazłem całkiem ciekawą kombinację ponieważ chciałbym zakupić Procesor Intel Core i7-10700, 2.9 GHz, 16 MB, BOX (BX8070110700) oraz MSI GeForce RTX 3060 GAMING X 12GB GDDR6 tylko nie wiem za bardzo na jaki czas mi to wystarczy chciałbym n naniej grac w gry typu assasin sons of the forest hogwarts legasy wiedźmin i zastanawia mnie na ile lat starczy taki zestaw by grać w najnowsze produkcję
@@krecikstukawtaborecik1337 jak ceny spadły to kupiłem. Po 1060 6GB były jeszcze 3060 12GB (vram ok ale GPU za słabe) i 3070ti 8GB (moc była ale za mało Vram) Wkurzyłem się i kupiłem 3090tke. Mam wyniki 3dmark time spy nawet 1060. 6gb - nie mogę znaleźć screena. 3060 12gb - 8,7tys pkt 3070ti 8gb- 15tys pkt 3090 24GB - 19,5tys pkt
@@Agrabelek_Michal_K No i pięknie teraz to już długo nie będziesz musiał wymieniać karty ja zamówiłem właśnie części na nowego kompa a kartę wziąłem 4060 ti ale mam nadzieję że mnie nikt za to nie zabije
@@krecikstukawtaborecik1337 budżet nas ogranicza. Gdyby było inaczej każdy by miał 4090. No ja nie hejtuje ale internet bywa bezlitosny 😐 zaraz się znajdą komentatorzy. Skoro miałeś daną ilość pieniędzy miałeś kilka opcji, domyślam się nie chciałeś używki 4070 ani wyższego modelu starszej 3 serii stąd ten wybór. Może też nie lubisz amd lub zależało Ci na dlss, nie wiem. Ale nie będę nikogo rypać za jego wybory.
@@Agrabelek_Michal_K prawda jakby każdy miał 20 tysięcy na komputer to świat byłby piękniejszy... używki nie chciałem bo wiesz wolę nową i to strach czasem radeon to wiadomo te sterowniki czy to mit czy to prawda to tam już ciul ale od zawsze i tak wolałem nvdie no a mogłem kupić np 3060 ti ale ona i tak jest gorsza może oplacalniejsza ale mogłem dać więcej kasy za to 15% większą wydajność niż 3060 ti to to zrobiłem a jak będzie się zobaczy
W sumie dość zabawne, że czysty przyrost fps w grach (nie patrząc na ilość vram, szyny itd) pomiędzy 3060 i 4060 jest większy niż pomiędzy 2060 i 3060, a hejt jaki się wylał na 4060 jest jakieś 2137 razy większy, ba na 3060 w sumie mało kto narzekał, część recenzentów nawet polecała ją jako kartę w dobrej cenie dla graczy podczas szału koparkowego. Przy czym cena premierowa 3060 wynosiła 1599 zł, czyli 50 zł więcej od sugerowanej ceny premierowej 4060, którą już teraz można kupić taniej.
@@TechLipton Oki dzięki. A jeszcze jedno pytanie. Czy to prawda że aby skorzystać z DLSS3 to muszę mieć aktywny DX12? I ponoć DX12 wymaga więcej VRAM niż DX11.
Kiedy ty miałeś Lipton 2060 w cenie 1060? w 2016 roku można było kupić 1060 za około 1200zł, 2060 kosztowała przez bardzo długo około 1500zł aż do wyjścia 3060.
Raczej rtx 4070(wiem cena trochę większa no co poradzić), chyba że masz większy budżet to rx 7900 xt. Zależy w co grasz i w jakiej rozdzielczości. Ja przesiadłem się z rtx 2070 super na rtx 4070 i było warto, ale wtedy sprawdź czy obecny procesor umożliwi ci wykorzystać potencjał karty graficznej
Można odnieść wrażenie, że na etapie projektowania do działu wpadło paru panów z liczydłami, którzy nie znając się na rzeczy uznali, że RTX4060 będzie rywalizowało nie z RTX3060 12GB a z wersją 8GB. Wtedy ma to większy sens - RTX3060 8GB ma szynę 128bit, tak samo jak i nowość NVidii. Zapomnieli, że jest coś takiego jak RTX3060 12GB. Ba, gdy trzeba pokazać wyższość nowej 60tki nad poprzednikami nakazali naciskać na DLSS_3 i FG. Bez tego te karty są niewypałem w 2023r.
Nie da się zaprzeczyć, że różnica wydajności pomiędzy GTX 1060 a RTX 4060 jest ogromna przepaść, szczególnie kiedy używamy DLSS 3. Każdy, kto posiada GTX 1060 i chce ulepszyć PC za niższe ceny, to RTX 4060 jest niezła oferta. Ale dla tych, co posiadają RTX 3060, to nie opłaca się kupić RTX 4060 i lepiej jest zaoszczędzić pieniędzy na RTX 4070 za około 2000-2500 zł gdzieś w przyszłość. Bardzo dziękuję za bardzo ciekawy test.
Kiedy będzie coś pewnego bo wróżenie z fusów nic nie daje. 4090 miał pochłaniać 900W, RTX 3080 miał mieć 20GB a 3070Ti 16GB i nic się z tych rewelacji nie potwierdziło
RTX3060 kosztowały 1500 zł "na premierze"? O ile pamiętam, to koparki wywindowały ceny do niebotycznych. To był główny powód, że wiele osób zrezygnowało z zakupu.
@@BRX_2137To nie jest możliwe, chyba że masz ektremalne UV lub grasz z zablokowaną na niską wartość ilością klatek. Wiem, bo sam mam 3070 i watomierz.
@@stark_2991 🤣dobra masz mnie. Faktycznie zaszalałem i zrobiłem UV. Na początek zszedłem do seryjnych zegarów na 0.875V (około 1940mhz) ale mam dziwny fetysz szukania dolnych limitów sprzętu. Więc obniżyłem napięcie tak bardzo jak tylko sterownik mi pozwolił i zszedłem z 1.080V na 0.700V i na 1425mhz. (MSI Aft pokazuje pobór na poziome 70-80W, tyle co mój stary 1050) I nadal CP2077 Działa na mi 900p na ultra z RT. Oczywiście mam słabego proca R5 2600 więc trochę mi ją blokuje. Ale i tak jestem w szoku jak okropna jest oryginalna krzywa napięć w serii 3000.
Jeszcze niecałe 2 miesiące temu miałem RTX 2060 z 3600 i dawała sobie rady z wszystkim. Inna sprawa że ja 90% czasu który spędzam na graniu to spędzam w Battlefield'zie V a tam na ustawieniach LOW, prócz tekstur i siatki, miałem średnio 150-160 klatek. Teraz mam RTX 3070 i 5800X3D i mam 200 nawet na ULTRA i to cały czas, oczywiście mówię o 1080p. Bardzo dobrze wspominam tę kartę, grałem na niej w CONTROL i tam na fajnych ustawieniach w fajnym klatkażu szło nacieszyć oko świetnym ray tracingiem... serio tam RT był świetny, te odbicia tam w tych wszystkich szklanych gablotach w tym federalnym biurze kontroli po prostu wyglądały urzekająco. W takim Wiedźminie 3 RT jest tak beznadziejnie zaimplementowany że widać go, a i to jeszcze słabo, tylko w kałużach w Novigradzie. Sprzedałem RTX 2060 za 700 zł i za tyle samo kolega mi sprzedał RTX 3070 więc zrobiłem świetny interes, ale 2060'tkę będę zawsze wspominał z rozrzewnieniem.
@@piol9060 Ja nie rozumiem jednego, klatki spadły z wersji na wersją UBER do UBER o 30%, a UBER do UBERR+ do 40% ja nie jeszcze więcej. Gra z 215 roku. Teraz ci coś powiem, mam 5000 godzin w Battlefield V, tam na ULTRA, w grze z 2018 roku, mam stale 200 klatek, nigdy mi nie spadają i zamykam tam licznik a nie potrzebuję w plikach gry go odblokowywać bo mam monitor 165Hz i nic mi to w praktyce nie da. Rozumiesz to, mam stałe 200 klatek na ULTRA w grze multi z 64 graczami. Teraz o grafice, grafika w BFV jest 2-3 razy lepsza niż w W3, w każdym aspekcie, w każdym, nie chcę mi się rozpisywać, ale możesz mi wierzyć, 2-3 razy lepsza grafika. I teraz w W3 mam średnio na UBER+ 110-120 klatek z spadkami do 90, a tu mam cały czas 200. Wytłumacz mi to? Ja ci to wytłumaczę, ci co robili Wiedźmina 3 są upośledzonymi debilima i w programowaniu do pięt nie dorastają ludziom z DICE.
@@Romulus84Musisz trolować skoro grafiki gier różniących 3,5 roku stawiasz na równi, W3 to pełnoprawny tytuł AAA z masą zaplecza czego o bf5 nie da się powiedzieć
@@Player_-lu5kh Jasne że tak bo BFV to gra dużo nowsza bo z 2018 roku w której grają 64 osoby w czasie rzeczywistym na przepięknych mapach, musi być rejestrowany każdy jeden pocisk a mimo to gra zamyka licznik czyli 200 klatek na ULTRA, a W3 to gra z 2015 roku w której mam średnio powiedzmy 100 klatek. To jest chore... to jest po prostu śmiechu warte. Ja widzę grafikę w W3 i w BFV i zachodzę w głowę jak to jest możliwe? Tym bardziej że BFV to miliardy razy bardziej skomplikowana do ogarnięcia gra nuż jakiś singlowy tytuł.
Liptonku z tymi 20% różnicy 4060 względem 3060 to bym nie przesadzał, HU pokazał, że w 15 grach w rozdzielczości 1440p mamy tylko 10% skoku wydajności a 1080p to 15% średnio wychodzi 12.5% ta karta to porażka i jedyny jej plus to efektywność energetyczna. Ciekawe co dalej? 5060 z gorszą wydajnością od poprzedniczki?
@@TechLipton Według mnie trochę wprowadzasz w błąd niektórych widzów, którzy się nie znają na sprzęcie, deklarując w 1:30 "4060 jest mocniejsze o 20% od 3060" co jest nieprawdą, ale ok rób jak uważasz. Nie każdy gra w 1080p i za 2 lata może się ktoś mocno zdziwić, że jego 4060 jest na poziomie 3060 12GB w 1440p
@@raime6990 tylko że to nie są karty stworzone do grania w 1440p. Sam nad tym ubolewam. 3060 daje w tym wymiarze większe możliwości, ale pewnie duży odsetek osób i tak będzie korzystał z tych kart pod 1080p. W moich testach 4060 wyprzedza 3060 o 15% w 1440p.
@@raime6990Według Techpowerup RTX 4060 jest szybszy od 3060 o 18%. To kto w końcu ma rację? Odpowiedź brzmi: wszyscy. Te 20% różnicy to jest różnica ŚREDNIA na podstawie testowanej puli gier. Dasz do testu inne gry, to wyjdzie Ci inny wynik, bo są gry, które bardziej faworyzują karty Nvidii lub karty AMD. Jeśli oglądasz HU, to powinieneś to wiedzieć.
@@stark_2991 A czemu uważasz, że w innych testach niż te od HU średnia jest ważniejsza? w 15 grach u niego RTX4060 w 1440p okazał się raptem 10% mocniejsze od poprzednika, ba nawet Piotr stwierdził, że u niego 1440p to 15% różnicy więc żadne 20% "średnia" nie wchodzi tutaj w grę nawet wliczając wymierające 1080p. Mylisz pojęcia kolego.
@@szpynda widisz dla mnie zmiana dopiero jeśli do około 1k będę miał karte 2x wydajniejszą od mojej i tak po 3 latach z gtx 1060 3gb przeszedłem na rx 6600, analogicznie do gtx 760 i gtx 1060 3gb
Jak dla mnie ten dlss z fg to tak jakby zamówić burgera i dostać go bez mięsa z tylko jego aromatem przy czym szef kuchni i całe towarzystwo gastronomiczne zachwyca się tym i nazywa rewolucją na skalę światową.
Czyli ogólnie trzeba wymieniać grafikę co 3- 4 geny. To raz. A dwa wzrost performance w TESTACH to nie zasługa dobrego hardwearu a cheatu softwearowego DLSS (tzn grasz w 1080p ale soft tak to wygładzi że masz wrażenie 16k) i fałszywych klatek (sorry zaawansowany procesor w połączeniu z zaawansowanym softem) między dwie klatki natywne wygeneruje jeszcze jedną, dzięki temu program testowy podbije FPS o 30% .... Kurdę mądre to ....
Hi Lipton! dobra spoko testy ale ostatnio pisałem komentarz apropo twojej nowej platformy testowej... Mało kto ma taki procesor i łączy go z 1060, lepiej by to wyglądało jak byś wsadził te karty z testów do starej platformy i wtedy zrobił testy, albo przynajmniej do procesora z niżjesz polki, typu poniżej 10 gen intela. to był by super ciekawy materiał!!! i daj znac jak Ty to widzisz z Twojego punktu widzenia, wiem ze to nie łatwe ale takie testy mogły by bardziej zainteresować i pomóc nam dobrać karty bo zapewne większość z nas ma starsze procki :) (patrz steam statystyki). Pozdrawiam serdecznie !
Jest szansa na odcinek, gdzie testujesz Quadro (szczególnie w laptopach) i odpowiednią wersję od AMD? W sensie, czy są faktycznie takie słabe w grach itd.
@@TechLipton k, bo mi chodzi głównie o Minecraft xD Bo mam np.: 980m, ale na javie mam mikrozacięcia, dlatego gram na bedrocku i nie wiem jakby to wyglądało na javie i bedrocku
Mam rtx 2060 praktycznie od premiery czyli okolo 4 lata i gdy gralem w 1080 to bajka. Kazda gra na ultra 60+ fpsow na spokojnie. Ale gdy sie przesiadlem na 1440p uw monitor no to juz czuc ze karta sie meczy. Ale pomimo tego daje rade ;) wlasnie skonczylem cyberpunka i 60 fpsow luzno na srednich ustawieniach. A takie gry jak league of legends to okolo 200fpsow. Diablo 4 na srednio/wysokich okolo 80 fpsow. Wiec jak ktos szuka budzetowej karty to polecam.
Potwierdzam, ja może w zbyt dużo tytułów nie grywam, ale RTX 2060 też mam od premiery za chwilę na dzień dzisiejszy 29.12.2023 będzie 5 lat i grafika daję radę jak złoto.
Rozmiar pamięci RTX 2060 to 6GB*. Błąd w tabeli.
Tak
Nie no co Pan godosz RTX 2060 240gb to lux i pakiety prymium to je
Gdzie jest 1660?
Ja mam GTX1050Ti Strix i jest lepsze od GTX1060
@@DjMakinetor GTX 1060 w wersji 6 GB wypada lepiej pod względem vramu
Ciekawy film, brakowało takiego
Możliwe że będzie więcej.
Myślę że skoro jest test 60 to 70 i 80 też było by warto zrobić.
Muszę kupić kilka kart, ale jest to do zrobienia.
@@TechLipton jestem ciekaw tej roznicy pancernej 1070
@@TechLiptonbardzo prosimy, to byłaby świetna seria filmów
Osobiście używam 1080ti a ostatnio gram tylko w lola, więc mogę pożyczyć kartę do testów na parę dni : P
@@TechLiptonzrób każdą generację z liczbą 70 na końcu
brakuje jeszcze 1660 bo w sumie to następca 1060 powinien być gdzieś między 1660 a 2060
1660 był dużo tańszy od 1060. Zobacz na MSRP.
1660s prędzej
1660 - $220
1060 - $250
1660TI - $280
2060 - $350
wydaje mi się że jednak 2060 jest sporo droższa
1660 był droższy niż 1060 w wersji 3GB 199$
@@nietearaz597ale 1060 3 gb nikt normalny nie brał strasznie nieopłacalna była
0:40 To wynikało właśnie z tego że zadebiutowało tam śledzenie promieni, by karta dawała jako taką wydajnością z włączonym RT musiała mieć odpowiednią moc, nie było sensu robić słabszej karty ze śledzeniem promieni, DLSS było dopiero w powijakach, nie powstała nawet wtedy 2050, najsłabszy RTX z pierwszej serii musiał mieć po porostu taką moc. A jego cena na starcie była dużo bardziej zbliżona do 1070 niż do 1060.
Właśnie uświadomiłem sobie jak stary jest mój PC. Gdy go składałem to w polecanych zestawach w moim budżecie był właśnie GTX 1060 i RX580 (który wybrałem w wersji 8GB i uważam go za niezłą kartę) masakra jak ten czas leci
Fajnie porównanie, ale czy mógłbyś zrobić takie samo porównanie tylko że serii 70? Od gtx1070 itd. Pozdrawiam
A ja mialem najpierw gtx 1060 3gb potem go zamieniłem na gtx 1660super a w styczniu zmieniłem całą platforme i nabyłem rtx 3060ti z gddr6x. W końcu jest kop i to nawet w 1440p😊
Czyli moja 2060 nadal da rade z dlls ew małe zmiany w grafie i ponad 60fps. Git ;D poczekam na serie 5 ze zmianą
6:50 dlaczego pobór 4060 jest dużo wyższy od 1060 jeśli ma niższe tdp?
Czy taka sama sytuacja jest pomiędzy 70-tkami i 80-tkami pod względem wydajności? Chodzi mi o 1440p
Właśnie kupiłem GPU. Miałem kupić RTX 4060 lub RX 7600, wybrałem RX 6750 XT. Nie żałuję, będzie to karta lepsza w 1440p.
i dobrze zrobiles, zwlaszcza ze wzgledu na 12gb vram
Bardzo dobry wybór
@@villentretenmerth265rtx 4060 TI moze mieć 16gb
@@Sigiter7 piszac ten komentarz nie wiem czy wersja 16gb byla juz na rynku, watpie
Ja zmieniłem pare dni temu swoją 1060 6gb od Asusa która służyła mi wspaniale na RX6950XT od Asrocka, nie żałuje wydanych pieniędzy. Miałem juz dawno zmienić GPU ale w czasach RTX2060 wybuchł kryzys i ceny kart odkleiło. Teraz w cenie 3000zł schodzący Radeon nie ma chyba konkurencji, brac póki jeszcze są w sklepie😉.
Ja to bym obejrzał kolejny powrot do przeszłości z rx580 8gb i 1060 6gb, ciekawe jak bardzo rx objechał by 1060
Dodatkowo sporo osob nadal siedzi na tych kartach nadal
Zapisane!
Nie o jechałby tylko to jest faktem. Karty ati zyskują z czasem. 1060 zaczął słabnąć do 570 czy 580 po latach.
@@fedurrrass4226gościu to nie 2005 rok. Nie ma Ati
@@fedurrrass4226 rx 580 to syf za darmo bym nie wzial grzalka i huyowo sie gra w takie gry jak cs go mialem i wiem co mowie :D zyskuje to tylko cyferki a plynniej na gtx chodzi nawet jak cyferki pokazuja 20 mniej a odczucia z gry calkiem inne niz cyferki ale wszystko oceniacie tylko oczami :D i jecie jak piekne jabluszko to nie znaczy ze dobre :D oczkami wszystko kupujecie a to ze 1060 40 cyferek a 4060 140 cyferek a na jednej i drugiej tak samo chodzi gra plynnie nic nie tnie nic sie nie dzieje tylko cyferki mniejsze :)
A jak wygląda sprawa w laptopach gamingowych? Lepiej brać nvidie i rtx 3060 z większym TDP czy nowsze 4060, a może coś od amd? Wypowie się ktoś kto testował, miał styczność czy ogólnie siedzi w temacie?
Ja tam uważam że nie ma sensu dopłacać do serii 40xx. Ogólnie seria 40xx jest do d*** ,postęp względem serii 30xx jest średni i do tego dochodzi okrojona pamięć w niższych modelach, ogólnie jedyne dobre karty z tej serii to 4080/90 ale ich oczywistą wadą jest cena. Trochę zszedłem z tematu ale podsumowując bierz po taniości układ z 3060 itp.
Film jak zwykle świetny! Ale bardziej zastanawia mnie tytuł muzyki od 2:00, idealnie weszła mi w ucho, prosiłbym o tytuł 👌
@agrafkaagrafka1542 wiem, bardziej liczę na społeczność
@@Basior88 Rambutan - Lose My Head
0:50 RTX 2060 ma w tabeli wpisane w rozmiarze pamięci '240'
czeski błąd a podnieciłeś się że prawie stulejka ci pękła ;)
@@michajanicki6860 Powiedzenie o istnieniu błędu równa się z podnieceniem? Ale z Ciebie płatek śniegu.
@@AeroCraftON = triggered XD
/EOT/
Czyli troll/baiter. Myślałem, że ktoś normalny.
Teraz poprosimy takie same testy serii 70, 70Ti, 80 ;)
70Ti nie, to tylko wcisk pomiędzy 70 a 80 a na przykład nie było RTX 2070Ti lub GTX 970Ti.
@@A-BYTE94 ale było np. 2070 super
Sam używam do dziś GTXa 1060 kupiłem go w czasach, gdy wiedźmin 3 był nową grą. Służy mi dzielnie od 2016 roku i jak na razie nie mam zamiaru go zmieniać, bo po co skoro dalej ciesz
To fakt 30fps w nowych tytułach to rzeczywiście cieszy 😂😂 Karta była udana choć droga jak na rok 2016 to jej czas już minął
@@sawomirbartosiak2487I po co się go czepiasz skoro jemu może to wystarcza, albo gra w takie gry właśnie z 2015-2020 roku gdzie 1060 jeszcze wystarcza.
@TechLipton Przydałby się odcinek o tym w jakim stopniu procek obcina grafikę. Chodzi mi o to że sporo osób myśli o wymianie grafiki na szybszą gdy gry już nie chcą chodzić tak jak powinny. Jednak większość testów jak nie wszystkie skupiają się na tym aby porównać karty (i tylko karty). No i nie ma w tym nic złego. Ale Ktoś kto składa sobie nowy sprzęt nie kupi teraz i5-6500 a do tego RTX4080 i odwrotnie ktoś kto ma 13900K nie będzie tam wsadzał GTX1060. Niemniej jednak, jeżeli ktoś ma już jakiś sprzęt i chce wymienić kartę na lepszą, bo wymiana procka to z reguły wymiana całej platformy, to zmieni np. z i5-6500+GTX1060+16GB RAM, na RTX2070 lub 3060. I teraz PYTANIE na ILE wymiana grafiki poprawi jakość rozgrywki? Czy procek będzie dławił grafikę a jeżeli tak to jak bardzo. Innymi słowy na ile jest sens ładować kasę w grafikę żeby nie przesadzić. Jak widzę test w którym GTX1060 robi 80 klatek w wieśku FHD na ULTRA DETALACH to się pytam "coo0o0oo00o?"
Botel neck kałkulator:)
@@Internetowy-Ludek Dzięki o to mi chodziło. Tylko czy taki kalkulator zastąpi faktyczny test ?
Dziś przesiadłem się z 2060 na 4070 Super. Różnica jest nie do opisania. W poważaniu mam "rzeczywistą" (bez FG) wydajność 4070 (bo podobno FG nie jest prawilne), jeśli przy włączonym generatorze klatek CP2077 śmiga na ultra w 126 klatkach na full HD. Wcześniej miałem na niskich ustawieniach grafiki jakieś 70 klatek. Zwiększanie ustawień graficznych do wyższych, oznaczało spadek klatkowania do bardzo niekomfortowych 14-40. Wcześniej taki przeskok jakościowy odczułem, jak zamieniałem GTX960 na RTX 2060. Komfort rozgrywki rośnie niewiarygodnie dzięki FG, więc nie widzę pwodów, żeby tę technologię wytykać palcami. Teraz, po nowym roku, (docelowo) zamieniam monitor FHD 24" na 34" UWQHD i przy tej rozdziałce powinienem nadal mieć w okolicach 70-90 fps, a to wystarczy do komfortowej zabawy.
Pamietam jeszcze jak dwa lata temu karta o wydajnosci gtx 1060 kosztowala z 2 tys zł.
Ja tam jeszcze śmigam na lapku z gtx1060 6gb i i7 8gen. Wiedźmin 3 next gen na wysokich w FHD trzyma 55-60fps, na uber 35-50fps. Po tylu latach nadal daje radę.
A to dziwne w bo w teście Liptona to nawet 30fps nie ma w nowym wiedźminie. Także piękne bajki opowiadasz 😅
@@sawomirbartosiak2487
Ja wiem co widzę u siebie. Na wysokich da się grać bez problemu. Lipton nie pokazuj pięknych ustawień . Jeśli włączył efekt włosów i cienie max to będzie 30 fps. Więc nie mów o bajkach jak nie obczaiłeś tematu do końca. Bo oba te efekty nie są potrzebne do płynnego grania i cieszenia się dobrą grafiką. W szczególności ten od włosów.
@@sawomirbartosiak2487może w wiedźminem nie next gen albo na niższych ustawieniach
Ja dalej z gtx 1060 3gb i jakbym mial robic jakis upgrade to pewnie 4060 - tania i przy okazji nie mialbym potrzeby wymieniac zasilacza xd
1060 3GB ma taką bolączkę, że te 3GB vram ją hamuje.
@@pajacpajac530 no i to potężnie niestety :/
Ja mam RTX 2080 Gaming OC i współpracuje z monitorem 4K przy 60Hz działa płynnie przy rozdzielczości 144Hz monitor gaśnie co jakiś czas, bo jest już za słaba. W Skyrimie (przy 60Hz oczywiście) podczas gorących dni osiągała 83 stopnie C i gra wywalała do pulpitu, albo BSOD. Materiał super dzięki. Łapa w górę.
Proszę zrób teścik gtx 560 oraz 660. Jak wypadają w nowych grach. Jeszcze 4 lata temu grałem na gtx 660 i grałem we wszystko poza GTA 5 online, a single jeszcze działało.
Cieszę się, że w zeszłym roku skusiłem się na RTX3060ti. Jak dla 1080p w zupełności wystarcza, mam nadzieję że te 8GB vramu wytrzyma jeszcze z 2-3 lata. Trochę ból bo dupowata wersja (MSI Ventus 2X) ale 83 stopni jeszcze nie przekroczyła. Pozdro. :)
Dobry wybór
A rzeczywiście ventus jest przeciętny
Przymierzam się do wymiany ROG GTX 1060 (6GB) na ProArt RTX 4060 Ti (16GB). 3 lata temu złożyłem kompa na Asus Prime Z490M-Plus, i7 10700KF, 2x16GB G Skill TridentZ 3600MHz, a GTXa przeniosłem ze starego kompa. Aktualnie cena ProArt wynosi 2200, a ROG 2600. Chyba nie ma sensu aż 4 stówek dopłacać do ROG?
Aktualnie nie ogarniam tych wszystkich DLSS i innych dupereli ;) Wychowałem się na przejściu z DirectX 8.1 na 9.0c. To był szał, gdy w NFSU2 pojawiły się krople deszczu na ekranie :)
P. S. myślę też, o złożeniu jakiegoś retrokompa na winxp do grania w gierki typu NFSU, Gothic 1,2, itp, oczywiście bez dostępu do internetu. Taki pomysł wpadł mi, gdy rok temu naprawiłem Amigę 500.
Za 2600 zł to kolega nie kupuje żadnego RTX 4060 Ti, bo to strata pieniędzy. Jedyny sensowny wybór w tej kwocie to RTX 4070 SUPER. Do 10700KF jak znalazł.
Boli mnie brak testów GPU z serii pro np quadro czy odpowiedników ze stajni AMD 😅
W większości sytuacji się nie opłaca i lepszy bedzie rtx
Te testy musialyby byc prowadzone na odpowiednim oprogramowaniu bo inaczej to nie ma sensu. Patrz typa wyzej ktory mowi ze quadeo nie oplaca sie przy rtx xD dzieciaki kompletnie nie rozumieja po co sa takie karty a youtuberzy nie potrafia korzystac ze specjalistycznego oprogramowania typu cad czy graficznych
Niby jak to porównywać jak to inne zastosowania 🤔?
@@g0ral Właśnie o takie testy bardziej pro mi chodzi. Jak ludzie teraz komentują że quadro nie ma sensu przy RTX XD Chyba nie zrozumieli o co mi chodzi o porównania do stajni AMD o np MI300 itp :)
@@marcinml6537 Chodzi mi o np GPU MI300 czy nawet starsze które można dostać :)
Fajnie by było zobaczyć materiał porównujący roczny koszt energii zużytej przez dane karty. Można to również przedstawić w stosunku kosztu energii do ilości FPS i na tej podstawie wybrać zwycięzcę.
Seria 2xxx wprowadziła RT, 3xxx go usprawniła, natomiast 4xxx obniżyła zużycie energii. Wygląda to jak kolejne etapy testów technologii.
Niby po co, chyba, że prowadzisz koparkowo 😅
@@MrSTEMI z czystej ciekawości :)
Super, a dasz radę zrobić to samo tylko z kartami xx70?
Pozdrawiam 😊
Postaram się ;)
Co to jest za program do statystyk?. W msi afterburner może jest połowa tego co tutaj.
Capframex. Mega polecam.
4:05 co to za piosenka?
no mi crashuje jedi survivor na 4060 z błędem o niewystarczającym vramie, co ciekawe nie jest ważne czy włączę tam fsr albo rt czy nie, gra po prostu twierdzi po chwili grania że nie mam vramu + nie jest to zależne od ustawień graficznych. Na RX 470 8gb nie miałem takiego problemu, nawet jeśli włączyłem ustawienia ultra przy włączonym fsr to gra miała mało klatek ale nie crashowała
Ja do dzisiaj mam w kompie MSI GeForce GTX 1060 GAMING X 6GB i daje radę :-)
Ja mam wciąż lapka z GTX 1060.
@@commandanteezyli masz w tym laptopie dobrze 4 razy słabszą kartę niż autor wątku. Wasze karty wspólną mają tylko nazwę - nic więcej.
@@adamkluska356 Głupoty wypisujesz!! Nigdy wcześniej ani później GPU w desktopach i laptopach nie były tak bliskie wydajnościowo jak w serii 1000! GTX 1060 w obu wersjach miał tyle samo rdzeni, taką samą przepustowość pamięci, jedynie desktopowa wersja miała o kilka procent szybsze zegary.
@@commandantee może nigdy nie były tak blisko, ale nadal bardzo daleko
@@adamkluska356 Kilka procent to bardzo blisko.
@TechLipton Czyli mając 2060 , R7 5800x i 16gb RAM nie ma sensu przesiadać sie na 4060 ?
Mam ciekawą ideę finansową na temat zakupu takich kart. Nigdy nie byłem miłośnikiem zielonych ALE przy tych seriach od 60-90 wyliczyłem że najlepiej jest kupować najmocniejszą z poprzedniej generacji w trakcie kiedy kończą ją produkować.
Cena do wydajności jest wtedy na poziomie średnich nowej serii i spokojnie starczająca na lata. Przez ostatnie 10 lat patrząc na serię 10-40 kupiłbyś wtedy tylko 3 karty, wydając tyle ile za jedną [zakładając że poprzednie sprzedaż za 30% ceny].
Kwestia tylko zabezpieczeń i ryzyka braku aktualizacji.... ://
mm ciekawe ja tam na wiedzminie 3 na 1060 mialem 30 -40 fpsa czy to nieslawny hd wiedzmin 3?
Z taką fryzurą to normalnie wyglądasz jak kilka lat młodszy polski JayzTwoCents xDD
Widzę, że fryzurka fresz 😀
FreszLipton
W tej tabelce 0:54 baaaardzo przydałoby się w ostatniej kolumnie dodanie RTX3050. Wtedy już jak na dłoni byłoby widać, że 4060 to 4050. Nvidia próbowała tego samego z 4070Ti, nazywając ją początkowo 4080. Przy okazji jest błąd w ilości pamięci 2060.
A ja cały czas na GTX 1060 6GB w wydaniu od Arrow i te 30/60 kl/s mi nie przeszkadza w 1080p właśnie :D
też tak mówiłem xD po przesiadce na 3060 ti zmieniłem zdanie 😅
@@Kamilooo_S Tylko żeby używać takiej karty w odpowiedni sposób musiał bym zmienić platformę. A jakoś lubię mojego dinozaura jakim jest i7 3770 😁
Chętnie bym się dowiedział jak na ich polu ma się moja RTX2080 Ti.
I ogólnie fajnie jakby pojawiły się testy bardziej na zasadzie kwot w jakich można dostać karty w 2023 czyli np. bierzemy 4060 i porównujemy cenowo z np. 3060/70ti, 2080ti i 1660 Ti albo super.
Raczej ktoś kto myśli o nowej karcie prędzej szukałby po kwestii budżetu niż po tym, że chciałbym 60, teraz tylko pytanie .. jakiej generacji.
Obejrzałbym, szczególnie, że porównanie rzetelne i fajnie się ogląda.
Bardzo fajny teścik, dzięki
czemu nie uwzględniłeś tutaj 1660?
Masz mały błąd w schemacie, porównania kart graficznych w 0:50. RTX 2060 rozmiar pamięci (240) masz wpisane. 😜
Materiał Liptona bez błędu? Niespodzianka 🙃
co do generatora klatek to da się modem uruchomić go na starszych rtx 2000 i 3000 np. wiesiek zamiast 50fps też ma 100fps
W tabelce RTX 2060 zamiast 6GB pamięci ma wpisane 240, taki mały błąd :)
rtx 3060 12GB i rtx 4060 są teraz w bardzo podobnych cenach. Karta z serii 40 ma mniejszy pobór mocy co jest teraz bardzo na rękę. Którą kartę wybrać?
A jak będzie wyglądać RTX 1660na tle tych kart
siemka techlipton mam pytanie. miałbys coś z grafiki niepotrzebną z 1660 ti czy jakąś ?
na stanie ?
Jest pełno na allegro i grupach facebookowych. Lipton nie wyśle Ci przecież karty za darmo. On nie ma niepotrzebnych kart.
Jaka jest różnica miedzy RTX 4060 Gainward Która ma 8 lini pci-e vs MSI Gaming X -16 lini pci-e (fizycznie) AD107 obsługuje tylko 8 linii wdłg. specyfikacji technicznej
Panowie Pomożecie ? :)
Jaka wersja 4060 jest wdłg. was najlepsza (chłodzenie/temp) grafa ma być do lekkich gierek typu CS ; PUBG ; WOT ; LOL ; Rocket League i od czasu do czasu coś fabularnego z ładną grafiką w 1080p
Zastanawiałem się też nad RX 7600 ale w grach te karty wypadają bardzo podobnie a RTX wciąga 50W mniej
z tego co się orientuje 8 lini pci-e jest wykorzystywane w rtx 4060 przez 128 bit, a reszta "po prostu tam jest, żeby lepiej kartę trzymało". Część firm ucina tą bezużyteczną część, oszczędzając na tym trochę kasy
Świetny firm, takie właśnie są potrzebne
Na jaką kartę polecacie zmienić gtx 1660 OC 6gb? Procek ryzen 5 5600 płyta msi b550.
3060 z powiększonym ramem, albo RX 6750, podobny pułap cenowy. Pytanie na czym będzie lepiej działał FSR 3. ;-)
poprawa ilości klatek na wat ponad 2 czasem prawie 3 razy większa. Nieźle, ale kiedyś 115w karta była w zupełności wystarczająca a dziś to jest mało
Wartościowy materiał, dzięki Piotrze =)
Nadal jestem zielony w temacie.Od roku mam rtx3060 czy warto waszym zdaniem przeskoczyć na rtx3070 a może 4060?
Różnica nie duża, szkoda kasy. Moim zdaniem nie warto zmieniać karty co generację a dużo lepiej jest co drugą generację ponieważ wtedy skok wydajności jest wyraźny, więc radziłbym poczekać na serię RTX 5000
Panie lipton, zauważyłem iż zaglądasz pan w sekcje komentarzy... Tak się właśnie składa, że miałbym pytanie. Składam właśnie komputer i zastanawiam się czy jest sens dopłacać do 13600k, czy wystarczy mi 13500. Nie mam zamiaru nic podkręcać. Nie wiem czy to ma znaczenie, ale do zestawu będe brać rtx 4070, albo rx 6950 xt i chciałem 32 GB ddr5, ale nie wiem jaką płytę brać pod ddr5 🤔
zdecydowanie 13500 ci wystarczy przypomnę to lepszy procesor od i9 11900k i nie ma sensu na chwilę obecną dopłacać poczekaj se do 2024 będzie 14 gena na początku roku wtedy będzie więcej technologii a tak to stracisz kase na praktycznie niczym
1060 6gb za. 300 można dorwać, chyba git do budżetowego pc?
GTX 1060 z 6GB i RTX 4060 z 8GB. Powinno być GTX 1060 z 3GB i RTX 4060 z 8GB. Czy byłaby różnica?
Hej mam pytanie zamierzam składać nowego pc i znalazłem całkiem ciekawą kombinację ponieważ chciałbym zakupić Procesor Intel Core i7-10700, 2.9 GHz, 16 MB, BOX (BX8070110700) oraz MSI GeForce RTX 3060 GAMING X 12GB GDDR6 tylko nie wiem za bardzo na jaki czas mi to wystarczy chciałbym n naniej grac w gry typu assasin sons of the forest hogwarts legasy wiedźmin i zastanawia mnie na ile lat starczy taki zestaw by grać w najnowsze produkcję
Nie pisz 2.9 GHz bo to tylko taktowanie bazowe, procesory zawsze boostują wyżej
3060 12GB starczy na dłużej niż RTX 4060 ale to i tak lepiej RTX 3060Ti lub Radeon RX 6700XT / 6750XT
@@A-BYTE94 Jak niby starczy na dłużej jak wydajnościowo 4060 ją zjada
@@Player_-lu5kh pamięć, a wydajność zbliżona. Zjada to 4090 4080-tkę na przykład
Nie przedstawiłeś jak wyglądanaciagany obraz z FG. Bo mam podejrzenie ze to pic żeby tylko więcej fps było. A w praktyce bedzie to gadżet
FG zmniejsza rozdzielczość z fullhd troszunie niżej al enie mega niżej co praktycznie mało zauważalne to jest
1060 6GB jak dla mnie legenda. Jechałem na niej całą pandemie i trochę przed/po. 😍 Zawsze będę o niej pamiętać 😆 obecnie 3090 24GB.
ło panie na tym to już rakiety można w kosmos wystrzelać
@@krecikstukawtaborecik1337 jak ceny spadły to kupiłem. Po 1060 6GB były jeszcze 3060 12GB (vram ok ale GPU za słabe) i 3070ti 8GB (moc była ale za mało Vram) Wkurzyłem się i kupiłem 3090tke.
Mam wyniki 3dmark time spy nawet
1060. 6gb - nie mogę znaleźć screena.
3060 12gb - 8,7tys pkt
3070ti 8gb- 15tys pkt
3090 24GB - 19,5tys pkt
@@Agrabelek_Michal_K No i pięknie teraz to już długo nie będziesz musiał wymieniać karty ja zamówiłem właśnie części na nowego kompa a kartę wziąłem 4060 ti ale mam nadzieję że mnie nikt za to nie zabije
@@krecikstukawtaborecik1337 budżet nas ogranicza. Gdyby było inaczej każdy by miał 4090. No ja nie hejtuje ale internet bywa bezlitosny 😐 zaraz się znajdą komentatorzy. Skoro miałeś daną ilość pieniędzy miałeś kilka opcji, domyślam się nie chciałeś używki 4070 ani wyższego modelu starszej 3 serii stąd ten wybór. Może też nie lubisz amd lub zależało Ci na dlss, nie wiem. Ale nie będę nikogo rypać za jego wybory.
@@Agrabelek_Michal_K prawda jakby każdy miał 20 tysięcy na komputer to świat byłby piękniejszy... używki nie chciałem bo wiesz wolę nową i to strach czasem radeon to wiadomo te sterowniki czy to mit czy to prawda to tam już ciul ale od zawsze i tak wolałem nvdie no a mogłem kupić np 3060 ti ale ona i tak jest gorsza może oplacalniejsza ale mogłem dać więcej kasy za to 15% większą wydajność niż 3060 ti to to zrobiłem a jak będzie się zobaczy
wszystkie testowane karty mają fabryczną termopastę i termopady?
Tak
Oprócz 1060 reszta to nówki sklepowe.
W sumie dość zabawne, że czysty przyrost fps w grach (nie patrząc na ilość vram, szyny itd) pomiędzy 3060 i 4060 jest większy niż pomiędzy 2060 i 3060, a hejt jaki się wylał na 4060 jest jakieś 2137 razy większy, ba na 3060 w sumie mało kto narzekał, część recenzentów nawet polecała ją jako kartę w dobrej cenie dla graczy podczas szału koparkowego. Przy czym cena premierowa 3060 wynosiła 1599 zł, czyli 50 zł więcej od sugerowanej ceny premierowej 4060, którą już teraz można kupić taniej.
Tylko że 3060 ma 12 gb vram
Ciekawy film tez planuje zakupic nowy komputer. Jaki ram byś polecał 2x8gb ddr4? Szukam czegos porzadnego z radiatorami dobrym wykonaniem itp
Serio 16gb brać w deskopie w roku 2023?
@@winio437 no do gier chyba wystarczy chociaz zeczywiscie moze lepiej 32 jak tak to jakie?
Kingston fury możesz spokojnie brać
@@xelectro101 Szczerze firma i model ma małe znaczenie a MHz tyle ile przyjmie płyta glowna
Możesz podać link do twojego filmu jak mówiłeś o DLSS3 i FG?
Szukaj na x-kom :) akurat teraz nie mogę podlinkować.
@@TechLipton Oki dzięki. A jeszcze jedno pytanie. Czy to prawda że aby skorzystać z DLSS3 to muszę mieć aktywny DX12? I ponoć DX12 wymaga więcej VRAM niż DX11.
Bardzo dobry film jak zawsze. 🔥
Kiedy ty miałeś Lipton 2060 w cenie 1060? w 2016 roku można było kupić 1060 za około 1200zł, 2060 kosztowała przez bardzo długo około 1500zł aż do wyjścia 3060.
Od 2 połowy 2019 i do listopada gdzieś 2020 roku było bardzo dużo promocji na rtx 2060 za jakieś 1200 zł i mniej
Panowie na co wymienić 2070? Mam na myśli podobny budżet jak 2070 na premierę
Raczej rtx 4070(wiem cena trochę większa no co poradzić), chyba że masz większy budżet to rx 7900 xt. Zależy w co grasz i w jakiej rozdzielczości. Ja przesiadłem się z rtx 2070 super na rtx 4070 i było warto, ale wtedy sprawdź czy obecny procesor umożliwi ci wykorzystać potencjał karty graficznej
za ta cene bodajze 2k co byla co nie? to mysle ze rtx 4060 ti wydajnosc praktycznie taka sama jak w 3060ti ale jednak to dlss3 zrobi roznice nie kiedy
nie schodź raczej z tieru karty graficznej kup tą rtx 4070 chyba że budżet jest ważny dla ciebie
Można odnieść wrażenie, że na etapie projektowania do działu wpadło paru panów z liczydłami, którzy nie znając się na rzeczy uznali, że RTX4060 będzie rywalizowało nie z RTX3060 12GB a z wersją 8GB. Wtedy ma to większy sens - RTX3060 8GB ma szynę 128bit, tak samo jak i nowość NVidii. Zapomnieli, że jest coś takiego jak RTX3060 12GB. Ba, gdy trzeba pokazać wyższość nowej 60tki nad poprzednikami nakazali naciskać na DLSS_3 i FG. Bez tego te karty są niewypałem w 2023r.
Do i5 12400f opłaca się bardziej 3060 ti, 3060 12 GB czy 4060 ?
3060ti
Opłaca się kupić teraz rtx 3080 za 2000pln i na jak długo starczy 10gb vramu?
jeśli gdzieś masz nowego rtx 3080 ZA TAKĄ cene jakimś cudem bo chodzą po 3k to oczywiście że na lata ci starczy
Nie da się zaprzeczyć, że różnica wydajności pomiędzy GTX 1060 a RTX 4060 jest ogromna przepaść, szczególnie kiedy używamy DLSS 3. Każdy, kto posiada GTX 1060 i chce ulepszyć PC za niższe ceny, to RTX 4060 jest niezła oferta.
Ale dla tych, co posiadają RTX 3060, to nie opłaca się kupić RTX 4060 i lepiej jest zaoszczędzić pieniędzy na RTX 4070 za około 2000-2500 zł gdzieś w przyszłość.
Bardzo dziękuję za bardzo ciekawy test.
❗Błąd ci sie wkradł Lipton 0:56 w RTX 2060 w rozmiarze pamieci jest "240 "....
ja mam rtx 4060 w laptopie . jak gra nie ma tych DLSS to moz zapomiec o płynnym . w HLL mam aby 40 klatek srednio
:)
Kiedy jakis filmik o wyciekach odnosnie specyfikacji kolejnych kart AMD z serii 7000 czyli 77 i 78?
Kiedy będzie coś pewnego bo wróżenie z fusów nic nie daje. 4090 miał pochłaniać 900W, RTX 3080 miał mieć 20GB a 3070Ti 16GB i nic się z tych rewelacji nie potwierdziło
@@sawomirbartosiak2487dokładnie, miał też być GTX 1180 16GB ;p
RTX3060 kosztowały 1500 zł "na premierze"? O ile pamiętam, to koparki wywindowały ceny do niebotycznych. To był główny powód, że wiele osób zrezygnowało z zakupu.
Chodzi o MSRP.
WOW. Ile prądu ciągną te karty? Ja mam 3070 i na liczniku nie przekracza mi 200W w CP2077 na ultra z RT.
Ale sama karta, a nie cała platforma. 3070 TDP ma 220W. A 4060 ma 115 W (ale może wciągnąć nawet 130W)
@@adammajor5169 nie no cały pc u mnie pobiera z gniazdka (mam miernik) ok 200W :- )
@@BRX_2137To nie jest możliwe, chyba że masz ektremalne UV lub grasz z zablokowaną na niską wartość ilością klatek. Wiem, bo sam mam 3070 i watomierz.
@@stark_2991 🤣dobra masz mnie. Faktycznie zaszalałem i zrobiłem UV. Na początek zszedłem do seryjnych zegarów na 0.875V (około 1940mhz) ale mam dziwny fetysz szukania dolnych limitów sprzętu. Więc obniżyłem napięcie tak bardzo jak tylko sterownik mi pozwolił i zszedłem z 1.080V na 0.700V i na 1425mhz. (MSI Aft pokazuje pobór na poziome 70-80W, tyle co mój stary 1050) I nadal CP2077 Działa na mi 900p na ultra z RT. Oczywiście mam słabego proca R5 2600 więc trochę mi ją blokuje. Ale i tak jestem w szoku jak okropna jest oryginalna krzywa napięć w serii 3000.
Jeszcze niecałe 2 miesiące temu miałem RTX 2060 z 3600 i dawała sobie rady z wszystkim. Inna sprawa że ja 90% czasu który spędzam na graniu to spędzam w Battlefield'zie V a tam na ustawieniach LOW, prócz tekstur i siatki, miałem średnio 150-160 klatek. Teraz mam RTX 3070 i 5800X3D i mam 200 nawet na ULTRA i to cały czas, oczywiście mówię o 1080p. Bardzo dobrze wspominam tę kartę, grałem na niej w CONTROL i tam na fajnych ustawieniach w fajnym klatkażu szło nacieszyć oko świetnym ray tracingiem... serio tam RT był świetny, te odbicia tam w tych wszystkich szklanych gablotach w tym federalnym biurze kontroli po prostu wyglądały urzekająco. W takim Wiedźminie 3 RT jest tak beznadziejnie zaimplementowany że widać go, a i to jeszcze słabo, tylko w kałużach w Novigradzie. Sprzedałem RTX 2060 za 700 zł i za tyle samo kolega mi sprzedał RTX 3070 więc zrobiłem świetny interes, ale 2060'tkę będę zawsze wspominał z rozrzewnieniem.
No ta ale RT w Wiedźminie 3 to głównie cienie, a nie odbicia. Odbicia ulepszone w nowej wersji masz nawet bez włączonego RT.
@@piol9060 Ja nie rozumiem jednego, klatki spadły z wersji na wersją UBER do UBER o 30%, a UBER do UBERR+ do 40% ja nie jeszcze więcej. Gra z 215 roku. Teraz ci coś powiem, mam 5000 godzin w Battlefield V, tam na ULTRA, w grze z 2018 roku, mam stale 200 klatek, nigdy mi nie spadają i zamykam tam licznik a nie potrzebuję w plikach gry go odblokowywać bo mam monitor 165Hz i nic mi to w praktyce nie da. Rozumiesz to, mam stałe 200 klatek na ULTRA w grze multi z 64 graczami. Teraz o grafice, grafika w BFV jest 2-3 razy lepsza niż w W3, w każdym aspekcie, w każdym, nie chcę mi się rozpisywać, ale możesz mi wierzyć, 2-3 razy lepsza grafika. I teraz w W3 mam średnio na UBER+ 110-120 klatek z spadkami do 90, a tu mam cały czas 200. Wytłumacz mi to? Ja ci to wytłumaczę, ci co robili Wiedźmina 3 są upośledzonymi debilima i w programowaniu do pięt nie dorastają ludziom z DICE.
Battlefieldy to najlepiej zoptymalizowane gry
@@Romulus84Musisz trolować skoro grafiki gier różniących 3,5 roku stawiasz na równi, W3 to pełnoprawny tytuł AAA z masą zaplecza czego o bf5 nie da się powiedzieć
@@Player_-lu5kh Jasne że tak bo BFV to gra dużo nowsza bo z 2018 roku w której grają 64 osoby w czasie rzeczywistym na przepięknych mapach, musi być rejestrowany każdy jeden pocisk a mimo to gra zamyka licznik czyli 200 klatek na ULTRA, a W3 to gra z 2015 roku w której mam średnio powiedzmy 100 klatek. To jest chore... to jest po prostu śmiechu warte. Ja widzę grafikę w W3 i w BFV i zachodzę w głowę jak to jest możliwe? Tym bardziej że BFV to miliardy razy bardziej skomplikowana do ogarnięcia gra nuż jakiś singlowy tytuł.
Liptonku z tymi 20% różnicy 4060 względem 3060 to bym nie przesadzał, HU pokazał, że w 15 grach w rozdzielczości 1440p mamy tylko 10% skoku wydajności a 1080p to 15% średnio wychodzi 12.5% ta karta to porażka i jedyny jej plus to efektywność energetyczna.
Ciekawe co dalej? 5060 z gorszą wydajnością od poprzedniczki?
No dobrze, a ja mam bazę 14 gier i wynik starcia jest taki jaki mówię. Ufam swoim testom.
@@TechLipton Według mnie trochę wprowadzasz w błąd niektórych widzów, którzy się nie znają na sprzęcie, deklarując w 1:30 "4060 jest mocniejsze o 20% od 3060" co jest nieprawdą, ale ok rób jak uważasz.
Nie każdy gra w 1080p i za 2 lata może się ktoś mocno zdziwić, że jego 4060 jest na poziomie 3060 12GB w 1440p
@@raime6990 tylko że to nie są karty stworzone do grania w 1440p. Sam nad tym ubolewam. 3060 daje w tym wymiarze większe możliwości, ale pewnie duży odsetek osób i tak będzie korzystał z tych kart pod 1080p. W moich testach 4060 wyprzedza 3060 o 15% w 1440p.
@@raime6990Według Techpowerup RTX 4060 jest szybszy od 3060 o 18%. To kto w końcu ma rację? Odpowiedź brzmi: wszyscy. Te 20% różnicy to jest różnica ŚREDNIA na podstawie testowanej puli gier. Dasz do testu inne gry, to wyjdzie Ci inny wynik, bo są gry, które bardziej faworyzują karty Nvidii lub karty AMD. Jeśli oglądasz HU, to powinieneś to wiedzieć.
@@stark_2991 A czemu uważasz, że w innych testach niż te od HU średnia jest ważniejsza? w 15 grach u niego RTX4060 w 1440p okazał się raptem 10% mocniejsze od poprzednika, ba nawet Piotr stwierdził, że u niego 1440p to 15% różnicy więc żadne 20% "średnia" nie wchodzi tutaj w grę nawet wliczając wymierające 1080p. Mylisz pojęcia kolego.
Ja dalej mam 1060 i wszystko mi smiga a na nic innefo mnie nie stac 😢
Fajny film oby więcej takich powstawało nawet ściął włosy jak w starszych materiałach 😁
No cóż trzeba faka pokazać księgowym i zmieniać karte co 2 albo i 3 generację. Dlatemu pozostaje na 3060Ti i olewam obecną gen.
To co ile gen niby zmieniałeś xD 3/4 gen to standard...
Leciwa lecz zacna 1080 GTX EVGA długo czekałem na promocję wtedy po 2700
@@Klermi 1060 mam jeszcze w starym kompie, a 2060S zmieniłem na 3060Ti.
@@szpynda widisz dla mnie zmiana dopiero jeśli do około 1k będę miał karte 2x wydajniejszą od mojej i tak po 3 latach z gtx 1060 3gb przeszedłem na rx 6600, analogicznie do gtx 760 i gtx 1060 3gb
@@Klermi I bardzo słusznie.
czemu nie ma 1660 jakaś dyskryminacja czy co
Jak dla mnie ten dlss z fg to tak jakby zamówić burgera i dostać go bez mięsa z tylko jego aromatem przy czym szef kuchni i całe towarzystwo gastronomiczne zachwyca się tym i nazywa rewolucją na skalę światową.
Czyli ogólnie trzeba wymieniać grafikę co 3- 4 geny. To raz. A dwa wzrost performance w TESTACH to nie zasługa dobrego hardwearu a cheatu softwearowego DLSS (tzn grasz w 1080p ale soft tak to wygładzi że masz wrażenie 16k) i fałszywych klatek (sorry zaawansowany procesor w połączeniu z zaawansowanym softem) między dwie klatki natywne wygeneruje jeszcze jedną, dzięki temu program testowy podbije FPS o 30% .... Kurdę mądre to ....
Widzę, że był mały wypadek z wentylatorami w trakcie testów. 😁✂
szkoda że nie ma jeszcze 960 w porównaniu
Będzie takie porównanie 80 jestem ciekaw czym zastąpić gtx1080ti najrozsądniej wygląda rtx4070 ti
RX 7900XT
Sam składałem komputer z 2 miesiące temu i wybrałem 3060 Ti i jestem mega zadowolony
Zobaczylbym podobny test ale z 1080
Zapisane!
Właśnie muszę kupić 1080 FE.
@@TechLipton Na takiej siedze
O siema, ty też tutaj? :)
Hi Lipton! dobra spoko testy ale ostatnio pisałem komentarz apropo twojej nowej platformy testowej... Mało kto ma taki procesor i łączy go z 1060, lepiej by to wyglądało jak byś wsadził te karty z testów do starej platformy i wtedy zrobił testy, albo przynajmniej do procesora z niżjesz polki, typu poniżej 10 gen intela. to był by super ciekawy materiał!!! i daj znac jak Ty to widzisz z Twojego punktu widzenia, wiem ze to nie łatwe ale takie testy mogły by bardziej zainteresować i pomóc nam dobrać karty bo zapewne większość z nas ma starsze procki :) (patrz steam statystyki). Pozdrawiam serdecznie !
nawet starsze kompy maja już PCIE 3.0 wiec myslę ze nie było by problemu :)
Niewiedziałem ze 2060 miał 240GB Vram ?🤔
Lipton wreszcie !!!! Na takie filmy czekałem platforma też zmieniona jak trzebas !
Polecam się;
Jest szansa na odcinek, gdzie testujesz Quadro (szczególnie w laptopach) i odpowiednią wersję od AMD? W sensie, czy są faktycznie takie słabe w grach itd.
Gram właśnie na A5000 w Diablo IV :)
@@TechLipton k, bo mi chodzi głównie o Minecraft xD Bo mam np.: 980m, ale na javie mam mikrozacięcia, dlatego gram na bedrocku i nie wiem jakby to wyglądało na javie i bedrocku
Do wczoraj służyła mi dzielnie 960m w laptopie i gdyby nie zwarcie na płycie głównej to dalej by było wystarczająco. No ale czas na gtx3060
u mnie podobnie, acer nitro z gtx 1060 6gb wyzional ducha podczas czyszczenia ukladu chlodzenia - nie odpieta bateria + troche nieostroznosci i smrod jakby topionego plastiku... RIP nitro :(
W laptopie? W laptopach te karty są śmieszne
karty z laptopów to największy ściek serio.. miałem 940m i teraz mam 4060 w stacjonarnym no przyrost z 100x
@@golciak6401 no ale tez wez pod uwage, ze porownujesz karty ktore dzieli 5 generacji, oraz 2 klasy (60 i 40)
@@siwuszek przy tej samej generacji i tej samej nazwie karta w PC jest 4 razy bardziej wydajna
Mam rtx 2060 praktycznie od premiery czyli okolo 4 lata i gdy gralem w 1080 to bajka. Kazda gra na ultra 60+ fpsow na spokojnie. Ale gdy sie przesiadlem na 1440p uw monitor no to juz czuc ze karta sie meczy. Ale pomimo tego daje rade ;) wlasnie skonczylem cyberpunka i 60 fpsow luzno na srednich ustawieniach. A takie gry jak league of legends to okolo 200fpsow. Diablo 4 na srednio/wysokich okolo 80 fpsow. Wiec jak ktos szuka budzetowej karty to polecam.
Potwierdzam, ja może w zbyt dużo tytułów nie grywam, ale RTX 2060 też mam od premiery za chwilę na dzień dzisiejszy 29.12.2023 będzie 5 lat i grafika daję radę jak złoto.
Mam kompa z 2060 super i potwierdzam, że nadal da sie grać na tym w detalach ultra lub wysokich nawet w rozdzielczości 1440p.
dlaczego nie wziąłeś do tego porównania gtx 1660?
Bo to nie był następca 1060 :)