Remek videó volt, esetleg lehetne még videó a továbbiakról is: nvidia cuda Cores, DirectX 12 (vagy maga a DirectX), smart acces memory, vagy esetleg az rdna. De ha valakinek van kedve komment szekcióba is mesélhetne róluk valami érdekeset.
Hello! Na végre egy ember , aki (számomra) is érthetően eltudta mondani mire is jó a DLSS. Ismét köszönöm a tanórát István és a többiek. És igen még mindig fent tudjátok tartani az érdeklődésemet így 4-5 év után is, amióta nézem a videoitokat. Üdvözlet , csak egy gamer.
Az a vicc hogy ha nem vagy prémium youtube felhasználó, akkor érdemes az összes videót felkonvertálni 1440p-be, mert úgy már vp09-et használ a youtube, 1080p és alatta pedig avc-vel pixelharccá tömi.
Ahogyan a Volvo a három pontos övet, úgy szerintem ezt a technológiát is szabaddá kéne tenni mert aki nem nvidia-t vesz azt nem ez fogja meggyőzni. Király videó lett!
Csak ennél nem kerül az életedbe a hiánya, míg annál... Évekig AMD-s kártyáim voltam, a 3060TI, amikor megjelent, azon a héten vettem is meg, még emberi áron. Minőségi az előrelépés basszus, nem is kicsit. Imádom, higy az AMD kezd észhez térni VGA szinten is, de lássuk be, hiába van meg az erő, ha a karizma, a körítés jobb a zöldeknél. Egyébként, mindenki előtt, ott a lehetőség, hasonló technológiák kidolgozására, de az Nvidia törte az utat, ő halad jelenleg az "egyfős verseny" élén. Ha lenne konkurencia, mindenkinek jobb lenne :) de ebben, még nincs.
Csak azért, mert téged nem ez a technológia győzne meg arrol, hogy ezért vegyél Nvidia kártyát lesznek sokan akiket ez fog. Vagy csak símán amikor elgondolkoznak azon, mit is vegyenek ezt is odasorólják mint plusz. Buta lenne az Nvidia kiadni ezt a kezéből, még ha tényleg jól járnánk vele, akkor is. Pl.: Konzolokba beletenni, ott lehetne igazán kihasználni.
@@szaszkozsolt3359 plusz tegyuk hozza hogy ez megdobja par evvel a kartya hasznalatanak idejet. Elso 3 evbe nativan birja aztan meg 5 evig meg dlss-el szinte ugyanazt a minoseget.
Király vagy Pistám! Ismét érthetően és "szájbarágósan" nagyon faszán elmagyaráztad amit kell! Király. Nem kell megosztani, legyen csak versenypiac és találjon ki az AMD is valami "hasonlót" amivel eladhatja magát. Most ők megcsinálták ezt a full AMD konfig szinkron dolgot, hát majd meglátjuk azzal mennyit nyernek ők...
Én RTX 2060-al toltam a cyberpunkot és mivel 1440p-s monitorom van ezért életmentő volt a dlss. ultra grafika és balnced dlss mellett 50-60 fps körül mozgott. Nagyon király ez a technológia és remélem, hogy több játék fogja implementálni a dlss-t.
Nagyon klassz videó lett, imádom amikor valamiféle, részben elméleti, dologról meséltek :-D Maga mint technológia nekem nagyon bejövős a dolog, szívesen ki is használnám és updatelnék is GTX 1660-ról. Annak fényében hogy a számítógép alaktrészek az utóbbi évek alatt csak emelkedtej, szinte űdítően hat egy ilyen jelenség, ami képes felfelé skálázni. Maga a módzser külön azért tetszik, mert nagyon ügyes megoldás. Egyre jobban megyünk lejebb processzrooknál kapuszélességet illetően és egyre drágább fejleszteniük a következő méretet. És ilyenkor jó érzés látni ilyen innovatív ötleket ami tulajdonképpen "Hogyan paszírozzunk ki több energiát abból a ugyanabból a szilikonból" ketegória. Nem tudom ki hogy van vele, de nekem tetszenek az ilyen technólogiák már csak mint érdekesség szinten is :-D KI is próbálnám, de ahhoz előszőr kellene szerezni, lehetőleg nem ebay-es és nem raktárhiány miatt felpumpált árakon, RTX 30-as kártyát. Bízok benne hogy talán nyáron vagy ősszel lehet már majd kapni emberi áron RTX 30-as kártyákat. Számomra jelenleg ez a DLSS legnagyobb akadálya.
Nvidia szponzorálja a videót szerinted miért lett ez a videó. Összes nagy tartalom gyártó ezt csinálja csak arról kapsz videót amit a gyártó megfizet. Példa Hollywood Hírügynökség. Ha jó magyarázós videót szeretnél magyarul ott van az altTech vagy több egyéb csatorna.
@@HUNCSA1 Nyilván ők is pénzből élnek ezzel nincs baj de ha objektív tájékoztatást szeretne valaki akkor ne szponzorált videóból tegye én azt javaslom.
@@zolikis5011 Attól,hogy szponzorált még nem biztos, hogy túlzásba viszik a dicséretet vagy hiteltelen lenne. Az AMD-nek is adott a lehetőség nekik is van egy szoftverük ami ezt tudja reklámozhatják ők is ilyen formában. Nekem ez a videó hasznos volt, volt benne egykét dolog ami újdonság volt számomra. Egy nem szponzorált videó is lehet részrehajló ezt is vedd figyelembe.
Cyberpunk-ba bekapcsolva a DLSS quality módot, kicsit elmosa a képet, de az FPS majdnem dupla. Ilyenkor rákapcsolok egy 30% élesítést, és így már alig észrevehető a külömbség. Durván úgy 35fps-ről 60fps-re nő, 3080-al, minden kimaxolva 1440p-ben.
Nagyon jó, hogy ezekről a technológiákról beszéltek. Részemről jöhet még ilyen tartalom, amivel megmagyarázzátok a laikusoknak ezeket a dolgokat. Tetszik! A kérdéssel kapcsolatban. Ha a saját fejlesztés árán technológiai előnyt szerez egy gyártó és a technológiát megtartja magának az szerintem teljesen normális. Csináljon a riválisa jobb technológiai újítást, hogy piaci előnyt szerezzen. Normálisabb így teret nyerni, mint ígérgetésekkel meg árcsökkentéssel a minőség rovására szvsz.
Nagyon várom a berobbanását. VR-hoz kötelező lenne. Én úgy tudom hogy a Facebook is rajta van a projekten az XR2-es chip-el. Szívesen látnék egy DLSS-t használó AAA címet a Quest 2-n.
Hiánypótló videó! Biztos vagyok benne, hogy sok 20-as vagy 30-as szériás NVidia kártyatulajdonosnak fogalma sem volt a funkció mibenlétéről. Aki pedig ezt nem használja ki, gyakorlatilag százezreket lapátol ki az ablakon. Ugyanezt gondolom az iPhone-ok felhasználásáról, a tulajdonosok jelentős hányada szerintem nem tudja, hogyan is kellene megfelelően használni a telefonja fotós képességeit olyan módon, amiért valójában kifizette a készülékért elkért vételárat. Ötletként tehát lehetne egy "Hogyan fotózz a csúcsmobiloddal" jellegű videó is, akár IOS akár Android fronton külön-külön is. Sokan meglepődnének milyen jó készülékeik vannak, amiknek az árát ugyan ott hagyták a boltban, de sosem használták valójában a teljes funkcionalitást.
Pisti, Jani....köszönöm....végre valaki úgy magyarázta el, hogy érthetően fel is tudom használni az infót....köszönöm köszönöm köszönöm!!!! Legobb vidisek vagytok XD
Próbálgattam pár játékban, de nem nagyon értettem mit csinál, mondhatni fel se tűnt, de most hogy megnéztem ezt a videót értem mit tud a DLSS és az azon belüli beállítások. Szeritnem egy nagyon jó technológia és látok benne jövőt.
Köszi az infót, és a minőségi videót! Véleményem szerint jó, és hasznos feature, mindenképp előnyös az Nvidia számára az, hogy az övé. Én ha tippelhetnék nem hiszem, hogy ezt más gyártónak eladnák, legalábbis most amíg viszonylag új biztosan nem. Egy pár éven belül viszont látok rá esélyt, hogy más gyártó is alkalmazza.
Szuper a vidi ,végre érthető a super sampling . MOst már csak azt kéne tudni hogy az nvidia vezérlőpulban hol kell ezt bekapcsolni? Esetleg a játék beállításaiban kell beállítani, nem is a control panelen?
Lévén, hogy se kártyám se játékom, ami a DLSS-t támogatná, én a végéhez szólnék hozzá: A játékpiacon nagyon azt lehet érezni, hogy túlárazás van, de higyjétek el, normális cégeknél irgatlmatlan az a munka, ami mögötte van. Ha ráadásul egy olyan új technológiáról beszélünk, ami ekkora ugrást jelent, szerintem teljesen jogos, hogy a fejlesztő levédi a szellemi termékét, és ha valaki használni akarja (vagy tovább fejleszteni), akkor licencelnie kell.
Sziasztok fiúk az lenne a kérdésem hogy nem csinálnátok-e egy olyan twitch belálitások videót ahol az addonok-at meg minden ilyet ami a chatel valo akitivitást foglalja össze bemutatnátok pl dead cells-hez valo twitches addons amikor a nézők szavaznak a dolgokról nagy segítség lenne
pont tegnap tették ki Linusék hasonló témában a videót, de ott 8K-n izzasztották a top VGA-kat (6900XT és RTX3090), ott azért naaaagyon látszott a DLSS hatalmas előnye
2070super óta használok dlss-t. Most egy 3080-am van és 4k mellett egyszerűen muszáj. Nos melyik játék nem támogatja kérdés: az amiben nincs RT (pont). Máshol a baked-lightmap és egyéb trükkökkel piszok egyszerű nem rombolható(!!!) környezetben RT "hatást" létrehozni. Így ott nem feltétlen fontos az, hogy az amúgy is "piszkosul drága" real time RT-t implementáld, így statikus fényekkel árnyékokkal stb. erőforrást spórolsz és nem kell dlss ahhoz a fránya 4k 60hoz. Nos mindenképp az RT a jövő ugyanis jóval egyszerűbb és költség- és időhatékonyabb megoldás ez fejlesztők számára mint az előbb említett map-eket létrehozni és számoltatni.
Az irány jó, én várom már mikor egy sima itthoni kártyával játékokon kívül is használható lesz a dolog. És valósággá válik mikor a gagyi krimi sorozatok rendőrségi szakértői 144p-s pixeles biztonsági kamerafelvételen a rendszámra élesen rázoomolnak :D
Ez eddig eszembe se jutott hogy erre is lehetne használni de most hogy mondod amúgy az is jó lenne ha digitális fényképnél is pl túl távol van egy családtagod a képen amikor meg nagyítod akkor sajnos nem elég éles a kép tök jó lenne ha ott is használható lenne.
Ugyanaz, mint a PhysX! Mekkora marketing dumákat levágtak róla, és a mai napig két játékban találkoztam vele: az első Mirrors Edge, és a Batman. El fog tűnni ez is a süllyesztőben! Egy tipp: aki ki akarja próbálni, fizessen be GeforceNow-ra, ott elég jól átjön! (Persze ne felejtsetek el előtte egy űber netet bekötni!)
elképzelhető hogy ez a technológia (nyilván más néven) de megjelenik majd az RDNA alapú konzolgenerációkban? Persze a hitman3 úgy néz ki így is hogy a dubai pályán csak azért mászkáltam, de azért bizonyos esetekben nem volna rossz, főleg a 8k-s "tévéken".
Én Cyberpunk alatt használtam a quality dlss beállítást, képtelen voltam megmondani a különbséget a natív 4k és a dlss 1440p skálázott kozott. A fix 60 fps viszont igy megvolt, ami nativ 4k ban azért nem éppen így lett volna. Remélem egyre tobb játék tudni fogja és az amd is előrukkolhatna végre a saját ötletével.
Jelenleg egyik kártyát sem éri megvenni az magas árak miatt, de ápr-júliusra jósolják a polcok feltöltését, akkor az árak is némileg normalizálódnak. Az valószínű hogy MSRP szintre nem fognak visszaesni. Az nvidiának van egy hajszálnyi előnye a DLSS 2.0-val és az RTX-el, de az AMD 7000-es sorozatnál már nem lesz egyértelmű ez az előny, ha a vörösek nemsokára debütáló megoldása beválik ezen a területen.
Muszájból használtam csak a DLSS Quality-t Cyberpunk 2077 alatt, mert anélkül értelmezhetetlenül lassú a 2070 Super 1440p-ben közepes minőségű Ray-tracing beállítással. Még Quality módban is látom a különbséget a natív 1440p (27") és az 1080p-ból felskálázott (DLSS Quality) kép között. Nem az élekkel van a gond, hanem az AI-jal, ami néha nem tudja igazán eltalálni, mit is kellene megjelenítenie a hiányzó pixeleken, ezért olyan zavaros tud lenni a kép, ami nekem nem elfogadható kompromisszum. Szerintem konzolokon sokkal több értelme lenne egy hasonló technológiának, ahol a hosszú életciklust biztosítani tudná vele a gyártó és megszabadulhatnánk a szörnyű Dynamic Resolution Scalingtől. Az NVIDIA-t nem érdekli, hogy mennyire jó lesz annak, aki második-harmadik-akárhányadik tulajdonosként így tud valamit kezdeni majd jövőre egy RTX 2060-nal, nekik a DLSS egy amolyan kötelezően szabadon választott feladat volt, hiszen anélkül gyakorlatilag használhatatlan a Ray-tracing 1080p-s natív felbontás felett még egy RTX 3090-en is (nekem oké a 30-40 fps, de valószínűleg ezzel a kisebbségbe tartozom). A 8K az új 3D és soha nem lesz belőle "mainstream" konzumer monitor kínálat egész egyszerűen azért, mert nem oda készült. Arról nem is beszélve, hogy előbb a Microsoftnak kellene normálisan megcsinálnia végre a rendszer szinten jól működő, alkalmazásfüggetlen dpi skálázást, hogy ne az legyen egy normál méretű 4K-s kijelzőnél, hogy vagy 100%-ban nézek mindent úgy, ahogy ki kell néznie, cserébe nem tudom elolvasni az apró betűket vagy 125-150%-ban már olvasható minden, viszont a GUI bizonyos elemeinek mérete össze-vissza változik. A 8K-nak nagyméretű kijelzőknél van értelme, ahol a dpi van annyira alacsony 4K mellett, hogy egy négyszer akkora felbontás látható előnnyel bír. A PC tulajdonosok döntő többsége monitoron játszik s ennek megfelelően körülbelül fél-egy méterre ül a megjelenítőtől attól függően, hogy az mekkora. A sztenderdnek számító 24-27"-os monitoroknál már a 4K létjogosultsága is megkérdőjelezhető az 1440p-hez képest, ahhoz, hogy a 8K-nak legyen bármi értelme, sokkal nagyobb asztali kijelzőkre lenne szükség, amik pedig nem lesznek egész egyszerűen azért, mert egy 50-55"-os panel külső részei ilyen távolságból bőven kiesnek a sztenderd látómezőből, valamint a szemünknek sokkal hosszabb utat kellene bejárnia, amitől nagyon hamar elfáradnának az ezt mozgató izmaink és jó eséllyel megfájdulna a fejünk is. Nem a felbontás miatt nem terjedtek el a 43"-os monitorok sem, hiába jelent meg évekkel ezelőtt viszonylag sok gyártó (LG, Asus, stb.) kínálatában, de ugyanez elmondható a BFGD-kről is, amik a HDMI 2.1-es TV-k elterjedésével párhuzamosan szerintem utódok nélkül fognak megszűnni.
"A 8K az új 3D és soha nem lesz belőle "mainstream" konzumer monitor kínálat" én is így látom, szerintem ez maximum a konzolosoknál lesz mainstream hiszen ott ugye mindenki egyre nagyobb és nagyobb Tv-t akarnak az emberek a házi mozi miatt is, illetve ott már kellő távolságban is ülnek valószínűleg már egy 70-80colos kijelzőn talán látszik is hangyányit a különbség egy 4k és 8k között. De ez is még vagy 10 év mire a 70-80-as 8k kijelzőknek az árai annyira lemennek hogy minden 2. háztartásban megtalálhatóak lesznek már ha pedig ilyen távlatban gondolkodok akkor eszembe jut a VR és nem is biztos h a kijelzők felé fog elmenni az ipar hanem a VR felé. Pláne hogy most már mindennek megkérik az árát, ahhoz képest pedig most az hp reverb g2 relatíve már nem is drága rádadásul hatalmas ugrá teljesítményben az előző VR cuccokhoz képest a Valve index-el meg simán versenyre kell ami majdnem dupla annyiba kerül. Úgyh azt látom hogy mostmár itt is a minőség egyre elérhetőbb áron van. Én bevallom jobban örülnék ha a VR-ra voksolna a nép, nem pedig a minél nagyobb kijelző +8k+HDR stb. Élményben se akkora az ugrás egy 50colos 4k kijelzőről 75col 8k-ra ugrani mint ugyanazért a pénzért inkább egy VR cuccot venni, ha ezeket átgondolnák jobban az emberek végre lenne annyi VR eszköz a háztartásban amire már a fejlesztőknek megérné még több VR játékot fejleszteni és végre kijöhetnénk ebből az ördögi körből.
Sziasztok! RTX 3080 mellett nálam alapból is jól fut pl. a Control, szerintem single player játékokban nem annyira fontos a 100+ fps, simán jó az 50-60-70 fps-sel is (feltéve, ha stabil), ezért én nem vállaltam be a minőségromlást a plusz teljesítményért. Renderelje csak ki natívba a 3440*1440-t a kártya, minden apró részlettel együtt... :) Viszont! Gyors játékokban (pl: fps, autoverseny, akármilyen kompetitív játék) nem feltétlenül zavaró, sőt, valószínűleg észre sem veszi az ember, mivel hirtelen rángatja az egeret, a szem egy adott pontra (ellenfél, úttest, stb) fókuszál, magyarul a környező világot nem vizsgáljuk hosszasan. Ilyen esetben óriási előny tud lenni, ha ugyanazzal a hardware-rel több fps-t tudunk kisajtolni a játékból. (Itt arra gondolok, amikor mondjuk 60-ról 100-ra emelkedik az fps, nem arra, hogy 300-ról 500-ra, mert annak semmi értelme nincs, amíg nem 500 Hz-es monitoron nézed) - Ez magánvélemény volt, mindenkinek joga van nem egyetérteni velem. :)
DLSS szerintem egy remek funkció (bár sajna én nem tudom kipróbálni) Viszont ami még egy remek funkció lehetne, ha ezt párosítanák a dinamikus felbontással. Például a cél 4k 60 fps, de a gép néha 1800p-ben tudja kirenderelni, sőt valamikor csak 1600p-ben és onnan skálázza fel a játékot. Így a minőség romlás még kisebb lehetne. (Mint a konzolokban, itt is lenne quality és performance mód.) Bár ezzel az a baj, hogy nehezebben marketingelhető (és a fejlesztés is bonyolultabb). De persze kitudja mi lesz még, hisz valószínűleg nem a 2.0 lesz az utolsó verzió.
Az nvidia marketing azért csodálatos: DSR - Dynamic Super Resolution. Fityfrancot, egy blur szűrővel megbolondítható SSAA DLSS - Deep Learning Super Sampling. Értem én, hogy AI van benne, nem véletlenül éles a végeredmény, de ez minden, csak nem Super Sampling. Persze, az AIUS (AI UpScaling) nem cseng olyan jól. :D Majd egyszer megnézem, hogy DLSS vagy sima átméretezés jön be. Akció közben pont nem veszek észre semmit, ha meg megállok nézelődni, akkor a DLSS-t is tuti észreveszem. Ahogy Linus is megmondta: Ha rossz cucc jön be, rossz cucc lesz a végeredmény is, (Garbage in, garbage out) mert ez sem csodaszer. (sokat segíthet, ha a játékot írók dlss-nél a célfelbontás részletességével rakják ki az objektumokat, és nem spórolják le őket a forrás felbontás szintjére :D Pl Cyberpunk: dlss-el eltűnő távoli aszfalt felfestés)
Tetszzett a videó. Viszont lenne egy kérdésem Pisti. ATI kártyát használok de gondolkodom a váltáson, a DLSS még tett a lapátra. Viszont ennek a technológiának a VR-re van hatása, abban is lehet érzékelni, beállítani. Valve Index-et használok.
Cyberpunk ajánlott beállításai: -1080p "Quality DLSS" (720p render) -1440p "Balanced DLSS" (835p render) Az ultra performance-ot meg el kéne felejteni, mert annyira kis felbontáson renderel, nem is értem miért ezt kellett beletenni a videoba.
Használtam DLSS-t, (3080) Watch Dogs Legion... Az a baj vele, hogy nincs processzor ami kitudná hajtani e videókártyát, 4K ban ugyan annyi FPS-em van mint 1080p-ben, annyi különbséggel, hogy akkor nem 100%-át használja a videókártyámnak. DLSS is csak 5 FPS-t segített, ultra perf-en.
Hát nem tudom, nekem is 3080 van, 5600x-el párosítva, és még egyik game se jutott a közeléba annak, hogy cpu bottleneck legyen és ne GPU. 1440p-ben egyedül Cyberpunk ami 60%os használtság fölé tudja tolni CPU-t, és ugyebár 4k-nál a GPU lesz ismét mégjobban a bottleneck.
@@nagymesterb111 I7-8700k-m van, megnéztem benchen, 5%-al több fps em lenne 10900k-val, ami azt jelenti h fullhd-ban nem 55 lenne hanem 60. De még ígysem használná ki. Úgy lehet megnézni hogy összesen hány fps-el fut a játék, hogy leveszel mindent a legalacsonyabbra, még a felbontást is, úgy lett 70fps autózás közben... nincs processzor még sajnos... a cyberpunknál ott már jóval jobb, 4K-ban van 60fps em dlss offal, 80% gpu mellett.
1:37 egy kijelzőnek mindig a natív felbontásán fog lenni a legjobb képminősége. Gondoljatok már bele, hiába van UHD "szoftveresen" ha a hardver csak QHD-t tud. Fizikálisan nincs olyan képpont ami megfogja jeleníteni az extra felbontást. Ennyi erővel csinálhatnánk azt, hogy beállítom a játék menüjében a UHD felbontást és játszom a QHD-s monitoromon.
Én minden jatekban használom ahol elérhető, hiszen sok új játék enélkül nem is megy. Egy 2080 Ti kartyam van, ami nem egy mai darab, de DLSS-sel jól el tud vinni szinte mindent, még a Cyberpunkot is, igaz csak 55fpssel.
Nekem az a fura, hogy eddig bármiben kapcsoltam be a DLSS-t, homályos, pixeles, olyan mintha az egész out-of-focus lenne (Cyberpunk pl. totálisan eltörik tőle). szóval igazából szerintem fontos kiemelni a DLSS-nél, hogy ez 1440p-4K felbontásoknál tud jó lenni, 1080p-nél valahogy nem működik olyan jól ez a felskálázós dolog.
Szerintem ez egy olyan dolog ami a konzolokban tudna a leginkább hasznosulni. Persze ez már maximum a következő generációbam valósulhatna meg (esetleg PS5 pro? 🤔) és csak akkor ha valami úton módon az AMD is összerakna egy ilyet. (ha csak nem döntenek úgy a Sonynál/MS-nél, hogy az Nvidiától rendelnek konzolba gpu-t, bár arra gondolom nem sok esély van.)
Csak gondoljátok bele ha Cloud Game- nél (Xbox Game Pass UNLIMIT) használnák akkor ugyanannyi stream-nél jobb képet és jobb FPS-t kapnánk, mert ez úgy jön ki mint ha tömöreitené a képet(adatát) és féljavitva és felgyorsitva( mint a tv nél a kép meg duplázó) jönne ki és ez ugyanannyi vagy talán kevesebb adat stream esetén, jó lenne minden hol, főleg a Cloud-é a jövő és ez vonatkozik nem csak a Game-re( A jövő PC is csak egy modem ból fog állni) mert így ár ő kezükben van az irányítás.
5500xt-m van, ezért a dlss nekem nem elérhető, de bekapcsoltam e videó miatt a FidelityFX CAS-t 85%-on és a cyberpunkra meg horizonra rá is ment vagy 20 fps(high beállítások mellett). Ezer köszi, hogy felhívtad a figyelmemet rá, el sem hiszem hogyan nem próbáltam ki eddig :'D
Egy gigabyte aorus 2070-es kártyával tolom! Az első játék, amin észrevettem, és bekapcsoltam a dlss-t az az f1 2020 volt, de ott nem sikerült túl jól szerintem!
Cyberpunk 2077-ben használom a DLSS-t Performance módban egy Gigabyte Aorus Master Rtx 3070-nel és tényleg döbbenet a teljesítmény sőt még a bug is kevesebb, mint az ismerőseimnek.
Pont megfogalmazódott bennem a kérdés, hogy "Akkor én ezt kitunám használni a 1070-emmel?" és akkor vágta rá Pisti, hogy "Sajnos a tízedik generációs kártyák nem tudják". :( Sad story :(
3080-am van. Nem használom, inkább 2K-ban játszom ray tracing mellett, legmagasabb grafikai beállításokkal. Rt-nélkül pedig 4K. Hozzá G-sync monitor, hogy folyamatos legyen a kép. Én sokat olvastam róla és próbálgattam is szinte minden játékban, amiben tudtam, de arra jutottam, hogy amíg nem kell kifejezetten sok fps, addig inkább a minőséget választom. Még a dlss quality ami szóba jöhetne, de a balanced, meg a performance az nagyon felejtős. Rengeteget romlik a kép, legalábbis nekem. Még az új codban gondolkoztam, hogy használom, de inkább saját magam állítgattam be, hogy hol vegyen el a grafikából. Talán, ha több beállítási lehetősége lenne a dlssnek és nem csak preset dolgok, akkor vonzóbb lenne. Pl. jó lenne, ha én állíthatnám be, hogy milyen felbontásból csinálja a képet. Idővel több értelme lesz, amikor már a mostani kártyák nem bírják az iramot és akkor rádurrantani a dlss-t. Ahogy Pisti is mondta, ez most a 10-es széria tagjainak lenne nagyon jó.
True, itt a gond azzal van ahogyan a játékokban implementálják a dlsst. Jól hangzik meg minden de az új codban speciel eszméletlenül el tudja homályosítani a képet ami engem például kurvára zavar. Mintha egy megszáradt festmènyre ráöntenèk egy pohár vizet. Bf5ben például semmi gondom vele.
A DLSS 3.0-nak már a grafikát kellene feljavítania. Tehát az AI-nak egy már grafikailag feljavított, élethűbb rendert kellene produkálnia. Pl. az openworld-játékoknál a távoli hegyek, amelyek valójában nagyon alacsonyszintű LOD-ban vannak renderelve, kvázi magasabb szintű LOD-ban jelenjenek meg, mert "az AI tudja, hogyan festene az a hegység magasszintű LOD-ban renderelve". Konkrétan ehhez ugyebár a pálya minden részéből ki kellene renderelni az egész pályát magas LOD-ban, és azt megtanítani az AI-nak. De biztosan van ebben még további potenciál (arcok, felületek).
Hát nem tudom, RTX 2070-nel, full HD-ban elfut szépen a CP ultra és high beállításokkal (árnyékokat lejjebb véve) és high ray tracinggel. Ez olyan stabil 40-50 FPS, kivéve ha a sűrűjében száguldozok. A DLSS Quality mode-ban csúnyább lett picit és FPS-t vesztettem, Performance mode-ban nagyon csúnya lett és az FPS maradt ugyan annyi.
Szerintem ne ossza meg a technológiát a konkurenciával, csak nehogy elkényelmesedjen és lemaradjon a cég, míg a többi elhúz mellette. De ha így nézzük, tegye közzé, hogy más fejlesztéseken is gondolkodjon. Igazából bármelyik említett verzió jó, a lényeg, hogy hosszútávon "nekem" jó legyen. :)
Egyébként a DLSS annál hatékonyabb lesz minél nagyobb az alap felbontás nem? Tehát ha eljutunk oda hogy lazán menjen 4K, 5K natív felbontásban akkor onnan már szebben fel tudja skálázni 8 vagy 10K -ra mint mondjuk 1080P ről 4K-ra.
Én pont a DLSS miatt vettem 3440x1440p-s 144Hz-es monitort. CoD:BOCW-ben High beállítással 135-144fps-el fut a játék Ultra Performance DLSS-sel. Persze ehhez kellett egy RTX 3070, de azt hiszem, ha jobban terjed a DLSS, hosszú évekig megoldottam a hardver kérdést. A 8gb vram is elégnek tűnik így.
Nem hiszem, viszont inkább a fidelity ami terjedni fog, AMD oldali, de ugyan az. Ez az Nvidia oldaláról picit átverés szagú, mert ugye kevés játék támogatja, na most vegyél ezért x kártyát mert lehet fogja támogatni...én ilyenekben már nem hiszek, inkább megyek a biztosra.
Na, ezt hívják optimalizációnak! Ez hiányzok most a legtöbb helyről, amiért ilyen túlzó gépigények vannak. De gyanítom, hogy amint elterjed, valamit módosítanak majd az okosok, hogy ne járj jobban. Pl. gyengébb videokártyákat dobnak piacra ugyanannyiért, vagy más egyéb. Úgyhogy addig kell kihasználni, amíg lehet.
Nekem is ez jutott eszembe. :D De nyilván idővel azt fogja szolgálni, mikor a 2xxx/3xxx szériát már a kukából guberálod mert annyiért tudsz venni, miközben a sokX-edik számú drága kártyákkal pörögnek alapon a gémek, de akkor is láss valamennyire szépet.
8k ultrán 3090 is haldoklik szóval az erő relatív... És akinek van pénze 3090-re, lehet a nappaliban ott virít a 8ks tévé és a nem fps játékokat azon tolná érted.
Ne úgy nézd. 2080ti om van 1440p s felbontású a monitor. Ezen a felbontáson azért nem kell beszarni az fpstől ezen a kártyán se. Ezzel a technológiával így már tudsz javítani rajta.
Kisérleteztem na most en egy örök 1080hd jatékos maradok aki az fps re teszi a hangsulyt. észrevettem hogy ha bekapcsolom az image scalinget es rateszek 3-4 szazalekot.. Kellemesen gyorsul minden...
"Független" tech csatornaként azért megemlíthetnéd, hogy a Radeon AMD Virtual Super Resolution lényegében ugyanezt csinálja . Csak két mondatban legalább, ha egyáltalán még tehettek említést más gyártókról.. ;). Csak azért mert az Nvidián kívül a Radeon is nagyon érdekes technológiákkal szolgál.
Emlékszem amikor kijöttek az RTX-es kártyák pont Pisti vonogatta a vállát hogy ennek igazán sok értelme nincs, annyival nem szebb ha mégis viszont nagyon visszaesik a teljesítmény amúgy se sok játék támogatja és talán majd a köv. generáció. Nekem már akkor is a DLSS volt ami miatt az esedések videokártya fejlesztésnél 1060 helyett inkább 2060-at vettém, és bizony bejött a számításom. Főleg hogy azóta is tartja magát az árát, sőt az infláció miatt most még drágább! És viszont úgy is csak FHD-ban játszok (a TV-m ezt tudja, de nálam a 4k-nak értelme sincs mert hiába van kétféle szemüvegem, egyszerűen nem vagyok sasszem, a 720p és a 1080p közt még épp látom a különbséget de főleg játékokban. Nagyobb felbontásokhoz új szemek kellenének :P ). Sőt bízok benne hogy a DLSS 3.0 tényleg már minden játékra ráhúzható lesz. Már csak egy motion interpolation kellene driverből (az új okostv-k tudják, de egy működő tv-t ezért nem fogok kihajítani hogy újat vegyek) - ami nyilván nem lehetetlen hiszen ffdshow szűrő tudja, meg a force unleashedben is működött.
Ez a DLSS elég király feature. De én nem tudnák az rtx-es szériákra váltani. Egyrészt anyagi okokból, másrészt mert nekem egy 1060 van egy ROG GR8 II-ben amit aki ismer csak a gyári kártya illik bele :/
Remek videó volt, esetleg lehetne még videó a továbbiakról is: nvidia cuda Cores, DirectX 12 (vagy maga a DirectX), smart acces memory, vagy esetleg az rdna. De ha valakinek van kedve komment szekcióba is mesélhetne róluk valami érdekeset.
Hello!
Na végre egy ember , aki (számomra) is érthetően eltudta mondani mire is jó a DLSS. Ismét köszönöm a tanórát István és a többiek. És igen még mindig fent tudjátok tartani az érdeklődésemet így 4-5 év után is, amióta nézem a videoitokat.
Üdvözlet , csak egy gamer.
Plot twist: ez a videó 720p-ben lett felvéve. A többi a DLSS
*Betanították a videokártyának Pistit*
Az a vicc hogy ha nem vagy prémium youtube felhasználó, akkor érdemes az összes videót felkonvertálni 1440p-be, mert úgy már vp09-et használ a youtube, 1080p és alatta pedig avc-vel pixelharccá tömi.
Plot twist??
R9 5950x proci és RTX 3080 párossal tolom. Amióta bekapcsolom a DLSS-t nem csak az FPS-em, de a faszom is kétszer akkora.
Ez olyan zsoze atyás volt:D mint egy tűzcsap akkora more:D
mennyibe és honnan sikerült beszerezned rtx 3080at?:D
@ Leesett a kamionrul... xD xD xD
Ó, tehát ezért nem volt délután stream. Végülis megérthető. Jó lett a videó.
Ahogyan a Volvo a három pontos övet, úgy szerintem ezt a technológiát is szabaddá kéne tenni mert aki nem nvidia-t vesz azt nem ez fogja meggyőzni. Király videó lett!
Csak ennél nem kerül az életedbe a hiánya, míg annál...
Évekig AMD-s kártyáim voltam, a 3060TI, amikor megjelent, azon a héten vettem is meg, még emberi áron. Minőségi az előrelépés basszus, nem is kicsit. Imádom, higy az AMD kezd észhez térni VGA szinten is, de lássuk be, hiába van meg az erő, ha a karizma, a körítés jobb a zöldeknél.
Egyébként, mindenki előtt, ott a lehetőség, hasonló technológiák kidolgozására, de az Nvidia törte az utat, ő halad jelenleg az "egyfős verseny" élén. Ha lenne konkurencia, mindenkinek jobb lenne :) de ebben, még nincs.
Csak azért, mert téged nem ez a technológia győzne meg arrol, hogy ezért vegyél Nvidia kártyát lesznek sokan akiket ez fog. Vagy csak símán amikor elgondolkoznak azon, mit is vegyenek ezt is odasorólják mint plusz. Buta lenne az Nvidia kiadni ezt a kezéből, még ha tényleg jól járnánk vele, akkor is. Pl.: Konzolokba beletenni, ott lehetne igazán kihasználni.
@@szaszkozsolt3359 plusz tegyuk hozza hogy ez megdobja par evvel a kartya hasznalatanak idejet. Elso 3 evbe nativan birja aztan meg 5 evig meg dlss-el szinte ugyanazt a minoseget.
Mi az a biztonsági öv?
AMD is újíthatna valami hasonlót. Végre valami értelme is lenne az ún. 'EMI'-nek
@@Steel9k Olvass, már megtette. Nem néztél tavaly egy qrva videót se az új AMD kártyákról?
Megnéznék egy comparison videót a 30-as RTX szériáról, meg az NVidia helyzetről, a scalperekről és a processzorhiányról. Am jó lett a vidi 😂
Ez közösség elleni izgatás, 2021 Január, amikor, ha videókártyát vennél a boltos azt mondja: Ha vóna se vóna!
"Nvidia 16 Series left the chat"
Mar mondtam magamban hogy 200 fps-sel fogom majd nyomni a cod mw-t 😂😂😂
Same :(
Király vagy Pistám! Ismét érthetően és "szájbarágósan" nagyon faszán elmagyaráztad amit kell! Király.
Nem kell megosztani, legyen csak versenypiac és találjon ki az AMD is valami "hasonlót" amivel eladhatja magát.
Most ők megcsinálták ezt a full AMD konfig szinkron dolgot, hát majd meglátjuk azzal mennyit nyernek ők...
Én RTX 2060-al toltam a cyberpunkot és mivel 1440p-s monitorom van ezért életmentő volt a dlss. ultra grafika és balnced dlss mellett 50-60 fps körül mozgott. Nagyon király ez a technológia és remélem, hogy több játék fogja implementálni a dlss-t.
továbbra is profik vagytok mindegy igazából, hogy miről csináltok videót. Köszi srácok! ;)
Már értem...
DLSS OFF = Amikor nincs rajtam a szemüvegem
DLSS ON = Amikor rajtam van a szemüvegem
Köszi! :)
És tényleg :)
@@gyorgybereg6916 Felvettem az olvasó szemüvegemet és közelebb hajoltam a monitorhoz. :D
Amúgy össze foglalta. :)
@@Medvegyuri nem szarkazmusból mondtam.
@@gyorgybereg6916 Nyugi, át jött a poén. ;) Csak megszaladt a billentyűzetem...
Üdv, én AMD-és vagyok és kiváncsi lennék egy ilyen videóra csak az AMD FSR technológiáról! :)
Nagyon klassz videó lett, imádom amikor valamiféle, részben elméleti, dologról meséltek :-D
Maga mint technológia nekem nagyon bejövős a dolog, szívesen ki is használnám és updatelnék is GTX 1660-ról. Annak fényében hogy a számítógép alaktrészek az utóbbi évek alatt csak emelkedtej, szinte űdítően hat egy ilyen jelenség, ami képes felfelé skálázni. Maga a módzser külön azért tetszik, mert nagyon ügyes megoldás. Egyre jobban megyünk lejebb processzrooknál kapuszélességet illetően és egyre drágább fejleszteniük a következő méretet. És ilyenkor jó érzés látni ilyen innovatív ötleket ami tulajdonképpen "Hogyan paszírozzunk ki több energiát abból a ugyanabból a szilikonból" ketegória. Nem tudom ki hogy van vele, de nekem tetszenek az ilyen technólogiák már csak mint érdekesség szinten is :-D
KI is próbálnám, de ahhoz előszőr kellene szerezni, lehetőleg nem ebay-es és nem raktárhiány miatt felpumpált árakon, RTX 30-as kártyát. Bízok benne hogy talán nyáron vagy ősszel lehet már majd kapni emberi áron RTX 30-as kártyákat. Számomra jelenleg ez a DLSS legnagyobb akadálya.
Mondjuk a 1660Ti-S-nek meg a 1650-nek is elég nagy segítség lenne pár helyen. Most meg szívjuk a fogunkat. :D
Pls még ilyen megmagyarázós videókat(nagyon jó lett)
Nvidia szponzorálja a videót szerinted miért lett ez a videó. Összes nagy tartalom gyártó ezt csinálja csak arról kapsz videót amit a gyártó megfizet. Példa Hollywood Hírügynökség.
Ha jó magyarázós videót szeretnél magyarul ott van az altTech vagy több egyéb csatorna.
@@zolikis5011 Ezt itt a reklám helye. Ez ki maradt.
@@HUNCSA1 Nyilván ők is pénzből élnek ezzel nincs baj de ha objektív tájékoztatást szeretne valaki akkor ne szponzorált videóból tegye én azt javaslom.
@@zolikis5011 Attól,hogy szponzorált még nem biztos, hogy túlzásba viszik a dicséretet vagy hiteltelen lenne. Az AMD-nek is adott a lehetőség nekik is van egy szoftverük ami ezt tudja reklámozhatják ők is ilyen formában. Nekem ez a videó hasznos volt, volt benne egykét dolog ami újdonság volt számomra. Egy nem szponzorált videó is lehet részrehajló ezt is vedd figyelembe.
@@HUNCSA1 Persze csak az nyitott, ez meg zárt, a fidelityt pont ezért fogják valszeg betenni, jobban megéri.
Cyberpunk-ba bekapcsolva a DLSS quality módot, kicsit elmosa a képet, de az FPS majdnem dupla. Ilyenkor rákapcsolok egy 30% élesítést, és így már alig észrevehető a külömbség. Durván úgy 35fps-ről 60fps-re nő, 3080-al, minden kimaxolva 1440p-ben.
wow srácok :O nagyon jó lett a videó látszik,hogy mennyire vágjátok ezt és mennyire át tudjátok adni az infot :)
Nagyon jó, hogy ezekről a technológiákról beszéltek. Részemről jöhet még ilyen tartalom, amivel megmagyarázzátok a laikusoknak ezeket a dolgokat. Tetszik!
A kérdéssel kapcsolatban. Ha a saját fejlesztés árán technológiai előnyt szerez egy gyártó és a technológiát megtartja magának az szerintem teljesen normális. Csináljon a riválisa jobb technológiai újítást, hogy piaci előnyt szerezzen. Normálisabb így teret nyerni, mint ígérgetésekkel meg árcsökkentéssel a minőség rovására szvsz.
Köszi srácok a videót. Nagyon királyak vagytok.
Ezt a videót az NVIDIA és az ASUS Magyarország támogatta. Egy rakás másik jutyuber is ma tett ki dlss-el foglakozó videót. Jól teszik! :D
Nagyon várom a berobbanását. VR-hoz kötelező lenne. Én úgy tudom hogy a Facebook is rajta van a projekten az XR2-es chip-el. Szívesen látnék egy DLSS-t használó AAA címet a Quest 2-n.
Megvilágosodtam. Köszi nektek. Zseniálisan tömören, érthetően össze van szedve az infó.👍
Hiánypótló videó! Biztos vagyok benne, hogy sok 20-as vagy 30-as szériás NVidia kártyatulajdonosnak fogalma sem volt a funkció mibenlétéről. Aki pedig ezt nem használja ki, gyakorlatilag százezreket lapátol ki az ablakon. Ugyanezt gondolom az iPhone-ok felhasználásáról, a tulajdonosok jelentős hányada szerintem nem tudja, hogyan is kellene megfelelően használni a telefonja fotós képességeit olyan módon, amiért valójában kifizette a készülékért elkért vételárat. Ötletként tehát lehetne egy "Hogyan fotózz a csúcsmobiloddal" jellegű videó is, akár IOS akár Android fronton külön-külön is. Sokan meglepődnének milyen jó készülékeik vannak, amiknek az árát ugyan ott hagyták a boltban, de sosem használták valójában a teljes funkcionalitást.
Pisti, Jani....köszönöm....végre valaki úgy magyarázta el, hogy érthetően fel is tudom használni az infót....köszönöm köszönöm köszönöm!!!! Legobb vidisek vagytok XD
Ilyen teki témákból lehetne sorozat is, akár a retro 3D techtől indulva, DX 3 stb :) néznénk :)
Próbálgattam pár játékban, de nem nagyon értettem mit csinál, mondhatni fel se tűnt, de most hogy megnéztem ezt a videót értem mit tud a DLSS és az azon belüli beállítások. Szeritnem egy nagyon jó technológia és látok benne jövőt.
Köszi az infót, és a minőségi videót! Véleményem szerint jó, és hasznos feature, mindenképp előnyös az Nvidia számára az, hogy az övé. Én ha tippelhetnék nem hiszem, hogy ezt más gyártónak eladnák, legalábbis most amíg viszonylag új biztosan nem. Egy pár éven belül viszont látok rá esélyt, hogy más gyártó is alkalmazza.
Rekord intró :D
Szuper a vidi ,végre érthető a super sampling . MOst már csak azt kéne tudni hogy az nvidia vezérlőpulban hol kell ezt bekapcsolni?
Esetleg a játék beállításaiban kell beállítani, nem is a control panelen?
Lévén, hogy se kártyám se játékom, ami a DLSS-t támogatná, én a végéhez szólnék hozzá: A játékpiacon nagyon azt lehet érezni, hogy túlárazás van, de higyjétek el, normális cégeknél irgatlmatlan az a munka, ami mögötte van. Ha ráadásul egy olyan új technológiáról beszélünk, ami ekkora ugrást jelent, szerintem teljesen jogos, hogy a fejlesztő levédi a szellemi termékét, és ha valaki használni akarja (vagy tovább fejleszteni), akkor licencelnie kell.
Sziasztok fiúk az lenne a kérdésem hogy nem csinálnátok-e egy olyan twitch belálitások videót ahol az addonok-at meg minden ilyet ami a chatel valo akitivitást foglalja össze bemutatnátok pl dead cells-hez valo twitches addons amikor a nézők szavaznak a dolgokról nagy segítség lenne
pont tegnap tették ki Linusék hasonló témában a videót, de ott 8K-n izzasztották a top VGA-kat (6900XT és RTX3090), ott azért naaaagyon látszott a DLSS hatalmas előnye
Most jöttem rá hogy az indexkép Nessaj vlog videójában láható amikor Jani mondja hogy valami clickbaitet rak Pisti mögé :D
Szóval egy 1080p monitoron, ha játszok valamivel 720p-be de bekapcsolom a dlss-t akkor gyakorlatilag szinte 1080p be fogom látni ugyanúgy?
2070super óta használok dlss-t. Most egy 3080-am van és 4k mellett egyszerűen muszáj.
Nos melyik játék nem támogatja kérdés: az amiben nincs RT (pont). Máshol a baked-lightmap és egyéb trükkökkel piszok egyszerű nem rombolható(!!!) környezetben RT "hatást" létrehozni. Így ott nem feltétlen fontos az, hogy az amúgy is "piszkosul drága" real time RT-t implementáld, így statikus fényekkel árnyékokkal stb. erőforrást spórolsz és nem kell dlss ahhoz a fránya 4k 60hoz. Nos mindenképp az RT a jövő ugyanis jóval egyszerűbb és költség- és időhatékonyabb megoldás ez fejlesztők számára mint az előbb említett map-eket létrehozni és számoltatni.
Az irány jó, én várom már mikor egy sima itthoni kártyával játékokon kívül is használható lesz a dolog. És valósággá válik mikor a gagyi krimi sorozatok rendőrségi szakértői 144p-s pixeles biztonsági kamerafelvételen a rendszámra élesen rázoomolnak :D
Ez eddig eszembe se jutott hogy erre is lehetne használni de most hogy mondod amúgy az is jó lenne ha digitális fényképnél is pl túl távol van egy családtagod a képen amikor meg nagyítod akkor sajnos nem elég éles a kép tök jó lenne ha ott is használható lenne.
A TVbe direkt LockDown felirat ment xD
Király videó, de mintha más a kép, tán megjött az új main kamera? 🤔😅
Ugyanaz, mint a PhysX! Mekkora marketing dumákat levágtak róla, és a mai napig két játékban találkoztam vele: az első Mirrors Edge, és a Batman.
El fog tűnni ez is a süllyesztőben!
Egy tipp: aki ki akarja próbálni, fizessen be GeforceNow-ra, ott elég jól átjön! (Persze ne felejtsetek el előtte egy űber netet bekötni!)
elképzelhető hogy ez a technológia (nyilván más néven) de megjelenik majd az RDNA alapú konzolgenerációkban? Persze a hitman3 úgy néz ki így is hogy a dubai pályán csak azért mászkáltam, de azért bizonyos esetekben nem volna rossz, főleg a 8k-s "tévéken".
Pistinek lassan akkora szakálla lesz hogy 20 év múlva ő lesz az új mikulásxdd
Most még csak kezdő Gandalf :D
@@xgengeezer6331 lvl 1 :D
Én Cyberpunk alatt használtam a quality dlss beállítást, képtelen voltam megmondani a különbséget a natív 4k és a dlss 1440p skálázott kozott. A fix 60 fps viszont igy megvolt, ami nativ 4k ban azért nem éppen így lett volna. Remélem egyre tobb játék tudni fogja és az amd is előrukkolhatna végre a saját ötletével.
Köszönjük!
Hasznos tudás nekünk gamer-eknek!
Jelenleg egyik kártyát sem éri megvenni az magas árak miatt, de ápr-júliusra jósolják a polcok feltöltését, akkor az árak is némileg normalizálódnak. Az valószínű hogy MSRP szintre nem fognak visszaesni. Az nvidiának van egy hajszálnyi előnye a DLSS 2.0-val és az RTX-el, de az AMD 7000-es sorozatnál már nem lesz egyértelmű ez az előny, ha a vörösek nemsokára debütáló megoldása beválik ezen a területen.
Muszájból használtam csak a DLSS Quality-t Cyberpunk 2077 alatt, mert anélkül értelmezhetetlenül lassú a 2070 Super 1440p-ben közepes minőségű Ray-tracing beállítással. Még Quality módban is látom a különbséget a natív 1440p (27") és az 1080p-ból felskálázott (DLSS Quality) kép között. Nem az élekkel van a gond, hanem az AI-jal, ami néha nem tudja igazán eltalálni, mit is kellene megjelenítenie a hiányzó pixeleken, ezért olyan zavaros tud lenni a kép, ami nekem nem elfogadható kompromisszum. Szerintem konzolokon sokkal több értelme lenne egy hasonló technológiának, ahol a hosszú életciklust biztosítani tudná vele a gyártó és megszabadulhatnánk a szörnyű Dynamic Resolution Scalingtől. Az NVIDIA-t nem érdekli, hogy mennyire jó lesz annak, aki második-harmadik-akárhányadik tulajdonosként így tud valamit kezdeni majd jövőre egy RTX 2060-nal, nekik a DLSS egy amolyan kötelezően szabadon választott feladat volt, hiszen anélkül gyakorlatilag használhatatlan a Ray-tracing 1080p-s natív felbontás felett még egy RTX 3090-en is (nekem oké a 30-40 fps, de valószínűleg ezzel a kisebbségbe tartozom).
A 8K az új 3D és soha nem lesz belőle "mainstream" konzumer monitor kínálat egész egyszerűen azért, mert nem oda készült. Arról nem is beszélve, hogy előbb a Microsoftnak kellene normálisan megcsinálnia végre a rendszer szinten jól működő, alkalmazásfüggetlen dpi skálázást, hogy ne az legyen egy normál méretű 4K-s kijelzőnél, hogy vagy 100%-ban nézek mindent úgy, ahogy ki kell néznie, cserébe nem tudom elolvasni az apró betűket vagy 125-150%-ban már olvasható minden, viszont a GUI bizonyos elemeinek mérete össze-vissza változik. A 8K-nak nagyméretű kijelzőknél van értelme, ahol a dpi van annyira alacsony 4K mellett, hogy egy négyszer akkora felbontás látható előnnyel bír. A PC tulajdonosok döntő többsége monitoron játszik s ennek megfelelően körülbelül fél-egy méterre ül a megjelenítőtől attól függően, hogy az mekkora. A sztenderdnek számító 24-27"-os monitoroknál már a 4K létjogosultsága is megkérdőjelezhető az 1440p-hez képest, ahhoz, hogy a 8K-nak legyen bármi értelme, sokkal nagyobb asztali kijelzőkre lenne szükség, amik pedig nem lesznek egész egyszerűen azért, mert egy 50-55"-os panel külső részei ilyen távolságból bőven kiesnek a sztenderd látómezőből, valamint a szemünknek sokkal hosszabb utat kellene bejárnia, amitől nagyon hamar elfáradnának az ezt mozgató izmaink és jó eséllyel megfájdulna a fejünk is. Nem a felbontás miatt nem terjedtek el a 43"-os monitorok sem, hiába jelent meg évekkel ezelőtt viszonylag sok gyártó (LG, Asus, stb.) kínálatában, de ugyanez elmondható a BFGD-kről is, amik a HDMI 2.1-es TV-k elterjedésével párhuzamosan szerintem utódok nélkül fognak megszűnni.
"A 8K az új 3D és soha nem lesz belőle "mainstream" konzumer monitor kínálat"
én is így látom, szerintem ez maximum a konzolosoknál lesz mainstream hiszen ott ugye mindenki egyre nagyobb és nagyobb Tv-t akarnak az emberek a házi mozi miatt is, illetve ott már kellő távolságban is ülnek valószínűleg már egy 70-80colos kijelzőn talán látszik is hangyányit a különbség egy 4k és 8k között. De ez is még vagy 10 év mire a 70-80-as 8k kijelzőknek az árai annyira lemennek hogy minden 2. háztartásban megtalálhatóak lesznek már ha pedig ilyen távlatban gondolkodok akkor eszembe jut a VR és nem is biztos h a kijelzők felé fog elmenni az ipar hanem a VR felé. Pláne hogy most már mindennek megkérik az árát, ahhoz képest pedig most az hp reverb g2 relatíve már nem is drága rádadásul hatalmas ugrá teljesítményben az előző VR cuccokhoz képest a Valve index-el meg simán versenyre kell ami majdnem dupla annyiba kerül. Úgyh azt látom hogy mostmár itt is a minőség egyre elérhetőbb áron van. Én bevallom jobban örülnék ha a VR-ra voksolna a nép, nem pedig a minél nagyobb kijelző +8k+HDR stb. Élményben se akkora az ugrás egy 50colos 4k kijelzőről 75col 8k-ra ugrani mint ugyanazért a pénzért inkább egy VR cuccot venni, ha ezeket átgondolnák jobban az emberek végre lenne annyi VR eszköz a háztartásban amire már a fejlesztőknek megérné még több VR játékot fejleszteni és végre kijöhetnénk ebből az ördögi körből.
Sziasztok!
RTX 3080 mellett nálam alapból is jól fut pl. a Control, szerintem single player játékokban nem annyira fontos a 100+ fps, simán jó az 50-60-70 fps-sel is (feltéve, ha stabil), ezért én nem vállaltam be a minőségromlást a plusz teljesítményért. Renderelje csak ki natívba a 3440*1440-t a kártya, minden apró részlettel együtt... :)
Viszont!
Gyors játékokban (pl: fps, autoverseny, akármilyen kompetitív játék) nem feltétlenül zavaró, sőt, valószínűleg észre sem veszi az ember, mivel hirtelen rángatja az egeret, a szem egy adott pontra (ellenfél, úttest, stb) fókuszál, magyarul a környező világot nem vizsgáljuk hosszasan.
Ilyen esetben óriási előny tud lenni, ha ugyanazzal a hardware-rel több fps-t tudunk kisajtolni a játékból. (Itt arra gondolok, amikor mondjuk 60-ról 100-ra emelkedik az fps, nem arra, hogy 300-ról 500-ra, mert annak semmi értelme nincs, amíg nem 500 Hz-es monitoron nézed)
-
Ez magánvélemény volt, mindenkinek joga van nem egyetérteni velem. :)
én egyetértek :)
DLSS szerintem egy remek funkció (bár sajna én nem tudom kipróbálni)
Viszont ami még egy remek funkció lehetne, ha ezt párosítanák a dinamikus felbontással.
Például a cél 4k 60 fps, de a gép néha 1800p-ben tudja kirenderelni, sőt valamikor csak 1600p-ben és onnan skálázza fel a játékot.
Így a minőség romlás még kisebb lehetne. (Mint a konzolokban, itt is lenne quality és performance mód.)
Bár ezzel az a baj, hogy nehezebben marketingelhető (és a fejlesztés is bonyolultabb).
De persze kitudja mi lesz még, hisz valószínűleg nem a 2.0 lesz az utolsó verzió.
Köszi az infót, meglesem ha végre megjön a táp és futhat a masina....
PS: Hol lehet megvenni azt a polót amit a videóban viselsz?
Az nvidia marketing azért csodálatos:
DSR - Dynamic Super Resolution. Fityfrancot, egy blur szűrővel megbolondítható SSAA
DLSS - Deep Learning Super Sampling. Értem én, hogy AI van benne, nem véletlenül éles a végeredmény, de ez minden, csak nem Super Sampling. Persze, az AIUS (AI UpScaling) nem cseng olyan jól. :D
Majd egyszer megnézem, hogy DLSS vagy sima átméretezés jön be. Akció közben pont nem veszek észre semmit, ha meg megállok nézelődni, akkor a DLSS-t is tuti észreveszem. Ahogy Linus is megmondta: Ha rossz cucc jön be, rossz cucc lesz a végeredmény is, (Garbage in, garbage out) mert ez sem csodaszer. (sokat segíthet, ha a játékot írók dlss-nél a célfelbontás részletességével rakják ki az objektumokat, és nem spórolják le őket a forrás felbontás szintjére :D Pl Cyberpunk: dlss-el eltűnő távoli aszfalt felfestés)
Nevetségesen szomorú hogy ilyen technológiák már léteznek, és mégis kijönnek ilyen Syber Punkok... :D :D XD XD XD
Minden ilyen jó ötletből pénzgyárat akarnak csinálni. Ezért nem éri el majd valószínüleg soha azt amit elérhetne ez a technológia.
200iq :) Na új Videokártya jöhet is
Nekem pl a 2060-am DLSS nélkül cyberpunk alatt olyan, mint egy sugárhajtómű. DLSS-el meg szinte be se kapcsolnak a ventilátorok.
Tetszzett a videó. Viszont lenne egy kérdésem Pisti. ATI kártyát használok de gondolkodom a váltáson, a DLSS még tett a lapátra. Viszont ennek a technológiának a VR-re van hatása, abban is lehet érzékelni, beállítani. Valve Index-et használok.
Lehet hülye kérdés, de ez az új konzolokban nem lesz benne? Valami olyasmit olvastam valahol, hogy ezt később megkapják az új konzolok is.
Mindent ismerek.. Az ami belassítja.. :D Dehogy is. Nézem a videót
Cyberpunkba használtam először és nagyon megdobta az FPS-t. Szoval ha lesz még olyam játékom amiben lesz DLSS akkor használni fogom.
Cyberpunk ajánlott beállításai:
-1080p "Quality DLSS" (720p render)
-1440p "Balanced DLSS" (835p render)
Az ultra performance-ot meg el kéne felejteni, mert annyira kis felbontáson renderel, nem is értem miért ezt kellett beletenni a videoba.
Használtam DLSS-t, (3080) Watch Dogs Legion...
Az a baj vele, hogy nincs processzor ami kitudná hajtani e videókártyát, 4K ban ugyan annyi FPS-em van mint 1080p-ben, annyi különbséggel, hogy akkor nem 100%-át használja a videókártyámnak. DLSS is csak 5 FPS-t segített, ultra perf-en.
Hát nem tudom, nekem is 3080 van, 5600x-el párosítva, és még egyik game se jutott a közeléba annak, hogy cpu bottleneck legyen és ne GPU. 1440p-ben egyedül Cyberpunk ami 60%os használtság fölé tudja tolni CPU-t, és ugyebár 4k-nál a GPU lesz ismét mégjobban a bottleneck.
@@nagymesterb111 I7-8700k-m van, megnéztem benchen, 5%-al több fps em lenne 10900k-val, ami azt jelenti h fullhd-ban nem 55 lenne hanem 60. De még ígysem használná ki. Úgy lehet megnézni hogy összesen hány fps-el fut a játék, hogy leveszel mindent a legalacsonyabbra, még a felbontást is, úgy lett 70fps autózás közben... nincs processzor még sajnos... a cyberpunknál ott már jóval jobb, 4K-ban van 60fps em dlss offal, 80% gpu mellett.
Dlsst a videokártya beállitásoknál vagy amelyik játék támogatja annak a beállításánál kell bekapcsolni?
1:37 egy kijelzőnek mindig a natív felbontásán fog lenni a legjobb képminősége. Gondoljatok már bele, hiába van UHD "szoftveresen" ha a hardver csak QHD-t tud. Fizikálisan nincs olyan képpont ami megfogja jeleníteni az extra felbontást.
Ennyi erővel csinálhatnánk azt, hogy beállítom a játék menüjében a UHD felbontást és játszom a QHD-s monitoromon.
Pedig működik, élesebb lesz a kép, próbáld ki! 😉
Én minden jatekban használom ahol elérhető, hiszen sok új játék enélkül nem is megy. Egy 2080 Ti kartyam van, ami nem egy mai darab, de DLSS-sel jól el tud vinni szinte mindent, még a Cyberpunkot is, igaz csak 55fpssel.
Én aki boldogan elvagyok az integrált RX vega 11-el
Nekem az a fura, hogy eddig bármiben kapcsoltam be a DLSS-t, homályos, pixeles, olyan mintha az egész out-of-focus lenne (Cyberpunk pl. totálisan eltörik tőle). szóval igazából szerintem fontos kiemelni a DLSS-nél, hogy ez 1440p-4K felbontásoknál tud jó lenni, 1080p-nél valahogy nem működik olyan jól ez a felskálázós dolog.
Szerintem ez egy olyan dolog ami a konzolokban tudna a leginkább hasznosulni. Persze ez már maximum a következő generációbam valósulhatna meg (esetleg PS5 pro? 🤔) és csak akkor ha valami úton módon az AMD is összerakna egy ilyet. (ha csak nem döntenek úgy a Sonynál/MS-nél, hogy az Nvidiától rendelnek konzolba gpu-t, bár arra gondolom nem sok esély van.)
Csak gondoljátok bele ha Cloud Game- nél (Xbox Game Pass UNLIMIT) használnák akkor ugyanannyi stream-nél jobb képet és jobb FPS-t kapnánk, mert ez úgy jön ki mint ha tömöreitené a képet(adatát) és féljavitva és felgyorsitva( mint a tv nél a kép meg duplázó) jönne ki és ez ugyanannyi vagy talán kevesebb adat stream esetén, jó lenne minden hol, főleg a Cloud-é a jövő és ez vonatkozik nem csak a Game-re( A jövő PC is csak egy modem ból fog állni) mert így ár ő kezükben van az irányítás.
5500xt-m van, ezért a dlss nekem nem elérhető, de bekapcsoltam e videó miatt a FidelityFX CAS-t 85%-on és a cyberpunkra meg horizonra rá is ment vagy 20 fps(high beállítások mellett).
Ezer köszi, hogy felhívtad a figyelmemet rá, el sem hiszem hogyan nem próbáltam ki eddig :'D
Van olyan mint az nvdianak ez a cucc?! 😁
@@shadowdoom6477 ma már van. de amikor kommentelt akkor még nem volt :)
Most akkor a jatek beallitasokban alacsonyabb beallitasra kell tenni a felbontast??? Es ugy bekapcsolni a dlss-t?
Egy gigabyte aorus 2070-es kártyával tolom! Az első játék, amin észrevettem, és bekapcsoltam a dlss-t az az f1 2020 volt, de ott nem sikerült túl jól szerintem!
Cyberpunk 2077-ben használom a DLSS-t Performance módban egy Gigabyte Aorus Master Rtx 3070-nel és tényleg döbbenet a teljesítmény sőt még a bug is kevesebb, mint az ismerőseimnek.
GeForce GTX 650 OC 2GB.. XD
Pont megfogalmazódott bennem a kérdés, hogy "Akkor én ezt kitunám használni a 1070-emmel?" és akkor vágta rá Pisti, hogy "Sajnos a tízedik generációs kártyák nem tudják". :( Sad story :(
Tudod, te a régi vásárló vagy. 🤷♂
3080-am van. Nem használom, inkább 2K-ban játszom ray tracing mellett, legmagasabb grafikai beállításokkal. Rt-nélkül pedig 4K. Hozzá G-sync monitor, hogy folyamatos legyen a kép. Én sokat olvastam róla és próbálgattam is szinte minden játékban, amiben tudtam, de arra jutottam, hogy amíg nem kell kifejezetten sok fps, addig inkább a minőséget választom. Még a dlss quality ami szóba jöhetne, de a balanced, meg a performance az nagyon felejtős. Rengeteget romlik a kép, legalábbis nekem. Még az új codban gondolkoztam, hogy használom, de inkább saját magam állítgattam be, hogy hol vegyen el a grafikából.
Talán, ha több beállítási lehetősége lenne a dlssnek és nem csak preset dolgok, akkor vonzóbb lenne. Pl. jó lenne, ha én állíthatnám be, hogy milyen felbontásból csinálja a képet.
Idővel több értelme lesz, amikor már a mostani kártyák nem bírják az iramot és akkor rádurrantani a dlss-t. Ahogy Pisti is mondta, ez most a 10-es széria tagjainak lenne nagyon jó.
True, itt a gond azzal van ahogyan a játékokban implementálják a dlsst. Jól hangzik meg minden de az új codban speciel eszméletlenül el tudja homályosítani a képet ami engem például kurvára zavar. Mintha egy megszáradt festmènyre ráöntenèk egy pohár vizet. Bf5ben például semmi gondom vele.
Jó lenne, ha az AMD is kitalálna hasonlót, és lehetővé tenné a kártyáira- hadd hasítson még jobban a 6900XT-m ... :)
igen láttok benne jövöt és szerintem jóbb hogy az nvda meghagyta saját magának mert ha nem akkor a konkurens gyárto az amd lekompithata volna
Jó volt a videó, de Pisti szakálla/haja sebesen konvergál egy hajléktalan stílusához!
Hogyne használtam már volna. Sokkal szebb tőle a Half Life és a CS 1.6 meg a Dave Mirra Freestyle BMX (a pasziánszról nem is beszélve)
Control... Ha valaki kimondja a játék nevét, akkor mindig rájövök, hogy ez az SCP lore-on alapszik... Hmmm...
A DLSS 3.0-nak már a grafikát kellene feljavítania. Tehát az AI-nak egy már grafikailag feljavított, élethűbb rendert kellene produkálnia. Pl. az openworld-játékoknál a távoli hegyek, amelyek valójában nagyon alacsonyszintű LOD-ban vannak renderelve, kvázi magasabb szintű LOD-ban jelenjenek meg, mert "az AI tudja, hogyan festene az a hegység magasszintű LOD-ban renderelve".
Konkrétan ehhez ugyebár a pálya minden részéből ki kellene renderelni az egész pályát magas LOD-ban, és azt megtanítani az AI-nak.
De biztosan van ebben még további potenciál (arcok, felületek).
Hát nem tudom, RTX 2070-nel, full HD-ban elfut szépen a CP ultra és high beállításokkal (árnyékokat lejjebb véve) és high ray tracinggel. Ez olyan stabil 40-50 FPS, kivéve ha a sűrűjében száguldozok. A DLSS Quality mode-ban csúnyább lett picit és FPS-t vesztettem, Performance mode-ban nagyon csúnya lett és az FPS maradt ugyan annyi.
Szerintem ne ossza meg a technológiát a konkurenciával, csak nehogy elkényelmesedjen és lemaradjon a cég, míg a többi elhúz mellette. De ha így nézzük, tegye közzé, hogy más fejlesztéseken is gondolkodjon. Igazából bármelyik említett verzió jó, a lényeg, hogy hosszútávon "nekem" jó legyen. :)
Nem úgy volt hogy Pucér nők lesznek Pisti mögött a thumbnail-en? (by: Nessaj-vlog) :D
Egyébként a DLSS annál hatékonyabb lesz minél nagyobb az alap felbontás nem? Tehát ha eljutunk oda hogy lazán menjen 4K, 5K natív felbontásban akkor onnan már szebben fel tudja skálázni 8 vagy 10K -ra mint mondjuk 1080P ről 4K-ra.
Én pont a DLSS miatt vettem 3440x1440p-s 144Hz-es monitort. CoD:BOCW-ben High beállítással 135-144fps-el fut a játék Ultra Performance DLSS-sel. Persze ehhez kellett egy RTX 3070, de azt hiszem, ha jobban terjed a DLSS, hosszú évekig megoldottam a hardver kérdést. A 8gb vram is elégnek tűnik így.
Nem hiszem, viszont inkább a fidelity ami terjedni fog, AMD oldali, de ugyan az.
Ez az Nvidia oldaláról picit átverés szagú, mert ugye kevés játék támogatja, na most vegyél ezért x kártyát mert lehet fogja támogatni...én ilyenekben már nem hiszek, inkább megyek a biztosra.
Gtx 1050-em enyhén szolva messze áll a DLSS-től... Pedig ilyen kártyákon lenne a legértelmesebb...
Na, ezt hívják optimalizációnak!
Ez hiányzok most a legtöbb helyről, amiért ilyen túlzó gépigények vannak.
De gyanítom, hogy amint elterjed, valamit módosítanak majd az okosok, hogy ne járj jobban. Pl. gyengébb videokártyákat dobnak piacra ugyanannyiért, vagy más egyéb. Úgyhogy addig kell kihasználni, amíg lehet.
Amilyen a PhysX is volt...micsoda mult idő kérem szépen, mert tényleg volt. RTX még van, próbálkoznak de könnyen lehet hogy a PhysX sorsára jut majd.
Szoval ez a cucc a gyengébb hardvereknek akar segíteni de nem támogatja a gyengébb hardvereket hmm , de amugy fasza
Nekem is ez jutott eszembe. :D
De nyilván idővel azt fogja szolgálni, mikor a 2xxx/3xxx szériát már a kukából guberálod mert annyiért tudsz venni, miközben a sokX-edik számú drága kártyákkal pörögnek alapon a gémek, de akkor is láss valamennyire szépet.
8k ultrán 3090 is haldoklik szóval az erő relatív... És akinek van pénze 3090-re, lehet a nappaliban ott virít a 8ks tévé és a nem fps játékokat azon tolná érted.
Ne úgy nézd. 2080ti om van 1440p s felbontású a monitor. Ezen a felbontáson azért nem kell beszarni az fpstől ezen a kártyán se. Ezzel a technológiával így már tudsz javítani rajta.
3 évvel később már tudjuk, hogy a fele nem volt igaz. De tényleg jó lenne a dlss ha tényleg ilyen lenne :D
Mi lenne hogy ahelyett hogy minél korábban kommentelni akarsz végignéznéd a videót és csak utánna fikáznál vagy istenítenél!!
Kisérleteztem na most en egy örök 1080hd jatékos maradok aki az fps re teszi a hangsulyt. észrevettem hogy ha bekapcsolom az image scalinget es rateszek 3-4 szazalekot.. Kellemesen gyorsul minden...
"Független" tech csatornaként azért megemlíthetnéd, hogy a Radeon AMD Virtual Super Resolution lényegében ugyanezt csinálja . Csak két mondatban legalább, ha egyáltalán még tehettek említést más gyártókról.. ;). Csak azért mert az Nvidián kívül a Radeon is nagyon érdekes technológiákkal szolgál.
Emlékszem amikor kijöttek az RTX-es kártyák pont Pisti vonogatta a vállát hogy ennek igazán sok értelme nincs, annyival nem szebb ha mégis viszont nagyon visszaesik a teljesítmény amúgy se sok játék támogatja és talán majd a köv. generáció. Nekem már akkor is a DLSS volt ami miatt az esedések videokártya fejlesztésnél 1060 helyett inkább 2060-at vettém, és bizony bejött a számításom. Főleg hogy azóta is tartja magát az árát, sőt az infláció miatt most még drágább! És viszont úgy is csak FHD-ban játszok (a TV-m ezt tudja, de nálam a 4k-nak értelme sincs mert hiába van kétféle szemüvegem, egyszerűen nem vagyok sasszem, a 720p és a 1080p közt még épp látom a különbséget de főleg játékokban. Nagyobb felbontásokhoz új szemek kellenének :P ).
Sőt bízok benne hogy a DLSS 3.0 tényleg már minden játékra ráhúzható lesz. Már csak egy motion interpolation kellene driverből (az új okostv-k tudják, de egy működő tv-t ezért nem fogok kihajítani hogy újat vegyek) - ami nyilván nem lehetetlen hiszen ffdshow szűrő tudja, meg a force unleashedben is működött.
ha a DLSS egyértelmüen jobb képet ad , minek kell ki be kapcsolni ?
Mert a natív még mindig jobb
Ezeket hol lehet bekapcsolni ? PONTOSAN érdekelne rtx 3060
COD-ra kanyarodva, tehát a DLSS csakis CW alatt megy? Ha megveszem a CW-t és Warzonet indítok, ott aktiválható lesz?
Nem, MW hez tartozik a játèk, de MW hez már csináljàk a dlss -t.
Ez a DLSS elég király feature. De én nem tudnák az rtx-es szériákra váltani. Egyrészt anyagi okokból, másrészt mert nekem egy 1060 van egy ROG GR8 II-ben amit aki ismer csak a gyári kártya illik bele :/
Arral lehet esély hogy ezt a lehetőséget elérhetővé teszik a gtx-eknél is? Jól jönne
Nem.