Az a vicc hogy ha nem vagy prémium youtube felhasználó, akkor érdemes az összes videót felkonvertálni 1440p-be, mert úgy már vp09-et használ a youtube, 1080p és alatta pedig avc-vel pixelharccá tömi.
Remek videó volt, esetleg lehetne még videó a továbbiakról is: nvidia cuda Cores, DirectX 12 (vagy maga a DirectX), smart acces memory, vagy esetleg az rdna. De ha valakinek van kedve komment szekcióba is mesélhetne róluk valami érdekeset.
Hello! Na végre egy ember , aki (számomra) is érthetően eltudta mondani mire is jó a DLSS. Ismét köszönöm a tanórát István és a többiek. És igen még mindig fent tudjátok tartani az érdeklődésemet így 4-5 év után is, amióta nézem a videoitokat. Üdvözlet , csak egy gamer.
Nagyon jó, hogy ezekről a technológiákról beszéltek. Részemről jöhet még ilyen tartalom, amivel megmagyarázzátok a laikusoknak ezeket a dolgokat. Tetszik! A kérdéssel kapcsolatban. Ha a saját fejlesztés árán technológiai előnyt szerez egy gyártó és a technológiát megtartja magának az szerintem teljesen normális. Csináljon a riválisa jobb technológiai újítást, hogy piaci előnyt szerezzen. Normálisabb így teret nyerni, mint ígérgetésekkel meg árcsökkentéssel a minőség rovására szvsz.
Ahogyan a Volvo a három pontos övet, úgy szerintem ezt a technológiát is szabaddá kéne tenni mert aki nem nvidia-t vesz azt nem ez fogja meggyőzni. Király videó lett!
Csak ennél nem kerül az életedbe a hiánya, míg annál... Évekig AMD-s kártyáim voltam, a 3060TI, amikor megjelent, azon a héten vettem is meg, még emberi áron. Minőségi az előrelépés basszus, nem is kicsit. Imádom, higy az AMD kezd észhez térni VGA szinten is, de lássuk be, hiába van meg az erő, ha a karizma, a körítés jobb a zöldeknél. Egyébként, mindenki előtt, ott a lehetőség, hasonló technológiák kidolgozására, de az Nvidia törte az utat, ő halad jelenleg az "egyfős verseny" élén. Ha lenne konkurencia, mindenkinek jobb lenne :) de ebben, még nincs.
Csak azért, mert téged nem ez a technológia győzne meg arrol, hogy ezért vegyél Nvidia kártyát lesznek sokan akiket ez fog. Vagy csak símán amikor elgondolkoznak azon, mit is vegyenek ezt is odasorólják mint plusz. Buta lenne az Nvidia kiadni ezt a kezéből, még ha tényleg jól járnánk vele, akkor is. Pl.: Konzolokba beletenni, ott lehetne igazán kihasználni.
@@szaszkozsolt3359 plusz tegyuk hozza hogy ez megdobja par evvel a kartya hasznalatanak idejet. Elso 3 evbe nativan birja aztan meg 5 evig meg dlss-el szinte ugyanazt a minoseget.
3080-am van. Nem használom, inkább 2K-ban játszom ray tracing mellett, legmagasabb grafikai beállításokkal. Rt-nélkül pedig 4K. Hozzá G-sync monitor, hogy folyamatos legyen a kép. Én sokat olvastam róla és próbálgattam is szinte minden játékban, amiben tudtam, de arra jutottam, hogy amíg nem kell kifejezetten sok fps, addig inkább a minőséget választom. Még a dlss quality ami szóba jöhetne, de a balanced, meg a performance az nagyon felejtős. Rengeteget romlik a kép, legalábbis nekem. Még az új codban gondolkoztam, hogy használom, de inkább saját magam állítgattam be, hogy hol vegyen el a grafikából. Talán, ha több beállítási lehetősége lenne a dlssnek és nem csak preset dolgok, akkor vonzóbb lenne. Pl. jó lenne, ha én állíthatnám be, hogy milyen felbontásból csinálja a képet. Idővel több értelme lesz, amikor már a mostani kártyák nem bírják az iramot és akkor rádurrantani a dlss-t. Ahogy Pisti is mondta, ez most a 10-es széria tagjainak lenne nagyon jó.
True, itt a gond azzal van ahogyan a játékokban implementálják a dlsst. Jól hangzik meg minden de az új codban speciel eszméletlenül el tudja homályosítani a képet ami engem például kurvára zavar. Mintha egy megszáradt festmènyre ráöntenèk egy pohár vizet. Bf5ben például semmi gondom vele.
Hiánypótló videó! Biztos vagyok benne, hogy sok 20-as vagy 30-as szériás NVidia kártyatulajdonosnak fogalma sem volt a funkció mibenlétéről. Aki pedig ezt nem használja ki, gyakorlatilag százezreket lapátol ki az ablakon. Ugyanezt gondolom az iPhone-ok felhasználásáról, a tulajdonosok jelentős hányada szerintem nem tudja, hogyan is kellene megfelelően használni a telefonja fotós képességeit olyan módon, amiért valójában kifizette a készülékért elkért vételárat. Ötletként tehát lehetne egy "Hogyan fotózz a csúcsmobiloddal" jellegű videó is, akár IOS akár Android fronton külön-külön is. Sokan meglepődnének milyen jó készülékeik vannak, amiknek az árát ugyan ott hagyták a boltban, de sosem használták valójában a teljes funkcionalitást.
elképzelhető hogy ez a technológia (nyilván más néven) de megjelenik majd az RDNA alapú konzolgenerációkban? Persze a hitman3 úgy néz ki így is hogy a dubai pályán csak azért mászkáltam, de azért bizonyos esetekben nem volna rossz, főleg a 8k-s "tévéken".
Használtam DLSS-t, (3080) Watch Dogs Legion... Az a baj vele, hogy nincs processzor ami kitudná hajtani e videókártyát, 4K ban ugyan annyi FPS-em van mint 1080p-ben, annyi különbséggel, hogy akkor nem 100%-át használja a videókártyámnak. DLSS is csak 5 FPS-t segített, ultra perf-en.
Hát nem tudom, nekem is 3080 van, 5600x-el párosítva, és még egyik game se jutott a közeléba annak, hogy cpu bottleneck legyen és ne GPU. 1440p-ben egyedül Cyberpunk ami 60%os használtság fölé tudja tolni CPU-t, és ugyebár 4k-nál a GPU lesz ismét mégjobban a bottleneck.
@@nagymesterb111 I7-8700k-m van, megnéztem benchen, 5%-al több fps em lenne 10900k-val, ami azt jelenti h fullhd-ban nem 55 lenne hanem 60. De még ígysem használná ki. Úgy lehet megnézni hogy összesen hány fps-el fut a játék, hogy leveszel mindent a legalacsonyabbra, még a felbontást is, úgy lett 70fps autózás közben... nincs processzor még sajnos... a cyberpunknál ott már jóval jobb, 4K-ban van 60fps em dlss offal, 80% gpu mellett.
Papíron a 30-as széria között is van budget opció, csak épp a háromszorosára-négyszeresére növekszik az ára, mire ideér. :D Most veszem észre, hogy a régi RX 580-amat drágábban tudnám eladni, mint évekkel ezelőtt vettem. Eszméletlen.
Cyberpunk-ba bekapcsolva a DLSS quality módot, kicsit elmosa a képet, de az FPS majdnem dupla. Ilyenkor rákapcsolok egy 30% élesítést, és így már alig észrevehető a külömbség. Durván úgy 35fps-ről 60fps-re nő, 3080-al, minden kimaxolva 1440p-ben.
Cyberpunk ajánlott beállításai: -1080p "Quality DLSS" (720p render) -1440p "Balanced DLSS" (835p render) Az ultra performance-ot meg el kéne felejteni, mert annyira kis felbontáson renderel, nem is értem miért ezt kellett beletenni a videoba.
2070super óta használok dlss-t. Most egy 3080-am van és 4k mellett egyszerűen muszáj. Nos melyik játék nem támogatja kérdés: az amiben nincs RT (pont). Máshol a baked-lightmap és egyéb trükkökkel piszok egyszerű nem rombolható(!!!) környezetben RT "hatást" létrehozni. Így ott nem feltétlen fontos az, hogy az amúgy is "piszkosul drága" real time RT-t implementáld, így statikus fényekkel árnyékokkal stb. erőforrást spórolsz és nem kell dlss ahhoz a fránya 4k 60hoz. Nos mindenképp az RT a jövő ugyanis jóval egyszerűbb és költség- és időhatékonyabb megoldás ez fejlesztők számára mint az előbb említett map-eket létrehozni és számoltatni.
Nagyon jól hangzik a DLSS technológia, viszont GeForce GTX 970M-el lehetetlen kipróbálni sajnos. Egyébként használnám. Ki használná még ? Az dobjon egy like-ot! :) Felhúzzuk a 2060-at és kiég a DLSS - től 😂😂
Sziasztok! RTX 3080 mellett nálam alapból is jól fut pl. a Control, szerintem single player játékokban nem annyira fontos a 100+ fps, simán jó az 50-60-70 fps-sel is (feltéve, ha stabil), ezért én nem vállaltam be a minőségromlást a plusz teljesítményért. Renderelje csak ki natívba a 3440*1440-t a kártya, minden apró részlettel együtt... :) Viszont! Gyors játékokban (pl: fps, autoverseny, akármilyen kompetitív játék) nem feltétlenül zavaró, sőt, valószínűleg észre sem veszi az ember, mivel hirtelen rángatja az egeret, a szem egy adott pontra (ellenfél, úttest, stb) fókuszál, magyarul a környező világot nem vizsgáljuk hosszasan. Ilyen esetben óriási előny tud lenni, ha ugyanazzal a hardware-rel több fps-t tudunk kisajtolni a játékból. (Itt arra gondolok, amikor mondjuk 60-ról 100-ra emelkedik az fps, nem arra, hogy 300-ról 500-ra, mert annak semmi értelme nincs, amíg nem 500 Hz-es monitoron nézed) - Ez magánvélemény volt, mindenkinek joga van nem egyetérteni velem. :)
Jelenleg egyik kártyát sem éri megvenni az magas árak miatt, de ápr-júliusra jósolják a polcok feltöltését, akkor az árak is némileg normalizálódnak. Az valószínű hogy MSRP szintre nem fognak visszaesni. Az nvidiának van egy hajszálnyi előnye a DLSS 2.0-val és az RTX-el, de az AMD 7000-es sorozatnál már nem lesz egyértelmű ez az előny, ha a vörösek nemsokára debütáló megoldása beválik ezen a területen.
hát, ha a konkurenciának nem is, de a játékgyártókkal nem ártana ezt valahogy megosztani. Mert ha több játék lenne ezzel a cuccal elérhető, több ember érezne ingert arra, hogy ilyen kártyát vegyen. Ahogy az ember azt mondja: minek vegyen 8K-s tévét, mikor még a 4K-s tartalmak 90%-a is csak pornófilm? A mozifilmek nagy része meg úgy 4K, hogy az 1080p vagy 2K van felskálázva. 8K tartalom meg nincs is.
Lévén, hogy se kártyám se játékom, ami a DLSS-t támogatná, én a végéhez szólnék hozzá: A játékpiacon nagyon azt lehet érezni, hogy túlárazás van, de higyjétek el, normális cégeknél irgatlmatlan az a munka, ami mögötte van. Ha ráadásul egy olyan új technológiáról beszélünk, ami ekkora ugrást jelent, szerintem teljesen jogos, hogy a fejlesztő levédi a szellemi termékét, és ha valaki használni akarja (vagy tovább fejleszteni), akkor licencelnie kell.
Nekem 1080 P-s monitorom van és az én igényeimnek tökéletesen megfelel. Mondom ezt úgy hogy a segge alatt a gép 800 E + FT. De am én az Uncharted 2 720-jét is szépnek tartom. MIVEL nálam a játékélmény a prioritás NEM a grafika. 1080 p High-on simán elvagyok PC-n.
Ezt a reklámvideót kicsit alaposabban is el lehetett volna készíteni, sok a félinformáció, illetve a pontatlan információ is, melyek miatt bizonyos nézőket félrevezethet. A DLSS 1.0 nem kettő játékban volt jelen, hanem 8 játékban, nem értem miért a két említett cím került a videóba és a többi hat miért nem. Mára több tucat cím támogatja a DLSS valamely verzióját. Sajnos a videó olyannyira a teljesítményt helyezte előtérbe, hogy szinte végig az Ultra Performance Preset volt demózva, aminek 8K alatt semmi értelme, mert csak ront a helyzeten mintsem javítana. Ez a Preset az aktuális felbontás nyolcadára csökkenti a render felbontást, aminek hatására a képminőség még 4K-ban is nagyon csúnya lesz, érdemes megnézni független teszteket legfőképp a Digital Foundry csatornáján, ott tökéletesen demonstrálják, hogy melyik preset mennyire jó vagy rossz adott játékban.
Hát nem tudom, RTX 2070-nel, full HD-ban elfut szépen a CP ultra és high beállításokkal (árnyékokat lejjebb véve) és high ray tracinggel. Ez olyan stabil 40-50 FPS, kivéve ha a sűrűjében száguldozok. A DLSS Quality mode-ban csúnyább lett picit és FPS-t vesztettem, Performance mode-ban nagyon csúnya lett és az FPS maradt ugyan annyi.
pont tegnap tették ki Linusék hasonló témában a videót, de ott 8K-n izzasztották a top VGA-kat (6900XT és RTX3090), ott azért naaaagyon látszott a DLSS hatalmas előnye
A DLSS 3.0-nak már a grafikát kellene feljavítania. Tehát az AI-nak egy már grafikailag feljavított, élethűbb rendert kellene produkálnia. Pl. az openworld-játékoknál a távoli hegyek, amelyek valójában nagyon alacsonyszintű LOD-ban vannak renderelve, kvázi magasabb szintű LOD-ban jelenjenek meg, mert "az AI tudja, hogyan festene az a hegység magasszintű LOD-ban renderelve". Konkrétan ehhez ugyebár a pálya minden részéből ki kellene renderelni az egész pályát magas LOD-ban, és azt megtanítani az AI-nak. De biztosan van ebben még további potenciál (arcok, felületek).
- HATALMAS SZERINTEM! ez vélemény, ha nem egyezik valaki máséval, nem kell a vérem szívni, tudom van ellentétes vélemény és azt elfogadom - DLSS levédetés/megosztás: Megosztó téma itt már a világnézetről lenne szó leginkább. Ki mennyire gondolkozik a gazdasági világ szerint és ki gondolkozik úgy, ha van valami, amivel tudjuk a hétköznapokat mégjobbá tenni (akár a szórakoztató iparban ami nem elsődleges prioritás emberi életek szempontjából). Én azt vallom érdemes lenne ezt hagyni megosztani, így akár lehetne a technológiát esetleg mégtovább fejleszteni, mondjuk egy konkurens cég által akik találnak egy olyan fejlesztési hézagot amit ők betudnak tömni. Ha ez a levédetés és egyéb mizéria divatba jönne akkor egyrészt a játék és egyéb software fejlesztők dolgát nehezítenék meg és ott tartanánk végül, hogy már már AMD VS NVIDIA exclusive játékok jönnének a piacra, ami nem lenne túl kellemes élmény senki számára. Ez utóbbi dolog a konzoloknál létezik de ők innen is indultak ki szóval ilyen tekintetben ez nem szempont. Gazdasági szempontból biztosra veszem vannak szintén hatalmas Pro-Contra érvek amiket lehet még én is elfogadnék részben. De tartom magam ahhoz, hogy mint AMD részről mint NVIDIA és bármilyen más hasonló konkurens cég, akiknek a közönsége úgymondva korlátoltan azonos ( pld PC-n belül videókártya piac és nem a konzol vs pc típusú konkurencia), meg kellene osztani és persze AMD részéről is érvényes lenne, oda vissza működik a dolog.
Csak gondoljátok bele ha Cloud Game- nél (Xbox Game Pass UNLIMIT) használnák akkor ugyanannyi stream-nél jobb képet és jobb FPS-t kapnánk, mert ez úgy jön ki mint ha tömöreitené a képet(adatát) és féljavitva és felgyorsitva( mint a tv nél a kép meg duplázó) jönne ki és ez ugyanannyi vagy talán kevesebb adat stream esetén, jó lenne minden hol, főleg a Cloud-é a jövő és ez vonatkozik nem csak a Game-re( A jövő PC is csak egy modem ból fog állni) mert így ár ő kezükben van az irányítás.
Szomorú az hogy egy GTX 1080-al nem is álmodhatok ilyenről. Örülnék valami nem RTX specifikus megoldásnak, mert leginkább a "low" (ha lehet annak nevezni egy 1080-at) gamerek körében jönne igazán kapóra a dolog. Nem beszélve arról hogy semmi nem kapható emberi áron ami képes ezekre. Úgy néz ki maradok a 1080nál és elkezdem levenni a beállításokat ultráról.
Én RTX 2060-al toltam a cyberpunkot és mivel 1440p-s monitorom van ezért életmentő volt a dlss. ultra grafika és balnced dlss mellett 50-60 fps körül mozgott. Nagyon király ez a technológia és remélem, hogy több játék fogja implementálni a dlss-t.
Remélem ez nem olyan lesz mint a Ray Tracing. Elején megvezettek a bemutatókkal, aztán a Minecraft meg a Quake 2 rtx kiadáson kívül nem látok nagy változást. A többinél max akkor látni, ha megállok és nézegetem. De az meg milyen? Nézni kell? Nem ad a játékhoz menet közbe semmit. Ki a tököm érdekli, hogy visszatükröződik a tócsákon az ellenség, mikor lőnek. Nem ezzel fog az ember foglalkozni. Útközbe meg ha látni, nem fog órákat csodálkozni. Sok játéknál vannak részletesen kidolgozott pálya szakaszok, aminél a játékosok nagy része csak végig rohan. Nem törődve, hogy valakik sokat dolgoztak rajta.
Király vagy Pistám! Ismét érthetően és "szájbarágósan" nagyon faszán elmagyaráztad amit kell! Király. Nem kell megosztani, legyen csak versenypiac és találjon ki az AMD is valami "hasonlót" amivel eladhatja magát. Most ők megcsinálták ezt a full AMD konfig szinkron dolgot, hát majd meglátjuk azzal mennyit nyernek ők...
Kisérleteztem na most en egy örök 1080hd jatékos maradok aki az fps re teszi a hangsulyt. észrevettem hogy ha bekapcsolom az image scalinget es rateszek 3-4 szazalekot.. Kellemesen gyorsul minden...
Muszájból használtam csak a DLSS Quality-t Cyberpunk 2077 alatt, mert anélkül értelmezhetetlenül lassú a 2070 Super 1440p-ben közepes minőségű Ray-tracing beállítással. Még Quality módban is látom a különbséget a natív 1440p (27") és az 1080p-ból felskálázott (DLSS Quality) kép között. Nem az élekkel van a gond, hanem az AI-jal, ami néha nem tudja igazán eltalálni, mit is kellene megjelenítenie a hiányzó pixeleken, ezért olyan zavaros tud lenni a kép, ami nekem nem elfogadható kompromisszum. Szerintem konzolokon sokkal több értelme lenne egy hasonló technológiának, ahol a hosszú életciklust biztosítani tudná vele a gyártó és megszabadulhatnánk a szörnyű Dynamic Resolution Scalingtől. Az NVIDIA-t nem érdekli, hogy mennyire jó lesz annak, aki második-harmadik-akárhányadik tulajdonosként így tud valamit kezdeni majd jövőre egy RTX 2060-nal, nekik a DLSS egy amolyan kötelezően szabadon választott feladat volt, hiszen anélkül gyakorlatilag használhatatlan a Ray-tracing 1080p-s natív felbontás felett még egy RTX 3090-en is (nekem oké a 30-40 fps, de valószínűleg ezzel a kisebbségbe tartozom). A 8K az új 3D és soha nem lesz belőle "mainstream" konzumer monitor kínálat egész egyszerűen azért, mert nem oda készült. Arról nem is beszélve, hogy előbb a Microsoftnak kellene normálisan megcsinálnia végre a rendszer szinten jól működő, alkalmazásfüggetlen dpi skálázást, hogy ne az legyen egy normál méretű 4K-s kijelzőnél, hogy vagy 100%-ban nézek mindent úgy, ahogy ki kell néznie, cserébe nem tudom elolvasni az apró betűket vagy 125-150%-ban már olvasható minden, viszont a GUI bizonyos elemeinek mérete össze-vissza változik. A 8K-nak nagyméretű kijelzőknél van értelme, ahol a dpi van annyira alacsony 4K mellett, hogy egy négyszer akkora felbontás látható előnnyel bír. A PC tulajdonosok döntő többsége monitoron játszik s ennek megfelelően körülbelül fél-egy méterre ül a megjelenítőtől attól függően, hogy az mekkora. A sztenderdnek számító 24-27"-os monitoroknál már a 4K létjogosultsága is megkérdőjelezhető az 1440p-hez képest, ahhoz, hogy a 8K-nak legyen bármi értelme, sokkal nagyobb asztali kijelzőkre lenne szükség, amik pedig nem lesznek egész egyszerűen azért, mert egy 50-55"-os panel külső részei ilyen távolságból bőven kiesnek a sztenderd látómezőből, valamint a szemünknek sokkal hosszabb utat kellene bejárnia, amitől nagyon hamar elfáradnának az ezt mozgató izmaink és jó eséllyel megfájdulna a fejünk is. Nem a felbontás miatt nem terjedtek el a 43"-os monitorok sem, hiába jelent meg évekkel ezelőtt viszonylag sok gyártó (LG, Asus, stb.) kínálatában, de ugyanez elmondható a BFGD-kről is, amik a HDMI 2.1-es TV-k elterjedésével párhuzamosan szerintem utódok nélkül fognak megszűnni.
"A 8K az új 3D és soha nem lesz belőle "mainstream" konzumer monitor kínálat" én is így látom, szerintem ez maximum a konzolosoknál lesz mainstream hiszen ott ugye mindenki egyre nagyobb és nagyobb Tv-t akarnak az emberek a házi mozi miatt is, illetve ott már kellő távolságban is ülnek valószínűleg már egy 70-80colos kijelzőn talán látszik is hangyányit a különbség egy 4k és 8k között. De ez is még vagy 10 év mire a 70-80-as 8k kijelzőknek az árai annyira lemennek hogy minden 2. háztartásban megtalálhatóak lesznek már ha pedig ilyen távlatban gondolkodok akkor eszembe jut a VR és nem is biztos h a kijelzők felé fog elmenni az ipar hanem a VR felé. Pláne hogy most már mindennek megkérik az árát, ahhoz képest pedig most az hp reverb g2 relatíve már nem is drága rádadásul hatalmas ugrá teljesítményben az előző VR cuccokhoz képest a Valve index-el meg simán versenyre kell ami majdnem dupla annyiba kerül. Úgyh azt látom hogy mostmár itt is a minőség egyre elérhetőbb áron van. Én bevallom jobban örülnék ha a VR-ra voksolna a nép, nem pedig a minél nagyobb kijelző +8k+HDR stb. Élményben se akkora az ugrás egy 50colos 4k kijelzőről 75col 8k-ra ugrani mint ugyanazért a pénzért inkább egy VR cuccot venni, ha ezeket átgondolnák jobban az emberek végre lenne annyi VR eszköz a háztartásban amire már a fejlesztőknek megérné még több VR játékot fejleszteni és végre kijöhetnénk ebből az ördögi körből.
nincs pénzem meg megvenni sem tudom. 3060Ti-ra vetném rá magam , de én azt hiszem jövő januárban sem esik 200k alá a kártya (ahol lennie kéne eredetileg)
Pont megfogalmazódott bennem a kérdés, hogy "Akkor én ezt kitunám használni a 1070-emmel?" és akkor vágta rá Pisti, hogy "Sajnos a tízedik generációs kártyák nem tudják". :( Sad story :(
Pisti, Jani....köszönöm....végre valaki úgy magyarázta el, hogy érthetően fel is tudom használni az infót....köszönöm köszönöm köszönöm!!!! Legobb vidisek vagytok XD
Nekem is ez jutott eszembe. :D De nyilván idővel azt fogja szolgálni, mikor a 2xxx/3xxx szériát már a kukából guberálod mert annyiért tudsz venni, miközben a sokX-edik számú drága kártyákkal pörögnek alapon a gémek, de akkor is láss valamennyire szépet.
8k ultrán 3090 is haldoklik szóval az erő relatív... És akinek van pénze 3090-re, lehet a nappaliban ott virít a 8ks tévé és a nem fps játékokat azon tolná érted.
Ne úgy nézd. 2080ti om van 1440p s felbontású a monitor. Ezen a felbontáson azért nem kell beszarni az fpstől ezen a kártyán se. Ezzel a technológiával így már tudsz javítani rajta.
Az irány jó, én várom már mikor egy sima itthoni kártyával játékokon kívül is használható lesz a dolog. És valósággá válik mikor a gagyi krimi sorozatok rendőrségi szakértői 144p-s pixeles biztonsági kamerafelvételen a rendszámra élesen rázoomolnak :D
Ez eddig eszembe se jutott hogy erre is lehetne használni de most hogy mondod amúgy az is jó lenne ha digitális fényképnél is pl túl távol van egy családtagod a képen amikor meg nagyítod akkor sajnos nem elég éles a kép tök jó lenne ha ott is használható lenne.
Én leginkább azt sajnálom hogy nem lehet csak a huszadik szériától felfele használni.😞 DE egyébként kurva jó ötlet ez az egész. Egyébként ha csak a 20. Szériások és az afelettiek tudják használni akkor Pisti miért mondtad azt hogy: Ha nincs egy izomgéped akkor... ?
Csak nálam csúszik szanaszét a kép mikor jobbra balra nézel a játékoknan? Vagy ez a dlss miatt van? Lehet ,mert mobilnetről nézem de ha más is látja akkor ez nem túl meggyőző, nem éri meg azért, h szebb legyen a textúra..:S
Nekem az a fura, hogy eddig bármiben kapcsoltam be a DLSS-t, homályos, pixeles, olyan mintha az egész out-of-focus lenne (Cyberpunk pl. totálisan eltörik tőle). szóval igazából szerintem fontos kiemelni a DLSS-nél, hogy ez 1440p-4K felbontásoknál tud jó lenni, 1080p-nél valahogy nem működik olyan jól ez a felskálázós dolog.
Biztosan nem osztanám meg a technológiát! Az nem teremt fejlödést... Ha az Nvidianak van ez a megoldása az ösztönzi a többi gyártót egy saját egyedi vagy hasonló fejlesztésre! Kibróbáltam az összes beállítással. Remek dolog ez. Ha használnám, viszont csakis a Quality módban! De igazából mivel Nativ 4Kban 100-130 FPS van minden fullra kimaxolva (Marvel Avengers), jelenleg nem hiányzik a trükközés! Pedig nem is gaming Driver-el probaltam. Nekem munkára van a 3090es, ezért csak ritkán játszom. Nekem az RTX az ami elsösorban Non plus ultra! Ugyanis a renderidö gyakorlailag verhetetlen!
Az nvidia marketing azért csodálatos: DSR - Dynamic Super Resolution. Fityfrancot, egy blur szűrővel megbolondítható SSAA DLSS - Deep Learning Super Sampling. Értem én, hogy AI van benne, nem véletlenül éles a végeredmény, de ez minden, csak nem Super Sampling. Persze, az AIUS (AI UpScaling) nem cseng olyan jól. :D Majd egyszer megnézem, hogy DLSS vagy sima átméretezés jön be. Akció közben pont nem veszek észre semmit, ha meg megállok nézelődni, akkor a DLSS-t is tuti észreveszem. Ahogy Linus is megmondta: Ha rossz cucc jön be, rossz cucc lesz a végeredmény is, (Garbage in, garbage out) mert ez sem csodaszer. (sokat segíthet, ha a játékot írók dlss-nél a célfelbontás részletességével rakják ki az objektumokat, és nem spórolják le őket a forrás felbontás szintjére :D Pl Cyberpunk: dlss-el eltűnő távoli aszfalt felfestés)
Csak ajánlani tudom a DLSS-t. Én azt tapasztaltam, hogy a legjobb minőségre állított DLSS tényleg szebb képet ad, mint native felbontáson. Azt is tapasztaltam, hogy DLSS ON+RTX ON közel azonos FPS-t produkál, mint a DLSS OFF+RTX OFF. Ha valakit nem érdekel az RayTracing, attól függetlenül ajánlom az RTX kártyákat, mert a DLSS kb megduplázza a kártya teljesítményét a támogatott játékok alatt és azért nem rossz, amikor 45FPS-el döcögő játékok, hirtelen 80FPS felett mennek.
A video informatív és lényegre törő (5 percben is). Én maradok a GTX 1080al Cyberpunk 80 fps 1440p-ben, high beállításokkal. Érdekes módon a GTX 1080-al csak 60hz állítható be windowsban és Cyberpunkban. Nvidia Control Panel érdekes módon engedélyezi a tv-nek a 120hz-et,de a windows képernyő beállításokban csak a 60hz a legmagasabb - és mégis megkapom a 80 fps-t a Cyberpunkban 60hz-el,amit a Cyberpunk enged. A többi játéknál beállítható a 120 hz,érzékelik a HDMI 2.1-et. Egyébként túlságosan drágák már a videokártyák,már nem érzem azt,hogy érdemes ilyen durva árakon fejleszteni RTX-re, várom a PS5 Pro-t,addig bőven elvagyok "high" beállításokkal az 1080asommal 1440p-ben. Jó kártya! Talán a közeljövőben megjelenik az intel gpu, remélhetőleg konkurrncia lesz az nVidiának...és akkor meglátjuk az RTX 30 árakat.
ez a dlss pont azokon a kártyákon segitene amik pont nem támogatják.szarnak egy pofon,és meg egy nagyszerübb betüsor amit rá tud irni a uj videokárty dobozra
"Független" tech csatornaként azért megemlíthetnéd, hogy a Radeon AMD Virtual Super Resolution lényegében ugyanezt csinálja . Csak két mondatban legalább, ha egyáltalán még tehettek említést más gyártókról.. ;). Csak azért mert az Nvidián kívül a Radeon is nagyon érdekes technológiákkal szolgál.
Na, ezt hívják optimalizációnak! Ez hiányzok most a legtöbb helyről, amiért ilyen túlzó gépigények vannak. De gyanítom, hogy amint elterjed, valamit módosítanak majd az okosok, hogy ne járj jobban. Pl. gyengébb videokártyákat dobnak piacra ugyanannyiért, vagy más egyéb. Úgyhogy addig kell kihasználni, amíg lehet.
Emlékszem amikor kijöttek az RTX-es kártyák pont Pisti vonogatta a vállát hogy ennek igazán sok értelme nincs, annyival nem szebb ha mégis viszont nagyon visszaesik a teljesítmény amúgy se sok játék támogatja és talán majd a köv. generáció. Nekem már akkor is a DLSS volt ami miatt az esedések videokártya fejlesztésnél 1060 helyett inkább 2060-at vettém, és bizony bejött a számításom. Főleg hogy azóta is tartja magát az árát, sőt az infláció miatt most még drágább! És viszont úgy is csak FHD-ban játszok (a TV-m ezt tudja, de nálam a 4k-nak értelme sincs mert hiába van kétféle szemüvegem, egyszerűen nem vagyok sasszem, a 720p és a 1080p közt még épp látom a különbséget de főleg játékokban. Nagyobb felbontásokhoz új szemek kellenének :P ). Sőt bízok benne hogy a DLSS 3.0 tényleg már minden játékra ráhúzható lesz. Már csak egy motion interpolation kellene driverből (az új okostv-k tudják, de egy működő tv-t ezért nem fogok kihajítani hogy újat vegyek) - ami nyilván nem lehetetlen hiszen ffdshow szűrő tudja, meg a force unleashedben is működött.
Én minden jatekban használom ahol elérhető, hiszen sok új játék enélkül nem is megy. Egy 2080 Ti kartyam van, ami nem egy mai darab, de DLSS-sel jól el tud vinni szinte mindent, még a Cyberpunkot is, igaz csak 55fpssel.
Ugyanaz, mint a PhysX! Mekkora marketing dumákat levágtak róla, és a mai napig két játékban találkoztam vele: az első Mirrors Edge, és a Batman. El fog tűnni ez is a süllyesztőben! Egy tipp: aki ki akarja próbálni, fizessen be GeforceNow-ra, ott elég jól átjön! (Persze ne felejtsetek el előtte egy űber netet bekötni!)
Nem is szabad megosztani a DLSS-t. A fejlődés alapja a verseny, vagy a háború. Én inkább az ATI válaszára leszek kíváncsi. A vidi meg mint szokásos, 5-ös.
DLSS szerintem egy remek funkció (bár sajna én nem tudom kipróbálni) Viszont ami még egy remek funkció lehetne, ha ezt párosítanák a dinamikus felbontással. Például a cél 4k 60 fps, de a gép néha 1800p-ben tudja kirenderelni, sőt valamikor csak 1600p-ben és onnan skálázza fel a játékot. Így a minőség romlás még kisebb lehetne. (Mint a konzolokban, itt is lenne quality és performance mód.) Bár ezzel az a baj, hogy nehezebben marketingelhető (és a fejlesztés is bonyolultabb). De persze kitudja mi lesz még, hisz valószínűleg nem a 2.0 lesz az utolsó verzió.
Plot twist: ez a videó 720p-ben lett felvéve. A többi a DLSS
*Betanították a videokártyának Pistit*
Az a vicc hogy ha nem vagy prémium youtube felhasználó, akkor érdemes az összes videót felkonvertálni 1440p-be, mert úgy már vp09-et használ a youtube, 1080p és alatta pedig avc-vel pixelharccá tömi.
Plot twist??
R9 5950x proci és RTX 3080 párossal tolom. Amióta bekapcsolom a DLSS-t nem csak az FPS-em, de a faszom is kétszer akkora.
Ez olyan zsoze atyás volt:D mint egy tűzcsap akkora more:D
mennyibe és honnan sikerült beszerezned rtx 3080at?:D
@ Leesett a kamionrul... xD xD xD
"Nvidia 16 Series left the chat"
Mar mondtam magamban hogy 200 fps-sel fogom majd nyomni a cod mw-t 😂😂😂
Same :(
Remek videó volt, esetleg lehetne még videó a továbbiakról is: nvidia cuda Cores, DirectX 12 (vagy maga a DirectX), smart acces memory, vagy esetleg az rdna. De ha valakinek van kedve komment szekcióba is mesélhetne róluk valami érdekeset.
Már értem...
DLSS OFF = Amikor nincs rajtam a szemüvegem
DLSS ON = Amikor rajtam van a szemüvegem
Köszi! :)
És tényleg :)
@@gyorgybereg6916 Felvettem az olvasó szemüvegemet és közelebb hajoltam a monitorhoz. :D
Amúgy össze foglalta. :)
@@Medvegyuri nem szarkazmusból mondtam.
@@gyorgybereg6916 Nyugi, át jött a poén. ;) Csak megszaladt a billentyűzetem...
Hello!
Na végre egy ember , aki (számomra) is érthetően eltudta mondani mire is jó a DLSS. Ismét köszönöm a tanórát István és a többiek. És igen még mindig fent tudjátok tartani az érdeklődésemet így 4-5 év után is, amióta nézem a videoitokat.
Üdvözlet , csak egy gamer.
Ez közösség elleni izgatás, 2021 Január, amikor, ha videókártyát vennél a boltos azt mondja: Ha vóna se vóna!
Ó, tehát ezért nem volt délután stream. Végülis megérthető. Jó lett a videó.
Megnéznék egy comparison videót a 30-as RTX szériáról, meg az NVidia helyzetről, a scalperekről és a processzorhiányról. Am jó lett a vidi 😂
Nagyon jó, hogy ezekről a technológiákról beszéltek. Részemről jöhet még ilyen tartalom, amivel megmagyarázzátok a laikusoknak ezeket a dolgokat. Tetszik!
A kérdéssel kapcsolatban. Ha a saját fejlesztés árán technológiai előnyt szerez egy gyártó és a technológiát megtartja magának az szerintem teljesen normális. Csináljon a riválisa jobb technológiai újítást, hogy piaci előnyt szerezzen. Normálisabb így teret nyerni, mint ígérgetésekkel meg árcsökkentéssel a minőség rovására szvsz.
Ahogyan a Volvo a három pontos övet, úgy szerintem ezt a technológiát is szabaddá kéne tenni mert aki nem nvidia-t vesz azt nem ez fogja meggyőzni. Király videó lett!
Csak ennél nem kerül az életedbe a hiánya, míg annál...
Évekig AMD-s kártyáim voltam, a 3060TI, amikor megjelent, azon a héten vettem is meg, még emberi áron. Minőségi az előrelépés basszus, nem is kicsit. Imádom, higy az AMD kezd észhez térni VGA szinten is, de lássuk be, hiába van meg az erő, ha a karizma, a körítés jobb a zöldeknél.
Egyébként, mindenki előtt, ott a lehetőség, hasonló technológiák kidolgozására, de az Nvidia törte az utat, ő halad jelenleg az "egyfős verseny" élén. Ha lenne konkurencia, mindenkinek jobb lenne :) de ebben, még nincs.
Csak azért, mert téged nem ez a technológia győzne meg arrol, hogy ezért vegyél Nvidia kártyát lesznek sokan akiket ez fog. Vagy csak símán amikor elgondolkoznak azon, mit is vegyenek ezt is odasorólják mint plusz. Buta lenne az Nvidia kiadni ezt a kezéből, még ha tényleg jól járnánk vele, akkor is. Pl.: Konzolokba beletenni, ott lehetne igazán kihasználni.
@@szaszkozsolt3359 plusz tegyuk hozza hogy ez megdobja par evvel a kartya hasznalatanak idejet. Elso 3 evbe nativan birja aztan meg 5 evig meg dlss-el szinte ugyanazt a minoseget.
Mi az a biztonsági öv?
AMD is újíthatna valami hasonlót. Végre valami értelme is lenne az ún. 'EMI'-nek
@@Steel9k Olvass, már megtette. Nem néztél tavaly egy qrva videót se az új AMD kártyákról?
GeForce GTX 650 OC 2GB.. XD
Mondjuk a 1660Ti-S-nek meg a 1650-nek is elég nagy segítség lenne pár helyen. Most meg szívjuk a fogunkat. :D
3080-am van. Nem használom, inkább 2K-ban játszom ray tracing mellett, legmagasabb grafikai beállításokkal. Rt-nélkül pedig 4K. Hozzá G-sync monitor, hogy folyamatos legyen a kép. Én sokat olvastam róla és próbálgattam is szinte minden játékban, amiben tudtam, de arra jutottam, hogy amíg nem kell kifejezetten sok fps, addig inkább a minőséget választom. Még a dlss quality ami szóba jöhetne, de a balanced, meg a performance az nagyon felejtős. Rengeteget romlik a kép, legalábbis nekem. Még az új codban gondolkoztam, hogy használom, de inkább saját magam állítgattam be, hogy hol vegyen el a grafikából.
Talán, ha több beállítási lehetősége lenne a dlssnek és nem csak preset dolgok, akkor vonzóbb lenne. Pl. jó lenne, ha én állíthatnám be, hogy milyen felbontásból csinálja a képet.
Idővel több értelme lesz, amikor már a mostani kártyák nem bírják az iramot és akkor rádurrantani a dlss-t. Ahogy Pisti is mondta, ez most a 10-es széria tagjainak lenne nagyon jó.
True, itt a gond azzal van ahogyan a játékokban implementálják a dlsst. Jól hangzik meg minden de az új codban speciel eszméletlenül el tudja homályosítani a képet ami engem például kurvára zavar. Mintha egy megszáradt festmènyre ráöntenèk egy pohár vizet. Bf5ben például semmi gondom vele.
Szerintem nagyon jó codban dlls el 60 -90 dlls nélkul 30 tól 50 ig
Nekem valamiért szebbnek tűnik DLSS nélkül.
Üdv, én AMD-és vagyok és kiváncsi lennék egy ilyen videóra csak az AMD FSR technológiáról! :)
Rekord intró :D
Hiánypótló videó! Biztos vagyok benne, hogy sok 20-as vagy 30-as szériás NVidia kártyatulajdonosnak fogalma sem volt a funkció mibenlétéről. Aki pedig ezt nem használja ki, gyakorlatilag százezreket lapátol ki az ablakon. Ugyanezt gondolom az iPhone-ok felhasználásáról, a tulajdonosok jelentős hányada szerintem nem tudja, hogyan is kellene megfelelően használni a telefonja fotós képességeit olyan módon, amiért valójában kifizette a készülékért elkért vételárat. Ötletként tehát lehetne egy "Hogyan fotózz a csúcsmobiloddal" jellegű videó is, akár IOS akár Android fronton külön-külön is. Sokan meglepődnének milyen jó készülékeik vannak, amiknek az árát ugyan ott hagyták a boltban, de sosem használták valójában a teljes funkcionalitást.
RTX 3060Ti 350 000 Ft-tól megvásárolható. Ennyit tudok elmondani, kérem kaccsojja ki!
Az "átlagbérrel" számolva mindössze 1 hónapnyi meló, ha nem eszel/iszol. Tök ócsó'! :D
és mennyire igaza van pistinek h a 10. szériásoknál mien kurva jó lett volna .... ha lenne :c
gtx 1070 -től felfele birná is pedig.
elképzelhető hogy ez a technológia (nyilván más néven) de megjelenik majd az RDNA alapú konzolgenerációkban? Persze a hitman3 úgy néz ki így is hogy a dubai pályán csak azért mászkáltam, de azért bizonyos esetekben nem volna rossz, főleg a 8k-s "tévéken".
Én aki boldogan elvagyok az integrált RX vega 11-el
Használtam DLSS-t, (3080) Watch Dogs Legion...
Az a baj vele, hogy nincs processzor ami kitudná hajtani e videókártyát, 4K ban ugyan annyi FPS-em van mint 1080p-ben, annyi különbséggel, hogy akkor nem 100%-át használja a videókártyámnak. DLSS is csak 5 FPS-t segített, ultra perf-en.
Hát nem tudom, nekem is 3080 van, 5600x-el párosítva, és még egyik game se jutott a közeléba annak, hogy cpu bottleneck legyen és ne GPU. 1440p-ben egyedül Cyberpunk ami 60%os használtság fölé tudja tolni CPU-t, és ugyebár 4k-nál a GPU lesz ismét mégjobban a bottleneck.
@@nagymesterb111 I7-8700k-m van, megnéztem benchen, 5%-al több fps em lenne 10900k-val, ami azt jelenti h fullhd-ban nem 55 lenne hanem 60. De még ígysem használná ki. Úgy lehet megnézni hogy összesen hány fps-el fut a játék, hogy leveszel mindent a legalacsonyabbra, még a felbontást is, úgy lett 70fps autózás közben... nincs processzor még sajnos... a cyberpunknál ott már jóval jobb, 4K-ban van 60fps em dlss offal, 80% gpu mellett.
Akkor ez nem budget player opció. Lassan nekem is szólhatna már tartalom.
Papíron a 30-as széria között is van budget opció, csak épp a háromszorosára-négyszeresére növekszik az ára, mire ideér. :D Most veszem észre, hogy a régi RX 580-amat drágábban tudnám eladni, mint évekkel ezelőtt vettem. Eszméletlen.
Pistinek lassan akkora szakálla lesz hogy 20 év múlva ő lesz az új mikulásxdd
Most még csak kezdő Gandalf :D
@@xgengeezer6331 lvl 1 :D
Nem sok komment fog érkezni arról,hogy igen,van hozzá kártyám és kipróbáltam.
Nekem van és kipróbáltam, valóban nagy a különbség :) hozzá kell tenni emberi áron sikerült hozzá jutni egy 3060ti-hoz 😂
Én akinek csak egy 1050 Ti-a van: :'(
az para.
Cyberpunk-ba bekapcsolva a DLSS quality módot, kicsit elmosa a képet, de az FPS majdnem dupla. Ilyenkor rákapcsolok egy 30% élesítést, és így már alig észrevehető a külömbség. Durván úgy 35fps-ről 60fps-re nő, 3080-al, minden kimaxolva 1440p-ben.
Metroba teszteltem és homályos szar a kép tőle :D szóval kinyomtam :D azonnal
Cyberpunk ajánlott beállításai:
-1080p "Quality DLSS" (720p render)
-1440p "Balanced DLSS" (835p render)
Az ultra performance-ot meg el kéne felejteni, mert annyira kis felbontáson renderel, nem is értem miért ezt kellett beletenni a videoba.
2070super óta használok dlss-t. Most egy 3080-am van és 4k mellett egyszerűen muszáj.
Nos melyik játék nem támogatja kérdés: az amiben nincs RT (pont). Máshol a baked-lightmap és egyéb trükkökkel piszok egyszerű nem rombolható(!!!) környezetben RT "hatást" létrehozni. Így ott nem feltétlen fontos az, hogy az amúgy is "piszkosul drága" real time RT-t implementáld, így statikus fényekkel árnyékokkal stb. erőforrást spórolsz és nem kell dlss ahhoz a fránya 4k 60hoz. Nos mindenképp az RT a jövő ugyanis jóval egyszerűbb és költség- és időhatékonyabb megoldás ez fejlesztők számára mint az előbb említett map-eket létrehozni és számoltatni.
Nagyon jól hangzik a DLSS technológia, viszont GeForce GTX 970M-el lehetetlen kipróbálni sajnos. Egyébként használnám. Ki használná még ? Az dobjon egy like-ot! :)
Felhúzzuk a 2060-at és kiég a DLSS - től 😂😂
Szóval egy 1080p monitoron, ha játszok valamivel 720p-be de bekapcsolom a dlss-t akkor gyakorlatilag szinte 1080p be fogom látni ugyanúgy?
Sziasztok!
RTX 3080 mellett nálam alapból is jól fut pl. a Control, szerintem single player játékokban nem annyira fontos a 100+ fps, simán jó az 50-60-70 fps-sel is (feltéve, ha stabil), ezért én nem vállaltam be a minőségromlást a plusz teljesítményért. Renderelje csak ki natívba a 3440*1440-t a kártya, minden apró részlettel együtt... :)
Viszont!
Gyors játékokban (pl: fps, autoverseny, akármilyen kompetitív játék) nem feltétlenül zavaró, sőt, valószínűleg észre sem veszi az ember, mivel hirtelen rángatja az egeret, a szem egy adott pontra (ellenfél, úttest, stb) fókuszál, magyarul a környező világot nem vizsgáljuk hosszasan.
Ilyen esetben óriási előny tud lenni, ha ugyanazzal a hardware-rel több fps-t tudunk kisajtolni a játékból. (Itt arra gondolok, amikor mondjuk 60-ról 100-ra emelkedik az fps, nem arra, hogy 300-ról 500-ra, mert annak semmi értelme nincs, amíg nem 500 Hz-es monitoron nézed)
-
Ez magánvélemény volt, mindenkinek joga van nem egyetérteni velem. :)
én egyetértek :)
Most jöttem rá hogy az indexkép Nessaj vlog videójában láható amikor Jani mondja hogy valami clickbaitet rak Pisti mögé :D
Na én most döntöttem úgy h repül a gtx1060
Jelenleg egyik kártyát sem éri megvenni az magas árak miatt, de ápr-júliusra jósolják a polcok feltöltését, akkor az árak is némileg normalizálódnak. Az valószínű hogy MSRP szintre nem fognak visszaesni. Az nvidiának van egy hajszálnyi előnye a DLSS 2.0-val és az RTX-el, de az AMD 7000-es sorozatnál már nem lesz egyértelmű ez az előny, ha a vörösek nemsokára debütáló megoldása beválik ezen a területen.
hát, ha a konkurenciának nem is, de a játékgyártókkal nem ártana ezt valahogy megosztani. Mert ha több játék lenne ezzel a cuccal elérhető, több ember érezne ingert arra, hogy ilyen kártyát vegyen. Ahogy az ember azt mondja: minek vegyen 8K-s tévét, mikor még a 4K-s tartalmak 90%-a is csak pornófilm? A mozifilmek nagy része meg úgy 4K, hogy az 1080p vagy 2K van felskálázva. 8K tartalom meg nincs is.
Lévén, hogy se kártyám se játékom, ami a DLSS-t támogatná, én a végéhez szólnék hozzá: A játékpiacon nagyon azt lehet érezni, hogy túlárazás van, de higyjétek el, normális cégeknél irgatlmatlan az a munka, ami mögötte van. Ha ráadásul egy olyan új technológiáról beszélünk, ami ekkora ugrást jelent, szerintem teljesen jogos, hogy a fejlesztő levédi a szellemi termékét, és ha valaki használni akarja (vagy tovább fejleszteni), akkor licencelnie kell.
Nekem 1080 P-s monitorom van és az én igényeimnek tökéletesen megfelel. Mondom ezt úgy hogy a segge alatt a gép
800 E + FT. De am én az Uncharted 2 720-jét is szépnek tartom.
MIVEL nálam a játékélmény a prioritás NEM a grafika. 1080 p High-on simán elvagyok PC-n.
Ezt a reklámvideót kicsit alaposabban is el lehetett volna készíteni, sok a félinformáció, illetve a pontatlan információ is, melyek miatt bizonyos nézőket félrevezethet.
A DLSS 1.0 nem kettő játékban volt jelen, hanem 8 játékban, nem értem miért a két említett cím került a videóba és a többi hat miért nem. Mára több tucat cím támogatja a DLSS valamely verzióját. Sajnos a videó olyannyira a teljesítményt helyezte előtérbe, hogy szinte végig az Ultra Performance Preset volt demózva, aminek 8K alatt semmi értelme, mert csak ront a helyzeten mintsem javítana. Ez a Preset az aktuális felbontás nyolcadára csökkenti a render felbontást, aminek hatására a képminőség még 4K-ban is nagyon csúnya lesz, érdemes megnézni független teszteket legfőképp a Digital Foundry csatornáján, ott tökéletesen demonstrálják, hogy melyik preset mennyire jó vagy rossz adott játékban.
Gtx 1050-em enyhén szolva messze áll a DLSS-től... Pedig ilyen kártyákon lenne a legértelmesebb...
Hát nem tudom, RTX 2070-nel, full HD-ban elfut szépen a CP ultra és high beállításokkal (árnyékokat lejjebb véve) és high ray tracinggel. Ez olyan stabil 40-50 FPS, kivéve ha a sűrűjében száguldozok. A DLSS Quality mode-ban csúnyább lett picit és FPS-t vesztettem, Performance mode-ban nagyon csúnya lett és az FPS maradt ugyan annyi.
pont tegnap tették ki Linusék hasonló témában a videót, de ott 8K-n izzasztották a top VGA-kat (6900XT és RTX3090), ott azért naaaagyon látszott a DLSS hatalmas előnye
A DLSS 3.0-nak már a grafikát kellene feljavítania. Tehát az AI-nak egy már grafikailag feljavított, élethűbb rendert kellene produkálnia. Pl. az openworld-játékoknál a távoli hegyek, amelyek valójában nagyon alacsonyszintű LOD-ban vannak renderelve, kvázi magasabb szintű LOD-ban jelenjenek meg, mert "az AI tudja, hogyan festene az a hegység magasszintű LOD-ban renderelve".
Konkrétan ehhez ugyebár a pálya minden részéből ki kellene renderelni az egész pályát magas LOD-ban, és azt megtanítani az AI-nak.
De biztosan van ebben még további potenciál (arcok, felületek).
- HATALMAS SZERINTEM! ez vélemény, ha nem egyezik valaki máséval, nem kell a vérem szívni, tudom van ellentétes vélemény és azt elfogadom -
DLSS levédetés/megosztás: Megosztó téma itt már a világnézetről lenne szó leginkább. Ki mennyire gondolkozik a gazdasági világ szerint és ki gondolkozik úgy, ha van valami, amivel tudjuk a hétköznapokat mégjobbá tenni (akár a szórakoztató iparban ami nem elsődleges prioritás emberi életek szempontjából). Én azt vallom érdemes lenne ezt hagyni megosztani, így akár lehetne a technológiát esetleg mégtovább fejleszteni, mondjuk egy konkurens cég által akik találnak egy olyan fejlesztési hézagot amit ők betudnak tömni. Ha ez a levédetés és egyéb mizéria divatba jönne akkor egyrészt a játék és egyéb software fejlesztők dolgát nehezítenék meg és ott tartanánk végül, hogy már már AMD VS NVIDIA exclusive játékok jönnének a piacra, ami nem lenne túl kellemes élmény senki számára. Ez utóbbi dolog a konzoloknál létezik de ők innen is indultak ki szóval ilyen tekintetben ez nem szempont. Gazdasági szempontból biztosra veszem vannak szintén hatalmas Pro-Contra érvek amiket lehet még én is elfogadnék részben.
De tartom magam ahhoz, hogy mint AMD részről mint NVIDIA és bármilyen más hasonló konkurens cég, akiknek a közönsége úgymondva korlátoltan azonos ( pld PC-n belül videókártya piac és nem a konzol vs pc típusú konkurencia), meg kellene osztani és persze AMD részéről is érvényes lenne, oda vissza működik a dolog.
Csak gondoljátok bele ha Cloud Game- nél (Xbox Game Pass UNLIMIT) használnák akkor ugyanannyi stream-nél jobb képet és jobb FPS-t kapnánk, mert ez úgy jön ki mint ha tömöreitené a képet(adatát) és féljavitva és felgyorsitva( mint a tv nél a kép meg duplázó) jönne ki és ez ugyanannyi vagy talán kevesebb adat stream esetén, jó lenne minden hol, főleg a Cloud-é a jövő és ez vonatkozik nem csak a Game-re( A jövő PC is csak egy modem ból fog állni) mert így ár ő kezükben van az irányítás.
Szomorú az hogy egy GTX 1080-al nem is álmodhatok ilyenről. Örülnék valami nem RTX specifikus megoldásnak, mert leginkább a "low" (ha lehet annak nevezni egy 1080-at) gamerek körében jönne igazán kapóra a dolog.
Nem beszélve arról hogy semmi nem kapható emberi áron ami képes ezekre.
Úgy néz ki maradok a 1080nál és elkezdem levenni a beállításokat ultráról.
Én RTX 2060-al toltam a cyberpunkot és mivel 1440p-s monitorom van ezért életmentő volt a dlss. ultra grafika és balnced dlss mellett 50-60 fps körül mozgott. Nagyon király ez a technológia és remélem, hogy több játék fogja implementálni a dlss-t.
Remélem ez nem olyan lesz mint a Ray Tracing. Elején megvezettek a bemutatókkal, aztán a Minecraft meg a Quake 2 rtx kiadáson kívül nem látok nagy változást. A többinél max akkor látni, ha megállok és nézegetem. De az meg milyen? Nézni kell? Nem ad a játékhoz menet közbe semmit. Ki a tököm érdekli, hogy visszatükröződik a tócsákon az ellenség, mikor lőnek. Nem ezzel fog az ember foglalkozni. Útközbe meg ha látni, nem fog órákat csodálkozni. Sok játéknál vannak részletesen kidolgozott pálya szakaszok, aminél a játékosok nagy része csak végig rohan. Nem törődve, hogy valakik sokat dolgoztak rajta.
Mi lenne hogy ahelyett hogy minél korábban kommentelni akarsz végignéznéd a videót és csak utánna fikáznál vagy istenítenél!!
Király vagy Pistám! Ismét érthetően és "szájbarágósan" nagyon faszán elmagyaráztad amit kell! Király.
Nem kell megosztani, legyen csak versenypiac és találjon ki az AMD is valami "hasonlót" amivel eladhatja magát.
Most ők megcsinálták ezt a full AMD konfig szinkron dolgot, hát majd meglátjuk azzal mennyit nyernek ők...
Kisérleteztem na most en egy örök 1080hd jatékos maradok aki az fps re teszi a hangsulyt. észrevettem hogy ha bekapcsolom az image scalinget es rateszek 3-4 szazalekot.. Kellemesen gyorsul minden...
Muszájból használtam csak a DLSS Quality-t Cyberpunk 2077 alatt, mert anélkül értelmezhetetlenül lassú a 2070 Super 1440p-ben közepes minőségű Ray-tracing beállítással. Még Quality módban is látom a különbséget a natív 1440p (27") és az 1080p-ból felskálázott (DLSS Quality) kép között. Nem az élekkel van a gond, hanem az AI-jal, ami néha nem tudja igazán eltalálni, mit is kellene megjelenítenie a hiányzó pixeleken, ezért olyan zavaros tud lenni a kép, ami nekem nem elfogadható kompromisszum. Szerintem konzolokon sokkal több értelme lenne egy hasonló technológiának, ahol a hosszú életciklust biztosítani tudná vele a gyártó és megszabadulhatnánk a szörnyű Dynamic Resolution Scalingtől. Az NVIDIA-t nem érdekli, hogy mennyire jó lesz annak, aki második-harmadik-akárhányadik tulajdonosként így tud valamit kezdeni majd jövőre egy RTX 2060-nal, nekik a DLSS egy amolyan kötelezően szabadon választott feladat volt, hiszen anélkül gyakorlatilag használhatatlan a Ray-tracing 1080p-s natív felbontás felett még egy RTX 3090-en is (nekem oké a 30-40 fps, de valószínűleg ezzel a kisebbségbe tartozom).
A 8K az új 3D és soha nem lesz belőle "mainstream" konzumer monitor kínálat egész egyszerűen azért, mert nem oda készült. Arról nem is beszélve, hogy előbb a Microsoftnak kellene normálisan megcsinálnia végre a rendszer szinten jól működő, alkalmazásfüggetlen dpi skálázást, hogy ne az legyen egy normál méretű 4K-s kijelzőnél, hogy vagy 100%-ban nézek mindent úgy, ahogy ki kell néznie, cserébe nem tudom elolvasni az apró betűket vagy 125-150%-ban már olvasható minden, viszont a GUI bizonyos elemeinek mérete össze-vissza változik. A 8K-nak nagyméretű kijelzőknél van értelme, ahol a dpi van annyira alacsony 4K mellett, hogy egy négyszer akkora felbontás látható előnnyel bír. A PC tulajdonosok döntő többsége monitoron játszik s ennek megfelelően körülbelül fél-egy méterre ül a megjelenítőtől attól függően, hogy az mekkora. A sztenderdnek számító 24-27"-os monitoroknál már a 4K létjogosultsága is megkérdőjelezhető az 1440p-hez képest, ahhoz, hogy a 8K-nak legyen bármi értelme, sokkal nagyobb asztali kijelzőkre lenne szükség, amik pedig nem lesznek egész egyszerűen azért, mert egy 50-55"-os panel külső részei ilyen távolságból bőven kiesnek a sztenderd látómezőből, valamint a szemünknek sokkal hosszabb utat kellene bejárnia, amitől nagyon hamar elfáradnának az ezt mozgató izmaink és jó eséllyel megfájdulna a fejünk is. Nem a felbontás miatt nem terjedtek el a 43"-os monitorok sem, hiába jelent meg évekkel ezelőtt viszonylag sok gyártó (LG, Asus, stb.) kínálatában, de ugyanez elmondható a BFGD-kről is, amik a HDMI 2.1-es TV-k elterjedésével párhuzamosan szerintem utódok nélkül fognak megszűnni.
"A 8K az új 3D és soha nem lesz belőle "mainstream" konzumer monitor kínálat"
én is így látom, szerintem ez maximum a konzolosoknál lesz mainstream hiszen ott ugye mindenki egyre nagyobb és nagyobb Tv-t akarnak az emberek a házi mozi miatt is, illetve ott már kellő távolságban is ülnek valószínűleg már egy 70-80colos kijelzőn talán látszik is hangyányit a különbség egy 4k és 8k között. De ez is még vagy 10 év mire a 70-80-as 8k kijelzőknek az árai annyira lemennek hogy minden 2. háztartásban megtalálhatóak lesznek már ha pedig ilyen távlatban gondolkodok akkor eszembe jut a VR és nem is biztos h a kijelzők felé fog elmenni az ipar hanem a VR felé. Pláne hogy most már mindennek megkérik az árát, ahhoz képest pedig most az hp reverb g2 relatíve már nem is drága rádadásul hatalmas ugrá teljesítményben az előző VR cuccokhoz képest a Valve index-el meg simán versenyre kell ami majdnem dupla annyiba kerül. Úgyh azt látom hogy mostmár itt is a minőség egyre elérhetőbb áron van. Én bevallom jobban örülnék ha a VR-ra voksolna a nép, nem pedig a minél nagyobb kijelző +8k+HDR stb. Élményben se akkora az ugrás egy 50colos 4k kijelzőről 75col 8k-ra ugrani mint ugyanazért a pénzért inkább egy VR cuccot venni, ha ezeket átgondolnák jobban az emberek végre lenne annyi VR eszköz a háztartásban amire már a fejlesztőknek megérné még több VR játékot fejleszteni és végre kijöhetnénk ebből az ördögi körből.
és nem pucér nők vannak, ahogy Jani ígérte...
(ruclips.net/video/M6dIvKaEs1Q/видео.html)
Nekem pl a 2060-am DLSS nélkül cyberpunk alatt olyan, mint egy sugárhajtómű. DLSS-el meg szinte be se kapcsolnak a ventilátorok.
Ezeket hol lehet bekapcsolni ? PONTOSAN érdekelne rtx 3060
nincs pénzem meg megvenni sem tudom. 3060Ti-ra vetném rá magam , de én azt hiszem jövő januárban sem esik 200k alá a kártya (ahol lennie kéne eredetileg)
Jó volt a videó, de Pisti szakálla/haja sebesen konvergál egy hajléktalan stílusához!
Pont megfogalmazódott bennem a kérdés, hogy "Akkor én ezt kitunám használni a 1070-emmel?" és akkor vágta rá Pisti, hogy "Sajnos a tízedik generációs kártyák nem tudják". :( Sad story :(
Tudod, te a régi vásárló vagy. 🤷♂
Azért egy beszédtanárhoz illene beiratkozni végre, kicsit lassabban, na..
3 évvel később már tudjuk, hogy a fele nem volt igaz. De tényleg jó lenne a dlss ha tényleg ilyen lenne :D
Minden ilyen jó ötletből pénzgyárat akarnak csinálni. Ezért nem éri el majd valószínüleg soha azt amit elérhetne ez a technológia.
En a cyberpunkot 60 fps el tudtam jatszani egy 2060 al ha a dlss be volt kapcsolva
Normalisan kb 25 fps em lenne
Nekem sajnos 1650-em van .Szóval nem tudom használni.
Pisti, Jani....köszönöm....végre valaki úgy magyarázta el, hogy érthetően fel is tudom használni az infót....köszönöm köszönöm köszönöm!!!! Legobb vidisek vagytok XD
igen láttok benne jövöt és szerintem jóbb hogy az nvda meghagyta saját magának mert ha nem akkor a konkurens gyárto az amd lekompithata volna
Szoval ez a cucc a gyengébb hardvereknek akar segíteni de nem támogatja a gyengébb hardvereket hmm , de amugy fasza
Nekem is ez jutott eszembe. :D
De nyilván idővel azt fogja szolgálni, mikor a 2xxx/3xxx szériát már a kukából guberálod mert annyiért tudsz venni, miközben a sokX-edik számú drága kártyákkal pörögnek alapon a gémek, de akkor is láss valamennyire szépet.
8k ultrán 3090 is haldoklik szóval az erő relatív... És akinek van pénze 3090-re, lehet a nappaliban ott virít a 8ks tévé és a nem fps játékokat azon tolná érted.
Ne úgy nézd. 2080ti om van 1440p s felbontású a monitor. Ezen a felbontáson azért nem kell beszarni az fpstől ezen a kártyán se. Ezzel a technológiával így már tudsz javítani rajta.
de magyarra is fordítanátok? mert úgy jobban az agyamhoz jutna.
úff ez nem az én videóm szerintem.... nincs is videókártya a gépemben ...
Én BF-ben használom 1440p pulsz 30-40 fps. Rtx2080
Az irány jó, én várom már mikor egy sima itthoni kártyával játékokon kívül is használható lesz a dolog. És valósággá válik mikor a gagyi krimi sorozatok rendőrségi szakértői 144p-s pixeles biztonsági kamerafelvételen a rendszámra élesen rázoomolnak :D
Ez eddig eszembe se jutott hogy erre is lehetne használni de most hogy mondod amúgy az is jó lenne ha digitális fényképnél is pl túl távol van egy családtagod a képen amikor meg nagyítod akkor sajnos nem elég éles a kép tök jó lenne ha ott is használható lenne.
nekem egy nvidia geforce 210em van :(
jó az, én is sokáig hasznátam, még 3D bluray filmekre is..
ha a DLSS egyértelmüen jobb képet ad , minek kell ki be kapcsolni ?
Mert a natív még mindig jobb
1660Ti - om van szóval....
Én leginkább azt sajnálom hogy nem lehet csak a huszadik szériától felfele használni.😞 DE egyébként kurva jó ötlet ez az egész. Egyébként ha csak a 20. Szériások és az afelettiek tudják használni akkor Pisti miért mondtad azt hogy: Ha nincs egy izomgéped akkor... ?
Azért egy 2060 vagy akár 2050 et nem neveznék izomgépnek... Legfőképp hogy a laptopokon is megy ez dlss
Csak nálam csúszik szanaszét a kép mikor jobbra balra nézel a játékoknan? Vagy ez a dlss miatt van? Lehet ,mert mobilnetről nézem de ha más is látja akkor ez nem túl meggyőző, nem éri meg azért, h szebb legyen a textúra..:S
Csak az egyik gamenél volt és azért mert nem volt bekapcsolva a v-sync.
Lehet hülye kérdés, de ez az új konzolokban nem lesz benne? Valami olyasmit olvastam valahol, hogy ezt később megkapják az új konzolok is.
Nekem az a fura, hogy eddig bármiben kapcsoltam be a DLSS-t, homályos, pixeles, olyan mintha az egész out-of-focus lenne (Cyberpunk pl. totálisan eltörik tőle). szóval igazából szerintem fontos kiemelni a DLSS-nél, hogy ez 1440p-4K felbontásoknál tud jó lenni, 1080p-nél valahogy nem működik olyan jól ez a felskálázós dolog.
Jó lenne, ha az AMD is kitalálna hasonlót, és lehetővé tenné a kártyáira- hadd hasítson még jobban a 6900XT-m ... :)
A TVbe direkt LockDown felirat ment xD
Köszi srácok a videót. Nagyon királyak vagytok.
cyberpunk alatt jó xar a DLSS...
Biztosan nem osztanám meg a technológiát! Az nem teremt fejlödést...
Ha az Nvidianak van ez a megoldása az ösztönzi a többi gyártót egy saját egyedi vagy hasonló fejlesztésre!
Kibróbáltam az összes beállítással. Remek dolog ez. Ha használnám, viszont csakis a Quality módban!
De igazából mivel Nativ 4Kban 100-130 FPS van minden fullra kimaxolva (Marvel Avengers), jelenleg nem hiányzik a trükközés!
Pedig nem is gaming Driver-el probaltam. Nekem munkára van a 3090es, ezért csak ritkán játszom. Nekem az RTX az ami elsösorban
Non plus ultra! Ugyanis a renderidö gyakorlailag verhetetlen!
Az nvidia marketing azért csodálatos:
DSR - Dynamic Super Resolution. Fityfrancot, egy blur szűrővel megbolondítható SSAA
DLSS - Deep Learning Super Sampling. Értem én, hogy AI van benne, nem véletlenül éles a végeredmény, de ez minden, csak nem Super Sampling. Persze, az AIUS (AI UpScaling) nem cseng olyan jól. :D
Majd egyszer megnézem, hogy DLSS vagy sima átméretezés jön be. Akció közben pont nem veszek észre semmit, ha meg megállok nézelődni, akkor a DLSS-t is tuti észreveszem. Ahogy Linus is megmondta: Ha rossz cucc jön be, rossz cucc lesz a végeredmény is, (Garbage in, garbage out) mert ez sem csodaszer. (sokat segíthet, ha a játékot írók dlss-nél a célfelbontás részletességével rakják ki az objektumokat, és nem spórolják le őket a forrás felbontás szintjére :D Pl Cyberpunk: dlss-el eltűnő távoli aszfalt felfestés)
Csak ajánlani tudom a DLSS-t. Én azt tapasztaltam, hogy a legjobb minőségre állított DLSS tényleg szebb képet ad, mint native felbontáson. Azt is tapasztaltam, hogy DLSS ON+RTX ON közel azonos FPS-t produkál, mint a DLSS OFF+RTX OFF. Ha valakit nem érdekel az RayTracing, attól függetlenül ajánlom az RTX kártyákat, mert a DLSS kb megduplázza a kártya teljesítményét a támogatott játékok alatt és azért nem rossz, amikor 45FPS-el döcögő játékok, hirtelen 80FPS felett mennek.
3060 max-q laptop vga, dlss on, cyberpunk ultra setting, RTon, 3440x1440 60fps.
A video informatív és lényegre törő (5 percben is). Én maradok a GTX 1080al Cyberpunk 80 fps 1440p-ben, high beállításokkal. Érdekes módon a GTX 1080-al csak 60hz állítható be windowsban és Cyberpunkban. Nvidia Control Panel érdekes módon engedélyezi a tv-nek a 120hz-et,de a windows képernyő beállításokban csak a 60hz a legmagasabb - és mégis megkapom a 80 fps-t a Cyberpunkban 60hz-el,amit a Cyberpunk enged. A többi játéknál beállítható a 120 hz,érzékelik a HDMI 2.1-et. Egyébként túlságosan drágák már a videokártyák,már nem érzem azt,hogy érdemes ilyen durva árakon fejleszteni RTX-re, várom a PS5 Pro-t,addig bőven elvagyok "high" beállításokkal az 1080asommal 1440p-ben. Jó kártya!
Talán a közeljövőben megjelenik az intel gpu, remélhetőleg konkurrncia lesz az nVidiának...és akkor meglátjuk az RTX 30 árakat.
ez a dlss pont azokon a kártyákon segitene amik pont nem támogatják.szarnak egy pofon,és meg egy nagyszerübb betüsor amit rá tud irni a uj videokárty dobozra
Lesznek a 2000-es kartyak is regik es majd azok tudni fogjak. Sajnos nincs a régiekben tensor mag ami a dlsst csinálja.
"Független" tech csatornaként azért megemlíthetnéd, hogy a Radeon AMD Virtual Super Resolution lényegében ugyanezt csinálja . Csak két mondatban legalább, ha egyáltalán még tehettek említést más gyártókról.. ;). Csak azért mert az Nvidián kívül a Radeon is nagyon érdekes technológiákkal szolgál.
Na, ezt hívják optimalizációnak!
Ez hiányzok most a legtöbb helyről, amiért ilyen túlzó gépigények vannak.
De gyanítom, hogy amint elterjed, valamit módosítanak majd az okosok, hogy ne járj jobban. Pl. gyengébb videokártyákat dobnak piacra ugyanannyiért, vagy más egyéb. Úgyhogy addig kell kihasználni, amíg lehet.
Nem úgy volt hogy Pucér nők lesznek Pisti mögött a thumbnail-en? (by: Nessaj-vlog) :D
Amilyen a PhysX is volt...micsoda mult idő kérem szépen, mert tényleg volt. RTX még van, próbálkoznak de könnyen lehet hogy a PhysX sorsára jut majd.
Emlékszem amikor kijöttek az RTX-es kártyák pont Pisti vonogatta a vállát hogy ennek igazán sok értelme nincs, annyival nem szebb ha mégis viszont nagyon visszaesik a teljesítmény amúgy se sok játék támogatja és talán majd a köv. generáció. Nekem már akkor is a DLSS volt ami miatt az esedések videokártya fejlesztésnél 1060 helyett inkább 2060-at vettém, és bizony bejött a számításom. Főleg hogy azóta is tartja magát az árát, sőt az infláció miatt most még drágább! És viszont úgy is csak FHD-ban játszok (a TV-m ezt tudja, de nálam a 4k-nak értelme sincs mert hiába van kétféle szemüvegem, egyszerűen nem vagyok sasszem, a 720p és a 1080p közt még épp látom a különbséget de főleg játékokban. Nagyobb felbontásokhoz új szemek kellenének :P ).
Sőt bízok benne hogy a DLSS 3.0 tényleg már minden játékra ráhúzható lesz. Már csak egy motion interpolation kellene driverből (az új okostv-k tudják, de egy működő tv-t ezért nem fogok kihajítani hogy újat vegyek) - ami nyilván nem lehetetlen hiszen ffdshow szűrő tudja, meg a force unleashedben is működött.
Én minden jatekban használom ahol elérhető, hiszen sok új játék enélkül nem is megy. Egy 2080 Ti kartyam van, ami nem egy mai darab, de DLSS-sel jól el tud vinni szinte mindent, még a Cyberpunkot is, igaz csak 55fpssel.
Ugyanaz, mint a PhysX! Mekkora marketing dumákat levágtak róla, és a mai napig két játékban találkoztam vele: az első Mirrors Edge, és a Batman.
El fog tűnni ez is a süllyesztőben!
Egy tipp: aki ki akarja próbálni, fizessen be GeforceNow-ra, ott elég jól átjön! (Persze ne felejtsetek el előtte egy űber netet bekötni!)
Nem is szabad megosztani a DLSS-t. A fejlődés alapja a verseny, vagy a háború. Én inkább az ATI válaszára leszek kíváncsi.
A vidi meg mint szokásos, 5-ös.
DLSS szerintem egy remek funkció (bár sajna én nem tudom kipróbálni)
Viszont ami még egy remek funkció lehetne, ha ezt párosítanák a dinamikus felbontással.
Például a cél 4k 60 fps, de a gép néha 1800p-ben tudja kirenderelni, sőt valamikor csak 1600p-ben és onnan skálázza fel a játékot.
Így a minőség romlás még kisebb lehetne. (Mint a konzolokban, itt is lenne quality és performance mód.)
Bár ezzel az a baj, hogy nehezebben marketingelhető (és a fejlesztés is bonyolultabb).
De persze kitudja mi lesz még, hisz valószínűleg nem a 2.0 lesz az utolsó verzió.
használnék DLSS-t de sajnos egy 960-om van
Nvidia: _itt az ideje kinyitnod a pénztárcádat_