NVIDIA vs AMD La guerra dei Fanboy deve finire

Поделиться
HTML-код
  • Опубликовано: 12 янв 2025

Комментарии • 155

  • @MarcusT3ch
    @MarcusT3ch Час назад +3

    Adoro il tuo trattare gli argomenti sempre dal lato umano, cercando il bilanciamento in ogni discorso.
    È sicuramente una visione umanistica/naturalistica che apprezzo molto, avendo studiato Scienze Naturali all'università.
    Grande Ale.

    • @hardwaretechnews
      @hardwaretechnews  58 минут назад +1

      Grazie di tutto cuore della considerazione e fiducia. Mi onori. Benvenuto su tutto cuore

  • @rizale73
    @rizale73 2 часа назад +2

    Grande video, hai detto parole molto sagge ed e' sempre un piacere ascoltarti. Ho scoperto da poco il tuo canale ma già oggi ho visto diversi tuoi video...complimenti

    • @hardwaretechnews
      @hardwaretechnews  2 часа назад

      Grazie per la presenza e considerazione. Pane al pane e vino al vino. Benvenuto

  • @Codu87
    @Codu87 4 часа назад +3

    L'ultima frase è da Oscar, grande

  • @Quake82
    @Quake82 3 часа назад +3

    Esatto..... Sempre al top.... Grande video...

  • @Gio95forever
    @Gio95forever 3 часа назад +1

    Grande!👏
    Adoro la realtà dei fatti nuda e cruda,potrà non piacermi ma preferisco sapere che vivere dentro matrix e questo canale fatto di passione è quello che ci voleva.
    Non vedo l'ora per il video su Half Life.😍
    Per quanto riguarda l'hardware sto molto preso per le nuove cpu AMD.
    La scheda grafica,mi piacerebbe una linea senza ste tecnologie acerbe e in beta,che fanno lievitare il prezzo,ma capisco che da qualche parte devono iniziare.

  • @OMOTENASHIANIME
    @OMOTENASHIANIME 2 часа назад +1

    Ciao . NE approfitto per ringraziare per i video e la divulgazione. Io sono sempre stato ( evidentemente senza saperlo ) un amante delle "cose 1 a 1 " . Su un monitor con una certa risoluzione usare proprio QUELLA risoluzione cosi da adattare i pixel 1 a 1 con la matrice, con il DOS di 40 anni fa NON usavo il doublespace perchè mi faceva storcere il naso ecc ecc. Ora grazie al canale ho imparato ad esempio che il 1 a 1 nel calcolo delle GPU si chiama RASTER e quindi mi fa piacere imparare. Ogni tanto ho sentito qualche affermazione che non è proprio nelle mie corde ( piu di politiva che di circuiteria ) ma la esprimi sempre con pacatezza e MAI volendo imporla e lo trovo veramente raro al giorno d'oggi. Pure io nel mio piccolo ho un canale e mi occupo di altro ma il mondo TECH ( sono perito informatico ) mi piace e mi aiuta ad esempio per renderizzare i miei video quindi ascolto con piacere le tue produzioni. Spero di non essere stato indelicato a usare il "tu" colloquiale ma pare sia mi moda nel web . Grazie ancora e buona serata

    • @hardwaretechnews
      @hardwaretechnews  2 часа назад +1

      Grazie di tutto cuore delle parole e considerazione. Il tu è il mio marchio di fabbrica. Hai fatto bene👍

    • @OMOTENASHIANIME
      @OMOTENASHIANIME 2 часа назад +1

      @@hardwaretechnews grazie allora e al prossimo video. Buona serata da Simone / Omotenashi Anime

    • @hardwaretechnews
      @hardwaretechnews  Час назад

      @@OMOTENASHIANIME a TE CARO

  • @TheHunter0082
    @TheHunter0082 5 часов назад +2

    ti seguo per questo sei coerente e si vede che non tiri da nessuna delle parti poi ci sta che uno preferisce una tecnologia a un'altra ma non significa niente continua così ne vedo poca di gente come te su you tube gli altri sono tutti pagati e sponsorizzati ti stimo fratello un 🤗

    • @hardwaretechnews
      @hardwaretechnews  5 часов назад +1

      Davvero onorato dalle tue parole, e grazie della fiducia e presenza

    • @TheHunter0082
      @TheHunter0082 5 часов назад +1

      ti volevo chiedete perché non fai dei video di come settare le schede video sia da game che da applicazione amd e nvidia sarebbero dei contenuti favolosi e spiegare perché quel settaggio tipo quello che hai detto nel video di togliere il taa e provare da adrenalyn amd

    • @hardwaretechnews
      @hardwaretechnews  5 часов назад +1

      @@TheHunter0082 Posso fare poco, perchè ho una vega8 integrata, ma ne' ho in mente uno per dare degli spunti

    • @TheHunter0082
      @TheHunter0082 5 часов назад

      @hardwaretechnews però puoi spiegare i vari setting a cosa servono e come usarli sia amd e nvidia basta scaricare le applicazioni adrenalyn e nvidia app se lo fai mi abbono ahahaha lo faccio lo stesso🤣🤣🤣

  • @1206vincenzo
    @1206vincenzo 6 часов назад +1

    io porto qui la mia esperienza e spero possa essere utile a molti: io ti seguo perchè sto costruendo la mia build e mi manca solo la scheda grafica, e grazie al tuo lavoro e a i tuoi commenti me ne sto facendo una ragione su quale scheda prendere. Io non sono un fanboy di nessuna delle due aziende, ma voglio prendere il meglio per me. E grazie a quello che ci dici e condividi mi stai dando ottimi consigli su cosa prendere in base alle mie esigenze di utilizzo e gioco che farò col mio pc! continua cosi

  • @AllZop
    @AllZop 6 часов назад +2

    Assolutamente d'accordo, siamo qui per stare bene e rilassarci. E anche imparare qualcosa. Ad esempio io ho una Nvidia 4000 serie, eppure ho voluto provare una bella AMD 7900x e non vedo l'ora che arrivi. Sarà l'età, ma dopo aver visto tante cose non belle, credo che questo ambito debba restare sul lato della tolleranza e della passione. 😊

  • @francesconassetta
    @francesconassetta 5 часов назад +2

    1- possibilta' del proprio portafoglio per l'acquisto.
    2- componentistica del pc bilanciata rispetto alla nuova scheda video da acquistare
    3- tipologia del monitor che si utilizza.
    ognuno di noi ha le proprie esigenze legate a tanti fattori che penso di aver racchiuso in questi tre punti.
    Il dissing tra qual'e' la migliore o la peggiore per noi consumatori rimane una stupidita' da fanboy che non comprendo.
    Caro Alex grazie per le informazioni che ci condividi.

    • @hardwaretechnews
      @hardwaretechnews  5 часов назад +1

      Grazie a te caro! Piano solido e funzionante il tuo. Eppure non mi sembra difficile da capire

    • @francesconassetta
      @francesconassetta 5 часов назад

      @@hardwaretechnews gioco al pc dal lontano 2004 pur essendo stato proprietario di diverse console che colleziono, ma per quanto riguarda la scheda video dopo 20 anni ho sempre utilizzato quel metodo passando sistematicamente tra amd e nvidia.

    • @MondoAmici
      @MondoAmici 4 часа назад +1

      1- possibilta' del proprio portafoglio per l'acquisto.

    • @francesconassetta
      @francesconassetta 4 часа назад

      @ 🤣🤣🤣

  • @terrornoize81
    @terrornoize81 2 часа назад +1

    Rimani su RUclips Alessandro, ti posso seguire ovunque, anche dal lavoro.

  • @lucaboss4491
    @lucaboss4491 2 часа назад +1

    Il downsampling è anche nei driver Nvidia, si chiama DSR (Dynamic Super Resolution), e c'è la versione "calcolata" dall'AI: DL-DSR.
    Quella è una delle migliori feature AI di Nvidia, soprattutto per chi gioca a 1080p/1440p. A 4K ha meno senso per via del peso e della minore necessità.
    Infatti, prima di passare al monitor 4K usavo molto il DS, sia con Nvidia che con AMD. Migliora anche la risoluzione percepita, agendo a livello di subpixel.

  • @luigibonura4020
    @luigibonura4020 5 часов назад +3

    NVIDIA secondo il mio parere, avrebbe dovuto fare la 5080 con almeno 20 giga di memoria, aumentando anche il bus a 384 bit soprattutto per il prezzo a cui sarà venduta la scheda. Ottimo questo canale perchè sei uno dei pochi che fornisce corrette indicazioni su cosa investire per il proprio PC.

    • @hardwaretechnews
      @hardwaretechnews  5 часов назад +1

      Esatto, cioè siamo nel 2025, e vediamo una regressione della ram e dei bus!

    • @luigibonura4020
      @luigibonura4020 5 часов назад

      @@hardwaretechnews La lineup corretta sarebbe stata 5090 per lavoro e giocare in 4K ultra o maxato, la 5080 per giocare maxato in 4k, la 5070ti per il 1440p maxato, la 5070 per il maxato in 1080p e qualche gioco in 1440p abbassando opzioni grafiche.

    • @domenico141080
      @domenico141080 3 часа назад

      ​@@hardwaretechnewsla penso così, lo dico spesso ai youtubers che elogiando ste Nvidia con 192 bit e 12 gb.. Un pugno nello stomaco

    • @angelogiramondo1540
      @angelogiramondo1540 49 минут назад

      ecco, ho proprio ecceduto e nemmeno youtube riesce a digerire un post così lungo... lo divido in 3.... no, in 5... realmente troppo lungo.
      1
      come appasionato ti do ragione, ma come "tecnico" ti dico che non sarebbe stato possibile.
      parti dalla considerazione che il chip halo di nvidia è in realtà lo stesso chip della 5080, ma doppio e che questa configurazione è stata pensata per essere proposta su schede video che verranno vendute a circa 10.000$.
      tecnicamente andare sopra alla dimensione di 400 mm² non è più conveniente, soprattutto tenendo conto delle tecnologie proposte per la produzione di chip MCM (multi die), che sono diventate più economiche ed abbordabili per la produzione di chip mainstream.
      superare i 400 mm² significa avere una resa della superficie del wafer molto inferiore.
      passare da 400 mm² a 500 mm² permette di avere un chip che ha il 25% di superficie in più, ma di passare da circa 141 chip (interi) a 110 chip, con la perdita comparata di circa 4 chip, perchè le dimensioni crescono, aumentando le prestazioni, ma crescono anche gli spazi inutilizzabili del wafer.
      oltre a questo aumenta lo scarto dovuto ad errori incorreggibili del chip, ossia che si verifichino errori tali da non rendere il chip utilizzabile nemmeno per un chip con parti opportunamente disabilitate., e che, scartando questi, la resa dei chip totali per wafer scenda ulteriormente.
      quindi se sia AMD che nvidia ti stanno proponendo come chip monolitico uno di dimensioni inferiori a 400mm² è perchè andare oltre non è economicamente possibile.
      faresti chip più performanti, ma ne faresti meno per singolo wafer, aumentando non proporzionalmente il costo del singolo chip.
      significa che se oggi ti vogliono vendere una 5080 a 1000$ di MSRP (credici!), farne una con un chip da 500 mm², il 25% di superficie in più e presumibilmente dal 20 al 25% di prestazione in più,non sarebbe costata solo 1250$, perchè c'è stato un aumento del 25% di silicio utilizzato (e, relativamente, anche più VRAM per sfruttarlo, componentistica e guadagni), ma almeno 1500$.

    • @angelogiramondo1540
      @angelogiramondo1540 48 минут назад

      2
      ma non è nemmeno così, in effetti.
      si definisce sinergia produttiva quando riesci a sfruttare lo stesso chip per diversi prodotti, aumentandone la produzione e quindi diminuendone il costo.
      il GB203 viene usato su 5090, 5080, 5070 Ti e sulle relative schede video RTX professionali, su 6 modelli.
      se avessero fatto un chip più grande questa sinergia non sarebbe stata possibile, ne con la scheda più grande, perchè se avrebbe proposto ancora un 2x dello stesso chip saremmo arrivati a costi esagerati per il mercato, sia per la scheda gaming che per quella professionale; ne tantomeno con quella più piccola, perchè avresti dovuto distanziarla opportunamente dal chip immediatamente più piccolo, quello che genera la 5070 e le altre SKU più piccole,, comprese le GPU per laptop, e avresti dovuto fare una 5070 Ti più prestante per giustificare comunque il maggior prezzo dovuto all'uso di un chip più grande, seppur con una parte disabilitata.
      a quel punto, però, la 5070 Ti sarebbe stata preferita, perchè avrebbe raggiunto quasi le prestazioni di una 5080 con il GB203, ma anche il costo, facendosi quindi cattiva pubblicità, perchè troppo onerosa, anche se con un cospicuo guadagno prestazionale, rispetto alla vecchia generazione.
      quindi il limite di 400 mm² per la produzione, il fatto che non conviene fare un chip da 500 mm², figuriamoci uno da 650-700 mm² per generare la 5090, anche lei, a questo punto, monolitica, la mancata sinergia produtiva che ti permette di abattere il costo di un buon 20%, e quindi la 5080 con un chip a se stante da 500 mm² sarebbe costata non 1500$, ma 1800$, portando il prezzo della 5070 Ti con un chip derivato da quello ad un costo di 1100-1200$, a incastonato il chip in quella dimensione.
      ed in quella dimensione hanno dovuto anche mettere un controller che serve per la comunicazione di 2 GB203 per fare il GB202, quindi quando compri una 5080 o una 5070 TI stai pagando per del silicio inutilizzato a prescindere.. ma questo è il problema dei chip MCM, ossia l'aumento di transistor dovuti a parti per la comunicazione tra i die.

  • @simonelanza5770
    @simonelanza5770 4 часа назад +1

    Io ho Invidea ma non sono un Fanboy Invidea ma sono un Fanboy sul prezzo, qualità e prestazioni e andesso che ne so di più so quello che dovrò comprare in futuro ,grazie a te Alessandro ovviamente

  • @burjak87
    @burjak87 5 часов назад +1

    il prossimo video guida sembra molto interessante

  • @loryt690
    @loryt690 3 часа назад +2

    alcune volte la gente è stanca e c ha problemi propri e trova liberatorio insultare la gente a caso, il mio consiglio è ignorarli fino a un tot volte e poi dopo bannarli perchè almeno ti aiuta un po per spammare il canale, se ti devi prendere un insulto almeno prendine i benefici XD

  • @andreasolca868
    @andreasolca868 8 часов назад +2

    Ciao esamina super doc!!! ripeto la penso come te .. 🧐

    • @hardwaretechnews
      @hardwaretechnews  8 часов назад

      Sei un intenditore caro! Ma Basta. Dovrebbero solo accedere il cervello

    • @andreasolca868
      @andreasolca868 8 часов назад +1

      @hardwaretechnews si vero certa gente ha solo la lingua per parlare ma il cervello è spento come antichi della pietra 🤣🤣🤣😱😱🤣 lasciamoli parlare che noi abbiamo roba seria buon lavoro continua così!!!!

    • @hardwaretechnews
      @hardwaretechnews  7 часов назад

      @andreasolca868 grazie fratello.

  • @stigmaker
    @stigmaker 2 часа назад +1

    perfettamente d'accordo

  • @Kurtferro
    @Kurtferro 5 часов назад +1

    ciao, si su nvidia il vrs è il drs dalla serie 4000 ce la versione miglioratsa con IA, forse è uscita prima su nvdia poi usci su amd penso fu introdotto dalla serie fine 2000/3000, la versione base funziona anche sulle 1000

  • @fabioconsales92
    @fabioconsales92 4 часа назад +1

    Tu sei molto tecnico e preparato, consigli bene e informi bene, un reddit sarebbe bello ma anche un forum. Uno spazio dove si possono trovare a portata di click tutte queste informazioni, immagini, comparazioni consigli ecc una specie di bignami insomma. Saresti penso l'unico in Italia. Il mercato del hardware è troppo confusionario. Già la questione dei bit e delle vram ecc penso viene consiretato da 4 gatti. Sono invece dettagli importanti che spostano l'ago della bilancia tra una scheda e l'altra. Poi ci sono le cpu, ssd, ram, monitor ecc un mondo gigante che anche canali grossi come prodigee coprono in modo raffazzonato. Tu potresti finalmente organizzare tutto il discorso in schemi intuibili, perché sei una persona intelligente e soprattutto sei ben disposta.

    • @hardwaretechnews
      @hardwaretechnews  4 часа назад +1

      Probabilmente darò più spazio alle dirette, mi piace una interazione più "live"

    • @fabioconsales92
      @fabioconsales92 3 часа назад

      @hardwaretechnews e che le live piacciono poco all'algoritmo di youtube

  • @duracell211
    @duracell211 2 часа назад +1

    so che l'ia può simulare i raggi del ray tracing ma ad una frazione ridicola rispetto al calcolo che serve per il ray. è già stata implementata questa cosa?

    • @hardwaretechnews
      @hardwaretechnews  2 часа назад

      Ray recostraction. Genera ancors artifatti video

    • @angelogiramondo1540
      @angelogiramondo1540 15 минут назад

      l'AI non simula i raggi del ray tracing, non ti fare infagottare con nomi altisonanti che poi non hanno il significato che vorrebbero farti intendere.
      il ray reconstruction è uina manipolazione dell'immagine finale, in 2D del frame, non è una manipolazione 3D e questo ti indica già da sola che non è una simulazione dei vettori lucee quindi che non simula i raggi, ma l'insieme finale visto attraverso uno schermo 2D.
      a me ste cose fanno imbestialire come un cinghiale che ha ricevuto un calcio sugli zebedei!
      come il DLSS è un upscaling AI!
      era AI nella prima versione, quando consideravi la rete neurale allenata in fase di sviluppo e l'algoritmo esecutivo della convoluzione, che usava come metadata i valori trovati dalla rete neurale, ma come tutte le cose nvidia, premature, loro stessi si sono accorti che il range di valori in cui potevano spazioare i metadati era limitato e la differenza tra un valore medio preimpostato e quello generato dalla rete neurale era talmente piccola che non avrebbe influito sulla qualità, consigliando ad nvidia di eliminare la fase di apprendimento.
      ora dimmi come fai a parlare di AI se non c'è un minimo di rete neurale!
      perchè c'è un conuscitissimo algoritmo di soppressione del rumore creato negli anni 60 da Lanczos ed usato opportunamente per un upscaling?
      perchè è dasato sul machine learning più semplice che si conosca (anche perchè i metadati, le variabili di gestione degli intervalli, le ha impostate fisse)?
      si parla di AI e non se ne conosce il senso, solo perchè tutti parlano, sbagliando, di AI....
      una moda!

  • @pensieros0318
    @pensieros0318 5 часов назад +1

    E' dai tempi delle amd 5000 che esiste il dettaglio automatico delle texture in base alla vram ed alla velocità del bus.

    • @angelogiramondo1540
      @angelogiramondo1540 39 минут назад

      resampling, tecnologia usata sempre male perchè costa cicli di elaborazione e capacità aggiuntiva della VRAM (o credi che il resampling si possa fare con nulla?).
      in realtà siamo andati ancora peggio di prima, perchè prima i dataset dei giochi annoveravano almeno 3 tipologie di qualità delle texture, adatte a basse medie e altissime risoluzioni.
      da qualche anno le mettono esclusivamente ad alta risoluzione, per limitare il peso dei GB da scaricare per un gioco, ma il resampling che viene fatto è di pessima qualità, proprio per evitare di collassare le GPU più piccole, quelle che realmente necessitano di un dettaglio inferiore della texture per via della inferiore capacità di calcolo e di VRAM.
      addirittura si è provato a farlo fare alla CPU, con disastro annunciato...

  • @ramborambino7066
    @ramborambino7066 2 часа назад +1

    La penso uguale ,sono fan boy del mio portafoglio e non quello di altri.....

  • @pyroflash64
    @pyroflash64 3 часа назад +1

    Con l'essere umano non puoi fare nessun percorso di vita caro mio. Ci sarà sempre l'idiota o quello so tutto io che rovinerà tutto. Cmq complimenti, all'apparenza sembri una bella persona, raro di questi tempi

    • @hardwaretechnews
      @hardwaretechnews  3 часа назад +1

      Grazie davvero della considerazione. Ho il difetto di essere un umanista, ma da come leggo c'è ancora speranza

  • @flyingcock-uq1qd
    @flyingcock-uq1qd 5 часов назад +1

    Sei un santone altro che hardware!

  • @vincenzodaniele2768
    @vincenzodaniele2768 5 часов назад +1

    Buongiorno, domanda, ht on oppure off?

  • @samuelepincelli4452
    @samuelepincelli4452 4 часа назад +1

    Ciao ! Domanda ...se io ho una 7900xt con uscita displayport 2.1 e il mio monitor ha l'entrata da 1.4 come lo prendo il cavo da 2.1 o da 1.4? Non so se col 2.1 si rischia collo di bottiglia o se non fa nulla ... grazie mille!

    • @hardwaretechnews
      @hardwaretechnews  3 часа назад +1

      Più che altro non godi il massimo di rdna3. Comunque in caso usa HDMI come uscita ed occhio alla profondità di colore a 10bit

    • @samuelepincelli4452
      @samuelepincelli4452 Час назад +1

      Grazie mille della risposta... professionale come sempre ! Grazie grande, al prossimo video !

    • @hardwaretechnews
      @hardwaretechnews  Час назад +1

      @@samuelepincelli4452 Un piacere Caro!😁

    • @angelogiramondo1540
      @angelogiramondo1540 6 минут назад

      quando parli di protocolli vale quello più basso della catena.
      non potendosi settare a quello più alto saranno gli altri a scalare al suo.

  • @pensieros0318
    @pensieros0318 5 часов назад +1

    Io sono per il mio portafoglio ma non posso parlare contro un brand che automaticamente vengo tacciato di essere un fanboy.
    Una volta sono fanboy amd , un'altra di nvidia ,un 'altra di intel , la verità è che le persone vedono se stessi negli altri e quindi i fanboy tendono a vedere fanboy dovunque.

    • @angelogiramondo1540
      @angelogiramondo1540 32 минуты назад

      vero.
      però poi c'è chi la tecnologia la conosce e capisce anticipatamente i risultati che offrirà...
      a quel punto se parli, se spieghi agli altri che cosa hai intuito, ti prendono per fanboy....
      il problema per me è che troppo spesso le tecnologie proposte da nvidia ed intel sono brutte, o inutili, o fatte male, o che portano a risultati disastrosi.
      come l'uso di DLSS e FG nei giochi, dove oggi ti fanno pagare potenza software per potenza HW e dove la potenza software è spesso ottenuta non migliorando il proprio software proprietario e che sfrutta l'HW del produttore, ma mettendo lucchetti in modo che la concorrenza si trova a gestire un codice del gioco vecchio di 40 anni, perchè partorito appositamente dal software del produttore che sponsorizza il gioco proprio per ottenere questo effetto....
      quindi quando a me non piace nvidia, ma compro un gioco che è sponsorizzato da questa, so già che su AMD andrà male per via dei gameworks che sfruttano algoritmi con AVX solo per nvidia tramite CUDA, mentre per AMD viene relagato un codice che si sviluppa su FP o SEE, decisamente più laborioso ed esoso di risorse;
      ma me ne faccio una ragione, perchè so benissimo che se oggi invidia mi chiede 1 per una cosa, domani mi chiederà 1.2 per la medesima cosa (perchè le sponsorizzazioni costano e le paghi tu con la tua scheda video).

  • @rickypisani4970
    @rickypisani4970 3 часа назад +2

    Ho un pc ormai vecchio che monta una 1060 mi ha servito bene ma ormai é il momento di cambiarlo, nel mio niovo pc volevo mettere una 7900xt ma ho deciso di aspettare le nuove schede spero con tutto il cuore che la 9070xt si una buona scheda non vorrei essere costretto a prendere una 5070.

    • @hardwaretechnews
      @hardwaretechnews  3 часа назад +1

      Fai bene ad aspettare. Io 12gb non la toccherei nemmeno con una mazza

    • @AlexTom777
      @AlexTom777 2 часа назад

      ​@@hardwaretechnewspochi sono 12gb secondo me, non capisco con quellp che comunque costano le schede perché non ne mettono almeno 16gb, e la 5080 20 o 24gb no 16gb.

    • @hardwaretechnews
      @hardwaretechnews  2 часа назад +1

      @AlexTom777 sarebbe da chiederlo ai lor signori

  • @alessandrogiansanti5408
    @alessandrogiansanti5408 17 минут назад +1

    Io ho avuto nvidia quadro, ATI, CPU, Intel AMD, talvolta non ho preso l'hardware che volevo per motivi di budget, ma ho sempre scelto con un minimo di criterio senza badare troppo al brand

  • @Maux_Tech
    @Maux_Tech 4 часа назад

    Ma con le nuove NVIDIA Rtx 5000 : con la tech che usa fp4 per ridurre l’occupazione di vram di 1/4 o 1/8 non dovrebbe essere risolto ?
    Giocando comunque in 4K maxato?

    • @hardwaretechnews
      @hardwaretechnews  4 часа назад

      Fp4 e che si fai? Ia

    • @angelogiramondo1540
      @angelogiramondo1540 5 минут назад

      quella features è sui tensori, non sul raster, dove nvidia dovrebbe rimanere con unità di calcolo FP32 "secche", che vanno in emulazione se vuoi usare altre basi.

  • @fefochip
    @fefochip 28 минут назад +1

    Non vorrei essere frainteso nel mio commento al video precedente. Personalmente non mi importa nulla di amd o nvidia , sono solo interessato a spendere bene i miei soldi per una scheda video che mi accompagni nei miei passatempi di giochi (questa la mia passione I giochi e non la tecnologia in se) . Il senso che non capivo del video precedente è che esula completamente dalla logica che perseguo ovvero quello di consapevolizzarmi su cosa acquistare. Oggi prendere una 3080 con le 40 sul mercato e con le 50 in arrivo non ha molto senso.nel particolare Ad oggi la mia ricerca sta nel cercare di capire se tenermi la 4080 o restituirla per prendere o una 9070xt una 7900xtx o una 5070ti tutto qui

    • @hardwaretechnews
      @hardwaretechnews  24 минуты назад

      Consiglio semplice. Attenti i test. Ché quello che dico da mesi

  • @MarsMarsTitan
    @MarsMarsTitan 5 часов назад +1

    Ma certo, si argomenta per divertici, dai un occhio a questo NexT-SBC AMD e dimmi se ti garberebbe dento un AMiga 😉

  • @angeloaccastelli1817
    @angeloaccastelli1817 3 часа назад +1

    Ad esempio su, infinity nikki, l'engine di gioco riferisce a schermo con il DLSS quality e l'ho dovuto disattivare con un file .ini e poi uso optiscaler per avere il 4K nativo. Hai il problema che ti posso bannare l'account per colpa dell'anticheat.

  • @incosciente2994
    @incosciente2994 5 часов назад +1

    Per tutti i fanboy Nvidia che hanno il coraggio di lamentarsi in questo canale, ricordatevi che tempo fa Nvidia e' stata protagonista di un brutto fatto verso un famoso, e competente, canale YT che da anni porta analisi, benchmark e test in maniera trasparente.
    A fine 2020 il canale ha ricevuto una comunicazione ufficiale da parte di Nvidia che non avrebbero piu' ricevuto GPU dato che non parlavano abbastanza di Ray tracing. Secondo l'azienda nei loro test e recensioni parlavano troppo di Rasterization.
    Chiaramente il canale ha sollevato il problema e ha, giustamente, ricevuto supporto da altri content creator.
    Qualche giorno dopo, considerando quanto eco aveva fatto la notizia, Nvidia si e' scusata con il canale e ha comunicato di rimuovere il "ban".
    Imbarazzanti.

    • @hardwaretechnews
      @hardwaretechnews  5 часов назад

      AMEN! Sai un altro RUclipsr si e' beccato minacce di morte?

    • @angelogiramondo1540
      @angelogiramondo1540 24 минуты назад

      ed oggi quel famoso canale ha cambiato "strategia" di divulgazione, se ci hai fatto caso....
      canali troppo grandi hanno intrinsecamente le mani legate, perchè un conto è Alessandro che fa divulgazione per il proprio piacere, e se ci guadagna è un in più, un conto è chi ha fondato il proprio successo su questo tipo di divulgazione e quindi si deve tenere cari tutti....
      a quel punto però la palla passa nelle mani delle aziende, perchè possono tagliarti le gambe non offrendoti le anteprime o i prodotti a gratis per le recensioni (ed nvidia ha un atteggiamento di questo tipo: o stai come me, contro tutti, o stai contro di me.
      fare una review soddisfacente con l'HW di oggi significa fare assegni da 10.000$ in su, oggi come oggi.... ed un canale youtube di medie dimensioni (con 1 milione o 2 di iscritti), non se lo può permettere ancora; figurati chi ne ha molti di meno.

  • @MondoAmici
    @MondoAmici 6 часов назад +1

    2:17 soffermiamoci sulle v.ram I nuovi Monitor molti saranno retrocompatibili 4 k e 1440 .. Cosa significa .. Magari vi piace un gioco per la grafica dove 80 fps bastano e avanzano lo giochi in 4k . Se vi piacciono i giochi competitivi passate al 1440.. Diciamo che 20 24gb v.ram vi darà la possibilità di un esperienza di gioco più ampia senza rinunciare a nulla ..

    • @hardwaretechnews
      @hardwaretechnews  5 часов назад

      Ma vaglielo a spiegare, e' ma c'e' la GDDR7

    • @angelogiramondo1540
      @angelogiramondo1540 12 минут назад

      @@hardwaretechnews e che CRU- 1.5.1 è poco conosciuto...

  • @Bandon4ever87
    @Bandon4ever87 6 часов назад +1

    io sono fanboy del mio portfogli :D ho avuto gtx 1060 6gb e ora ho 6700xt. Lato processori sono possessore di 5800x3d perchè ho am4 (da ryzen 5 1600 a 7 3700x e ora 5800x3d, e prima di passare alle ddr5 penso di voler spremere fino all'ultima possibilità questo processore).
    Per mie esigenze oggi punto al 4k, e purtroppo, ripeto, purtroppo, nelle nuove schede ho solo la casa verde da scegliere (sempre se non trovo una xtx a buon prezzo).
    Viva il mio portafogli.

    • @hardwaretechnews
      @hardwaretechnews  5 часов назад +1

      Anche io sono fanboy del tuo portafolio, e' per questo che non prendo parti di aziende che dovrebbero darci di più, dato che le finanziamo

    • @MondoAmici
      @MondoAmici 5 часов назад

      AM4 AM5 Spero solo che duri i 5 anni Come AM4 sono troppi i vantaggi per restare ancora ad AM4 . Momentaccio brutto per farlo adesso per il prezzo fuoricontrolo dei processori .

    • @Bandon4ever87
      @Bandon4ever87 2 часа назад +1

      @MondoAmici che io sappia am5 durerà un bel po'

    • @hardwaretechnews
      @hardwaretechnews  Час назад

      @@Bandon4ever87 2027+ secondo AMD

  • @filippodigioia1181
    @filippodigioia1181 5 часов назад

    👌

  • @MondoAmici
    @MondoAmici 4 часа назад +1

    Io sono un FanBoy da sempre di Nvidia e Intel ma se non riescono a darmi quello che cerco è normale che cambio Brand . Stessa cosa sulle schede madri.. Asus .. ma mi sono trovato meglio con MSI spendendo anche di meno ..

    • @MondoAmici
      @MondoAmici 4 часа назад

      Monitr stesso dicosrso sono passato da Asus ad Samsung NVMEe Sono pasasto da Samsung a WD_BLACK

    • @angelogiramondo1540
      @angelogiramondo1540 10 минут назад

      @@MondoAmici gira e rigira però stai sempre lì: nvidia, Intel, asus, MSI, Samsung, WD.... ce ne sono 1000 di più di produttori, almeno sul resto dell'HW, purtroppo.
      per CPU e GPU invece siamo in una vera e propria costrizione di mercato.
      che ce ne siano 1, 2 o 3 son sempre troppo pochi.

  • @giuseppecoffaro2803
    @giuseppecoffaro2803 5 часов назад

    Nvidia non aumenta la Vram perché non interessa che una scheda video possa durare per molti anni, inoltre così regola anche la definizione di riferimento con il quantitativo di bus e vram, nonostante che sono schede che possono tranquillamente andare su risoluzione più alta specialmente per le tecnologie. La verità è questa, Nvidia ti vende tutta la tecnologia e in generale una scheda video che oggi magari è la migliore, dopo anni non hai miglioramenti di prestazioni, tecnologie raramente upgradate e rimani con le limitazioni. Al contrario AMD magari nel momento dell'uscita potrebbe non convenire di più rispetto a nvidia, ma poi ti ritrovi aggiornamenti delle future tech, aumenti delle prestazioni e tendenzialmente tra bus e vram ti gira a risoluzioni migliori ed è adatto anche per durare per del tempo. Tendenzialmente la verità è che Nvidia è sopra solo della serie 90 che rimane imbattibile, per il resto è tutto marketing, in ogni caso viva la concorrenza e speriamo che intel si muove anche, al momento sulla fascia entrylevel si sta muovendo bene anche se escono un po' in ritardo le schede video

  • @MuccaCorse
    @MuccaCorse 2 часа назад +2

    Komunista del Gaming é l'insulto più bello che io abbia mai sentito. 🤣🤣🤣 Fai delle disamine sempre neutrali e bastano due minuti di video per capire come ragioni e come lavori. I pochi fan boy che ho visto su questo canale si sono spenti come fiammiferi in una pozzanghera.

    • @hardwaretechnews
      @hardwaretechnews  2 часа назад +2

      Guarda che è stato figo. Io comunista che sono apolitico.😅

  • @francescoavellis8030
    @francescoavellis8030 4 часа назад +1

    il latino ci salverà visto che la lingua forma il modo di pensare di un popolo... :) speriamo di tornare a conoscere il latino... per imparare a programmare meglio :)

  • @LorisTurla
    @LorisTurla 9 часов назад +1

    Buongiorno Ale 💪🏻❤ come stai? Grazie per le info continue! Se hai bisogno di un moderatore, anche su youtube, lo posso fare volentieri per te, sarebbe cosa gradita!

    • @hardwaretechnews
      @hardwaretechnews  9 часов назад +1

      Carissimo grazie per la disponibilità. Vedrò di mettere su discord per le discussioni. Anzi se hai esperienza, te lo lascio volentieri in mano!👍

    • @LorisTurla
      @LorisTurla 9 часов назад +1

      @@hardwaretechnews ok, volentieri. In serata vedo di aprirlo. Mi servirà il tuo contatto discord per metterti come admin del canale. C'è un modo per contattarti privatamente?

    • @hardwaretechnews
      @hardwaretechnews  9 часов назад +1

      @LorisTurla la mail che trovi sotto ogni video

    • @hardwaretechnews
      @hardwaretechnews  6 часов назад +1

      @@LorisTurla per ora blocchiamo idea discourd. Risolviamo diversamente

    • @LorisTurla
      @LorisTurla 6 часов назад +1

      @@hardwaretechnews ok Ale, dimmi tu quando vorrai farlo. Se hai altre idee ti ascolto.

  • @domenico141080
    @domenico141080 5 часов назад +2

    Basta FANBOYISMO... AMD È MIGLIORE 😅😅

    • @hardwaretechnews
      @hardwaretechnews  4 часа назад

      hahahaha

    • @alexistru690
      @alexistru690 4 часа назад

      Domenico...AMD lato gpu la vedo nera a sto giro...spero di no perché sto aspettando annunci e benchmark ma non ho buone sensazioni....se devo sdrammatizzare rispondo come Alex....ahahahah

    • @domenico141080
      @domenico141080 4 часа назад +1

      Vedremo.. I test usciranno a breve.. E aspettiamo.... Sperando sempre in meglio

  • @LorisTurla
    @LorisTurla 9 часов назад +1

    Ma se pensi ci sono i fanboy in ogni settore esistente.
    Pc vs console
    Case di auto vs altre case di auto
    Destra vs sinistra
    Nvidia vs amd
    Intel vs amd
    Ecc ecc.
    La gente si fa la guerra per ogni cosa, solo per sentirsi un secondo migliore.
    Basta solo guardare i commenti che ricevi sotto le news che pubblichi su rdna4, arrivano utenti Nvidia con il paraocchi a fare commenti totalmente fuori da ogni logica e non richiesti da nessuno. La gara a chi ce l'ha più lungo esiste dalla creazione dell'uomo. Ma in fondo, come anche tu sai, c'è una grossa situazione di insicurezza alle spalle, chi è in pace con se stesso e sa/ha imparato ad essere obbiettivo non farà mai determinate affermazioni. O magari le pensa ma se le tiene semplicemente per sé.
    Io sono il primo a dire che se domani escono nuovi processori intel e vanno più forte di amd (lato gaming parlo) con consumi umani, non ho nessun problema a tornare con loro. Bisogna imparare a far fruttare al massimo i soldi spesi e non farsi mangiare dal marketing e dai sedicenti guru di youtube che hanno un motivo ben preciso per far tali affermazioni.

    • @hardwaretechnews
      @hardwaretechnews  9 часов назад +1

      Hai centrato il punto. Vanno con il sangue agli occhi senza ragionare

  • @destroiedworld8739
    @destroiedworld8739 5 часов назад

    Ricordo anche che AMD ha implementato il 64 bit ;)

    • @hardwaretechnews
      @hardwaretechnews  5 часов назад

      Già

    • @destroiedworld8739
      @destroiedworld8739 5 часов назад

      Comunque ti ho iniziato a seguire circa da un paio di settimane e i tuoi video mi piacciono moltissimo, anche perché si vede lontano un miglio che sei uno spiccio e vecchio stampo come piace a me. Condivido ogni cosa che dici nei tuoi video e mi fa molto piacere che ancora oggi nel 2025 esistano persone non lobotomizzate capaci di pensare e riflettere con la propria mente senza alcuna influenza esterna. Un plauso anche alle tue conoscenze e nozioni che fornisci all'interno dei tuoi video, veramente complimenti, gran bel canale, meriteresti molta più visibilità!

  • @MondoAmici
    @MondoAmici 4 часа назад

    Gli sfoghi molto probabilmente servono a motivare loro stessi di aver dato 2 reni per comprare una scheda video ... io li capisco hanno speso tanto e sono stati ingannati .

    • @hardwaretechnews
      @hardwaretechnews  4 часа назад

      Ho il sospetto. Purtroppo la generazione corrente di schede video solo software perché di innovazione ZERO.
      Cazzo rdna3 chiplet. Adesso indietro.
      Nvidia Ancora 16gb
      Pero ia ia ia ia. Ché de una sigla musicale?!?

  • @NuccioCRPG
    @NuccioCRPG 5 часов назад

    Lascia perdere i fanboy tutto tempo perso, come se nn esistessero, facci il callo cosi il loro ego appassisce e nn si alimenta

  • @MondoAmici
    @MondoAmici 6 часов назад +1

    Tutto dipende da cosa si preferisce.. AMD da questo Nvidia da quello Nvidia forse fa pagare un po troppo AMD dovrebbe essere più coraggiosa. In ogni modo ognuno esprime semplicemente il suo pensiero . Io cerco sempre di portare commenti per creare discussione per apprendere prima io qualcosa e dare quel minimo che ho acquisito in 3 decenni di esperienza .
    Se la gente vuole comparsi le 5070 con 12 gb v.ram più di avergli spiegato che non va bene non è un buon investimento . caxx loro ...
    AMD 9070xt è la gpu da scegliere? No per un semplice motivo 16 gb. V.ram sono pochi
    Domanda da farsi ho una 4080 90 vale la pena fare upgrade alla 5070ti 5080/5090 ? Si .
    Conviene passare da 9900xt 9900xtx alla 9080 ? No
    Scelta personale mia Di non acquistare una 5090 ... Non voglio rendermi partecipe ad investire nel IA un progetto che toglie posti di lavoro .
    Tengo a precisare che queste sono solo le mie opinioni strettamente personali
    Discord non credo che sia una scelta giusta qui parlo da webmaster .. toglierebbe troppa attenzione al canale .

    • @hardwaretechnews
      @hardwaretechnews  6 часов назад

      Se penso che avevamo 20/24gb con meno di mille

    • @hardwaretechnews
      @hardwaretechnews  6 часов назад

      Per questo dicourd non lo vedo bene

    • @MondoAmici
      @MondoAmici 6 часов назад +1

      @@hardwaretechnews ram potenza porta aggiornata... sto na pacchia ti hoinviato un e-mail se vedi ho bloccato la freq a 2800 se vedi il processore su qualche core sale sul 60% spingere di + la gpu vuol dire solo consumare + energia per non avere nulla .

    • @MondoAmici
      @MondoAmici 5 часов назад

      @@hardwaretechnews qui ha fatto un ottima strategia di mercato...

    • @hardwaretechnews
      @hardwaretechnews  5 часов назад

      @@MondoAmici Il ragazzo andava di stock settings

  • @ARCvisionA770
    @ARCvisionA770 6 часов назад +1

    Condivido in pieno il ragionamento. Personalmente sono passato due anni fa ad Intel poichè trovavo insopportabile la politica adottata da Nvidia sui prezzi e non ho mai amato il software di AMD. Più che altro una scommessa e anche uno sfizio di provare qualcosa di nuovo, qualcosa su cui smanettare per far funzionare tutto decentemente (residuo del mio passato amighista giovanile). Un passo fatto in piena consapevolezza dei "problemi" a cui sarei andato incontro. Detto ciò è palese come Nvidia sia molto avanti rispetto alla concorrenza, sia in termini di harware che in termini di software e non mi sognerei MAI di dire che la Intel A770 16GB che alloggia nel mio PC è meglio di una RTX 3070. Bisognerebbe avere un po' di razionalità nel giudicare quelli che sono dei PRODOTTI informatici ma purtroppo la così detta "polarizzazione" delle opinioni della gente, in questa epoca di confonti via social network, non fa prigionieri.

    • @Torigum
      @Torigum 5 часов назад +1

      Insomma, il software Amd sembrerebbe migliore di quello Nvidia (driver, pannello), lato hardware amd da più bus e memoria e architettura non c’è una migliore, solo perché Nvidia ha messo core specifici per fare rt e amd non lo ha fatto in passato, non significa che abbia un hardware migliore, sono 2 modi diversi di lavorare, e posso dirti che molti sviluppatori condividono di più amd, chiedi a chiunque, le stesse console sono amd, ci sarà un perché, vi siete fissati con questo RT o AI…. mi metto la mano tra i capelli, per quanto riguarda le tech amd è dietro nell’anti lag, fsr4 sembrerebbe come il dlss, anzi sembrerebbe che il nuovo dlss abbia seri problemi… frame gen è assodato che quello amd è più veloce, amd forse è indietro in programmini come Nvidia broadcast e così via.

    • @MondoAmici
      @MondoAmici 5 часов назад

      @@Torigum problema delle ARC per le prestazioni che offre consumano troppo . Poi magari hanno migliorato onestamente non sono + aggiornato sulle ARC ..

    • @Torigum
      @Torigum 5 часов назад

      @ io parlo di amd

    • @ARCvisionA770
      @ARCvisionA770 4 часа назад

      Non ho scritto che AMD faccia prodotti scadenti. Il fatto che ci siano diversi prodotti e produttori fa sì che l'utenza finale abbia più scelta e, almeno nel mio caso, non mi sono trovato a mio agio con le tecnologie ATI/AMD, sic et simpliciter. Detto ciò molto fa anche l'abitudine ad utilizzare un determinato prodotto e io, che ho usato schede Nvidia sin dalla Geforce2 MX, ho trovato comodo trovarmi in un ecosistema HW/SW collaudato, supportato ed efficiente. Fin quando un paio di anni fa mi sono trovato di fronte alla necessità di cambiare GPU e non me la sono sentita di dare un altro euro a Nvidia. Un gesto quasi "politico" ma anche ponderato. Le schede Intel hanno sofferto molto al lancio e per un lungo periodo di scarsissima ottimizzazione sui driver, era evidente. Però ero molto curioso anche di provare qualcosa di completamente nuovo per cui ho falto un salto nel vuoto o quasi. Comunque quando si acquista un nuovo hardware, e non voglio qui fare assolutamente la parte del saggio o sel sapientone, anche il fattore "supporto" del software terzi è molto importante e da tenere in considerazione, che si tratti di applicativi per lavorare o per giocare. Da ragazzo acquistai un Amiga 4000T, dotato di acceleratore 68060 e una scheda video PicassoIV (un piccolo gioiello all'epoca) che era un hardware di ottimo livello. Peccato che il mondo Amiga fosse ormai agonizzante e tutto il software che contava ormai aveva preso la strada di Windows e MacOS, per cui alla fine mi sono dovuto arrendere. Però non rinnego il fatto di aver provato a percorrere una strada differente perchè ciò che mi ha sempre spinto è stata la curiosità riguardo la tecnologia. E penso che questo mi abbia forse messo al riparo, specie oggi che sono un po' vecchietto, dal fanboysmo imperante. Scusami per la prolissità.

    • @Torigum
      @Torigum Час назад

      @ vedi che da ati sono cambiate di cose, attualmente i driver amd sono i più stabili in circolazione, il pannello Amd dicono che sia passi avanti da quello Nvidia

  • @MCN.901
    @MCN.901 39 минут назад +1

    Grande ! concordo in pieno . Sempre per passione ultimamente mi sto divertendo con le Mod , se vorrai fare qualche analisi , a disposizione ✌ ruclips.net/video/9fUoTZdd-Kc/видео.htmlsi=oIG4qDrqpRKNq_BV