DeepSeek AI | Come Installare DEEPSEEK R1 in Locale sul PC [Guida Completa]
HTML-код
- Опубликовано: 7 фев 2025
- DeepSeek R1 gratis e in locale sul tuo pc! In questo video ti mostro una guida passo passo per installare ed utilizzare Deepseek r1 in locale, in modo completamente gratuito.
🚀 Resta Connesso:
Non dimenticare di iscriverti, mettere mi piace e attivare le notifiche per non perderti i futuri aggiornamenti e altri argomenti legati all'innovazione nell'IA.
#deepseek #deepseekr1 #deepseekai #qwen2.5 #chatgptalternative
☑️ Canale Telegram: t.me/+y6KAYbb4...
🚀Usa il LINK Amazon per Supportarmi!
☑️Link AMAZON: amzn.to/3VGgyQE
🚀La mia attrezzatura (acquistando da qui, sostieni il canale):
☑️Microfono Tonor: amzn.to/3VkjUHL
☑️Mic. Yeti: amzn.to/4enyWoC
PC (conf. simile):
☑️Case Mid-Tower Bianco: amzn.to/3xrt7G6
☑️Alimentatore: amzn.to/4eoq42q
☑️Scheda video: amzn.to/45kVBOz
☑️RAM: amzn.to/4chXPR4
☑️Scheda Madre: amzn.to/3z0Dv8k
☑️Processore: amzn.to/3Vn2udt
☑️SSD: amzn.to/4cgXmyh
🚀Abbonati al canale:
/ @felixinbusiness
🚀Contatto commerciale: felixinbusiness@gmail.com
☑️ Canale Telegram: t.me/+y6KAYbb4...
Link:
☑️ Docs Deepseek: api-docs.deeps...
☑️ Ollama: ollama.com/
☑️ Docker: www.docker.com/
☑️ OpenWebUI: docs.openwebui...
Fammi sapere cosa ne pensi di Deepseek R1! 🚀
Unisciti al mio Telegram 🚀 t.me/+y6KAYbb45FA3ODRk !
Se vuoi supportare il canale, puoi farlo con un Super Grazie o abbonandoti. 😍
fantastico ero curioso di provarlo in locale, e comunque integrato su perplecity per ora è il sistema che mi sta dando le "risposte" migliori... mi pice molto anche il fatto che si possa leggere e seguire i ragionamenti che fa ecc
Avevo per ora installato solo tramite ollama, mi serviva proprio la parte con la webui! Grazie!
Ho provato solo il 14b e gira decentemente, mentre il 32b è molto lento... Volevo provare qualche prompt per vedere la differenza nella qualità dell'output. Tu lo hai giò fatto? Con quali? Come ti sono sembrati? ma soprattutto che computer servirebbe per far girare decentemente quello da 671b??!?!?!?! xD Grazie in anticipo
Grazie per le informazioni date, in quanto veramente molto interessanti.
Un confronto tra ChatGPT o3 e DeepSeek R1 sarebbe molto utile.
Grazie mille!😀
Tutorial T0P! Grazie!
Grazie!
Sempre ottimi video
Grazie!
ho fornito a deepseek la descrizione dettagliata della mia workstation e gli ho chiesto se potevo far girare il modello con 671b di parametri. La risposta è stata: In sintesi, con il tuo attuale setup, gestire un modello di 671 miliardi di parametri sarà estremamente difficile, se non impossibile. Dovresti considerare l'uso di risorse cloud o l'ottimizzazione del modello per ridurre le sue dimensioni.
grazie Felix, sempre preciso! Io vorrei tanto capire come farlo girare su un Raspberry PI (perchè così potrebbe restare sempre acceso senza consumare come un PC) inoltre il Raspberry potrebbe anche essere messo online (pubblico) e utilizzarlo come LLM personale anche quando si è in giro :)
Vero, la velocità poi non è quella di un PC, ma potrebbe comunque essere un esperimento per creare agenti AI propri :)
Ottima idea! Potrebbe essere un esperimento interessante. Magari lo testo e ci porto un video!
@@felixinbusiness Saresti un grande! Perchè ci sono un sacco di Raspberry morti nei cassetti, mentre così possiamo "riesumarli" e dargli un grande valore (ripeto, anche se resta più lento :) )
👏🏻👏🏻
😀💪🚀
mac mini m4 che modello consigliate?
Ottimo video, grazie. Sarebbe interessante sapere cosa serve a livello hardware per eseguire i vari modelli.
Grazie! Ottima domanda! L'hardware necessario dipende molto dal modello che vuoi eseguire. In generale, servono almeno 16GB di RAM per modelli leggeri, mentre per quelli più grandi è consigliata una GPU con almeno 12GB di VRAM (meglio se Nvidia con supporto CUDA). Se ti interessa, potrei approfondire questo aspetto in un video dedicato!
Sarebbe un’ottimo video.. Inoltre sarebbe utile avere una stima di prezzo per una configurazione hardware adeguata per fare girare un modello che sia sufficientemente in grado di portare questa tecnologia in aziende di piccole dimensioni ..
il mio pc non carica dal Prompt dei comandi, alla fine del download ottengo Error: Post ...: connectex: Impossibile stabilire la connessione. Rifiuto persistente del computer di destinazione.
Ottimo come sempre. Ma per un 32 o pr un 70miliardi di parametri che pc serve
grazie per la guida! come lo installo su un disco che non sia C?
Grande secondo te in locale è in grado di riconoscere immagini Tipo fargli riconoscere da una foto un gatto o un cane oppure se un bicchiere o una bottiglia?
Ciao, ho seguito le istruzioni di questo video ed ho avuto la bella idea di caricare con ollama il modello da 671b. Dopo circa 72 ore il modello è stato scaricato ma è uscito l'errore di insufficienza di memoria, come accaduto anche ad altri. La mia macchina dovrebbe essere abbastanza potente (Workstation I9 (14900) con 64 GB RAM e Scheda video RTX 4060 16G NVIDIA 16 GB GDDR6), ma non è evidentemente sufficiente. Secondo te che caratteristiche deve avere la macchina per fare girare il modello da 671b. E' un problema di scheda grafica? Ti chiedo poi se puoi spiegare quali sono i motivi per cui sono importanti le caratteristiche della scheda grafica per fare girare il locale questi modelli. Grazie e complimenti per le info che ci dai.....
Con un iMac M1 con 8gb di ram che modello posso usare decentemente?
Ciao Felix! bellissimo video, complimenti! io sono un programmatore e sto usando Chatgpt tutte le versioni possibili (tranne quella a 200$... :) ) ma è molto lento rispetto sia a Gemini 2.0 che ad altri. vorrei sapere quale versioni mi consigli da usare per programmare e se in locale girerebbe piu velocemente che online. grazie!
Grazie Andrea! Per programmare ti consiglio Bolt, ho realizzato diversi video su questo argomento, se vuoi approfondire trovi tutto sul canale.
@@felixinbusiness Grazie! non lo avevo visto. vado a vedere subito! poi ti dico cosa ne penso!
in locale per programmare io uso qwen 2.5 coder 7b ( a casa) e 14b (al lavoro), ovviamente se non hai bisogno di tenere privati i tuoi dati nulla batte la capacità dei modelli disponibili via web tramite API perchè le risorse impiegate in termini di VRAM, etc. non sono quelle disponibili a noi "hobbisti"
non mi funziona docker mi da sempre un errore con finesta diagnistica la eseguo ma niente
ciao, l'ho scaricato su mac m2 ma funziona malissimo, inutilizzabile. lentissimo, non capisce l'italiano risponde con parole inesistenti, come posso fare ?
Ottimo video ringrazio. E per cancellare se non ricordo il nome del modello ? 😂
Scrivi il comando: Ollama list
e come si apre il compt dei comandi?
Ciao grazie mille per il video chiarissimo !
Una domanda se possibile: se voglio disinstallare un modello installato da x parametri per liberare lo spazio occupato prima di installare un altro modello su lama come posso fare? Grazie mille
Grazie! Apri il prompt dei comandi e digita: ollama rm "nome del modello"
@@felixinbusiness grazie a te sei davvero super !!!
Salve ! Grazie per questo video molto interessante !!! Quale è la differenza tra la versione Deepseek V3 e Deepseek R1 ?
DeepSeek V3 è più versatile e adatto a diversi compiti, mentre DeepSeek R1 è ottimizzato per il ragionamento avanzato e la risoluzione di problemi complessi. Se cerchi un modello per generare contenuti o comprendere il linguaggio naturale, V3 è la scelta migliore; se invece hai bisogno di capacità logiche più profonde, R1 è più indicato.
@@felixinbusiness Grazie per la risposta !!!!!
non mi va, n on mi risponde...
Una domanda da comune mortale. Che vantaggio ho ha installare l'AI sul mio PC posso istruirlo? posso creare un AI che faccia qualcosa di specifico? Oppure si tratta solo di un esercizio di pensiero? Perchè se si tratta solo di un esercizio, beh lo vedo alquanto inutile.
Un grande vantaggio è la privacy, i tuoi dati restano sul tuo dispositivo, senza essere inviati a server esterni. Inoltre, puoi lavorare offline e senza dipendere da servizi cloud.
ciao, ma come si fa a farlo partire in locale dal prompt? l'ho chiuso con ( /bye ) ma non riesco ad aprirlo, ho riguardato il video non ne sono capace, ho provato ollama run ma niente help please
con (ollama) ho richiamato i comandi ma non riesco a trovare il comando di avvio :(
Ciao, l'ho mostrato nel video, devi dare questo comando: ollama run "nome del modello". Ad esempio: ollama run deepseek-r1:7b
@@felixinbusiness grazie mille felix :) , per online invece? ho provato a digitare local host8080 ma nulla mi da errore, non mi porta alla pagina web , come si fa? grazie mille per la risposta
anche mettendo /auth continua a darmi problemi
Si può disinstallare un modello? Così da liberare spazio in favore magari di uno più grosso?
Certo, apri il prompt dei comandi e digita: ollama rm "nome del modello"
@felixinbusiness grazie mille grandissimo
Ciao Felix, ho provato ad installare sia la versione da 70b che quella da 32b. Purtroppo, alla fine dell'installazione mi da errore. Mi dice "model requires more system memory (43.8 GiB) than is available (5.6 GiB)" (per quello da 70b) e "model requires more system memory (22.4 GiB) than is available (6.3 GiB)" (per quello da 32b. Il mio Pc è un AMD Ryzen 7 5700U with Radeon Graphics 1.80 GHz con RAM installata da 8,00 GB. Possibile che non riesco ad installare nessun modello??
Ciao, in linea di massima considera che servono almeno 16GB di RAM per modelli leggeri, mentre per quelli più grandi è consigliata una GPU con almeno 12GB di VRAM (meglio se Nvidia con supporto CUDA).
L'installazione in locale risolve i problemi di Deepseek "server busy"? E poi.... Permette di trovare risposte online?
Ci sono AI per creare planimetrie in 3d? Le solite app sono noiose e bruttine
il fatto è che non funziona realmente bene, devi prendere il modello migliore e quindi più pesante, ma non risponde a tutto ho notato , risponde molto confuso e fa solo compiti davvero elementari
quale modello hai provato? volevo installare il penultimo più forte da 70b 43GB, ti ringrazio se mi rispondi
Sarebbe molto bello poter installare su open-webui dei modelli TTS e STT che comprendano bene l'italiano, in modo da poter dialogare a voce con questi modelli... Io ci ho provato ma non ci sono riuscito, quelli che ci sono preconfigurati fanno pena (perlomeno con l'italiano).
coa'è il docker?...quando fai "scrivi questo"....è scritto talmente piccolo che non si legge
poi se uso la versione on line di deep seek (cioe' mi registro con l'account di google ) non è la stessa cosa?
@CarloDiMarzio no
Docker sul mac fa un casino, viene riconosciuto come virus, impossibile proseguire
ma in Italia non è stato chiuso????
Attualmente dal sito ufficiale è accessibile. In ogni caso, questa guida mostra come installarlo in locale, quindi il funzionamento è totalmente indipendente dai server online e resta privato sul tuo PC.
R1 quantizzato non serve a niente
grazie Felix, sempre preciso ma purtroppo non funziona ossia quando apro la chat mi risponde con un messaggio tipo segretato con linee nere e non leggo il testo e poi si blocca io sto usando la versione da 42 gb, mi puoi spiegare come eliminare tutto grazie gentilissimo.
Ciao, prova così: apri il prompt dei comandi e digita: ollama rm "nome del modello"
come si fa a cancellare il download fatto con il terminale di 8 giga del modello non mi funziona
Apri il prompt dei comandi e digita: ollama rm "nome del modello"
Non funziona, non perdete tempo non ne vale la pena
Se funziona o meno dipende dal tuo pc.
C’ho un imac M1, 8 gb memoria - SSD 1 To - installazione Deepseek R1 riuscita perfettamente, versione 70b … faccio la domanda… dopo due giorni sto ancora aspettando la risposta
@@antonelloverri4127Mi sa tanto che quella versione è troppo grossa per il tuo Mac..