👉Docker Per Comuni Mortali: corsolinux.com/docker PS: Quello che si vede a 28:00 è OpenWebUI, una interfaccia web per Ollama, avevo dimenticato di menzionarlo!
i tuoi video sono sempre spettacolari, tuttavia Il problema di cui parli della rappresentazione delle mani è stato affrontato e risolto in diversi modelli di intelligenza artificiale. Inoltre nella versione GPT-4.o1 Preview, ChatGPT ha superato le difficoltà legate al conteggio delle lettere e ad altri aspetti del ragionamento logico. Poiché il tuo video è stato pubblicato solo 7 ore fa, mentre queste problematiche sono state risolte da mesi, ti suggerirei di aggiornarti alle ultime novità.
Questa episodio è stato eccezionale. Tutta roba che mi serviva. Purtroppo con gli LLM sono "a mollo" perché ho solo 2GB, ma per il resto devo assolutamente studiarci sopra. Congratulazioni per i tuoi 100.000 iscritti!!!
In realtà ci sono anche piccole LLM che stanno sotto i due giga, non sono decisamente granché, però se vuoi provare l'esperienza si trovano anche LLMs su HuggingFace!
Morro per favore fai un corso per il self hosting della propria ai, addestrabile con i propri dati e raggiungibile dall'esterno tramite internet! Mettete like per farglielo vedere?
Ragazzi, questo video è tipo il manuale definitivo per nerd d'assalto! Gatti in HD, sottotitoli magici e ora pure Shell GPT... mi hai rovinato il sonno, sappilo. Top come sempre, continua a sfornare chicche!
Come sempre eccezionale. Argomenti interessanti e ben descritti. Sarebbe bello se tu potessi postare i tuoi script da qualche parte. Grazie ancora per il tuo lavoro 💚
Grazie, con questo video mi hai fatto scoprire sia whisper che il fatto di aggiungere script personalizzati nel menù di Nautilus. Utilissimo. Sarebbe interessante un video su altri modelli da hostare in locale specifici per altre funzioni e che possibilmente girano su CPU
beh a tutto dire, anche il mio ex collega inventava cosa non sapeva, non conosceva la matematica, e parlava in Milanese con i clienti Francesi... sarà anche lui un LLM?
Un'analogia più accurata è che il numero di parametri di un modello LLM corrisponde al numero di sinapsi nel cervello, ovvero al numero di connessioni tra i neuroni, piuttosto che al numero di neuroni stessi. Questo perché i parametri rappresentano i pesi che definiscono le connessioni tra le unità nel modello, analogamente a come le sinapsi modulano la comunicazione tra neuroni nel cervello
ho appena smanettato con whisper.cpp (versione cpp di whisper, duh), ci ho sbattuto dentro 300 ore di audio ed è veramente incredibile quanto poco ci abbia messo relativamente (5 orette in totale), e il risultato: semplicemente perfetto (podcast in cui parlano in italiano/inglese, spesso mixati). tutto in locale runnato sulla mia modesta gpu (rtx 2060).
Se hai almeno 4giga di vram, ti consiglio di dare un occhio a insanely-fast-whisper usando il dataset large-v2 (più accurato sebbene poco più lento del v3).
Ciao morro, Puoi fare un video dove utilizzi stregatto o altri agenti collegato a LLM migliori per la generazione di codice. In questa maniera l’agente confronta l’output da diversi LLM e magari fornisce un output più completo e esaustivo.
Eila, godibilissimo video! 40 minuti veramente fighi! Whisper è cio che cercavo per estrarre da alcuni video di amicimiei le battute della supercazzola😂! Se fai video approfonditi su whisper sarò in prima linea, nel frattempo lo usero per estrarre il testo da questo tuo video e segnarmi tutte le dritte che hai detto! Shellgpt invece è stato il primo tool che provai qualche mese dopo che uscii chatgpt 3, e tutt'ora lo uso proprio per ricordarmi alcuni comandi linux 😅! Poi ciliegina sulla torta l'astensione su vscode mooolto tattica. Un video pregno di dritte e spunti! Rock on 🤙
Ciao @Morrolinux. Complimenti per il bellissimo video, sarebbe fantastico se potessi fare un video per commentare l'app open-source flatpak Alpaca (una sorta di interfaccia grafica per LLMs installabile direttamente dal software manager), oppure un video dimostrativo di come aggiungere un interfaccia grafica per Ollama usando Docker. Continua così e ancora complimenti per l'ottimo lavoro.
Ottimo video... Ti suggerirei di provare anche Open Interpreter: in pratica e' un sysadmin gestito dall'AI: puoi configurarlo con la API di ChatGPT o con qualunque API compatible OpenAI quindi anche con Ollama, e ti fa roba tipo installare software, analizzare i logs per problemi, ottimizzare i parametri del kernel e tanta altra roba ancora... Non e' perfetto perche' ogni tanto si incanta e se lo usi disabilitando le conferme manuali quando ti tocca il sistema puo' essere pericoloso pero' e' fantastico, quantomeno da provare...
Bellissimo video..hai attraversato quasi tutti gli utilizzi delle Ai in locale e soprattutto trattato tanta roba con un linguaggio sempre abbordabile...Grazie !!PS ..sono un curioso con preparazione scientifica (laurea ingegneria)che si vuole approcciare a questo interessantissimo mondo ..ma quando parli di GPU ..intendi quello della scheda video del PC che adoperi? e quanto costano per avere delle perfomance medie ?
Con UVR ti consiglio di usare Ensemble mode Vocals/Instrumental selezionando i modelli 1_HP-UVR e UVR-MDX-NET Inst HQ 4. Dovrebbe dare un miglior risultato perché unisce i risultati dei due modelli
ottimo video, io uso spesso llama nella versione più light perchè gira abbastanza bene anche su CPU con buoni risultati. vorrei che provassi con lo stesso esempio Claude, per la programmazione è il migliore che io abbia provato (anche se so bene che è il più costoso sul mercato)
suggerisco di installare langflow o 8n8 e fare un prompt tuner che filtra la richiesta, passa il prompt migliorato rispettando le direttive a un pool di agenti coders (magari modelli diversi), un ultimo filtro raccoglie cio' che hanno generato i coders e le valuta e formatta ad hoc una risposta accurata e precisa. Anche con modelli piu piccoli (io uso 2xcpu e 128gb ram ddr4..insomma niente di che) escono fuori i numeri veri :) si puo' usar anche lo stesso modello come coder ma con temperature diverse per vedere approcci piu' o meno "creativi".
Per quanto riguarda la matematica e gli LLM, ho visto che ora chiedendo un calcolo a ChatGPT crea uno script python per calcolare il risultato e lo esegue, azzeccandoci al 99% e lasciandoti lo script per controllare. Però non so se sceglie python perchè io le chiedo spesso script python o perchè è hard-coded come linguaggio.
Un tool fighettoso utile per convertire pdf in formati "machine readable" è MinerU, l'output lo puoi dare poi in pasto per training o sintesi o quel che ti pare
Grande come sempre. Vorrei consigliarti di recensire come solo tu sai fare un software di nome cursor che praticamente è un fork di VScode con integrata l'AI e non solo.....pazzesco. Ciao
Mixtral (e molti altri modelli LLM) sarebbero impossibili da eseguire in gou consumer per motivi di spazio nella loro versione "base" (in genere FP16), ma in realtà si trovano facilmente delle versioni "quantized", che hanno performance leggermente inferiori ma occupano molto meno spazio. La versione 8x7b può arrivare anche a 15gb nella variante q2k, ad esempio. In genere il formato utilizzato è GGUF, e i modelli si possono usare con llama.cpp e derivati. (Tecnicamente anche Ollama) Sempre llama.cpp è poi in grado di eseguire un offlloading "misto" sfruttando il più possibile la vram, ma tenendo comunque parte del modello nella memoria ram di sistema. È un approccio ovviamente molto più lento, ma consente comunque di eseguire modelli grandi con performance ancora tuttosommato ragionevoli in contesti dove non sarebbe altrimenti possibile.
@@SimoneScanzoni Vero, anche se ollama al momento non usa ancora tutte le features offerte da llama.cpp, ad esempio non mi pare che venga utilizzata Vulkan, almeno per ora. È anche vero però che buona parte delle gpu moderne sono comunque già supportate attraverso cuda e hip
Ciao Morro! potresti anche fare un video sulla differenziazione di qwen:2.5, qwen:2.5-math, qwen:2.5-coder e qwen:2.5-instruct? (tutti 7b o come ti va meglio insomma)
Upscayl io lo uso sul mio laptop senza nessuna grafica dedicata, quindi penso proprio che funzioni anche in cpu, Ovviamente ci mette molto più tempo di quello che si vede nel tuo video.
6:16 quindi con Ultimate Vocal Remover UVR adesso posso da una qualsiasi canzone separare voce da strumentale, mettere la strumentale a 432HZ o meglio 431.8588, rimettere la voce, e non avere più quell'effetto "vocetta" se metto tutto a 432? Correct? Bellizzimo anche Whisper
wow, c'è tanta carne al fuoco in questo video, tanti strumenti utili da provare e da integrare; personalmente l'ultimo dell'integrazione di una IA nella shell non la proverei per ora, non per niente ma basta pochissimo un click in più su una richiesta non ben compresa e si rischia di dover formattare ahahahah
37:53 ma brave non era chromium based? Per usare brave allora tanto vale usare opera (con l’integrazione a lato di chat gpt) o edge (con l’integrazione di copilot) che per l’utilizzo di ai nei browser non penso siano molto diversi da quelli open source
Sarebbe molto interessante un approfondimento su whisper e su come utilizzare le sue API x integrarlo in un gestionale da me prodotto. Molto bene comunque
Io personalmente uso (non in locale) Perplexity per cose abbastanza banali, e usavo Claude per creare un programmino che "contasse" i km (in realtà pixel) fatti dal cursore del mouse con degli occhi che si muovevano al muoversi del cursore stesso. Sono arrivato a una soluzione decente ma che non mi aveva soddisfatto pienamente. Ci proverò di nuovo con qwen 2.5
Quando parli di "experts" ( caso Mixtral ad esempio) vuol dire che sono integrati engine specifici di calcolo o inferenziali che la I.A generalista pilota? Es. Per il calcolo ...Tipo una I.A che pilota MATLAB per dire?
Peccato non fosse possibile testare Claude 3.5, secondo me è una bomba anche per il coding se la cava alla grande. (poi ovviamente come hai detto c'è di meglio)
bellissimo video con il codice mi trovo bene anche con claude (meglio di gpt-o). quel che mi manca è un'AI da poter utilizzare come NotebookLM: ho un milione di pdf, odt, doc etc locali e devo proprio trovare un sistema per creare un motore di ricerca limitato ai files. fino ad oggi ho utilizzato elasticsearch che è bello performante ma ormai gli utenti vogliono chattare con LLM 😥
che cosa useresti per scrivere un programma strutturato e composto di piu moduli che possono essere scritti ogniuno in un linguaggio differente (C. C++. Rust,, etc) e che richieda che l'AI abbia una ottima conoscenza di leggi matematiche e fisiche ?
Cosa si puo' usare x tradurre video in lingua inglese direttamente in lingua italiana. Oppure per creare sottotitoli in italiano di video parlati in inglese ?
Ciao Morro, quale IA o LLM consiglieresti per attività di Project Management a 360 gradi? Ho sperimentato sia ChatGpt che Claude ma non sono soddisfatto dei risultati di output e spesso devo reiterare le risposte. Grazie!
Scusate come fa nell’ultima parte del video a eseguire il llm in localhost con OLLAMA e testare in contemporanea il server web sempre in localhost? Sta utilizzando porte diverse o utilizza alternativamente il server e il llm o non dovrebbero esserci dei problemi?
Tu sai, non te lo sto neanche a dire 😂 .... molto interessante sia come video che come tecnologia, l'unico problema che potrei sollevare, non di certo la paura per il posto di lavoro ma l'effetto invornito nel senso che ad usare troppo pesantemente questo genere di tecnologia si rischia di perdere la conoscenza base sulla cosa che si sta usando/facendo e/o anche il saper trovare una soluzione con le proprie forze, es. chi sa piu parcheggiare una macchina che non abbia almeno 20 sensori !?!, ed in ultimo che fioriscano come funghi i programmatori dell'ultima ora !!!
Ciao Morrolinux, O1-preview ha superato abbastanza bene il problema di saper contare i caratteri. Difficilmente sbaglia. Es. Da quanti caratteri è formata questa frase? ChatGPT Thought per 9 secondi La frase "Da quanti caratteri è formata questa frase?" è composta da: 43 caratteri contando gli spazi. 37 caratteri escludendo gli spazi.
Super interessante. MI piacerebbe evitare copilot su Vs code e Visual Studio che uso praticamente solo come autocomplete e per qualche metodino semplice da scrivere al volo. Cosa suggerisci? Ho installato Ollama ma mi funziona tutto da shell (Windows) Come abilito quell'interfaccia web con tutti i modelli scaricati? Grazie ;)
@@morrolinux grazie. Ho provato QWEN 14b e mi sembra ostico e poco propenso a generare codice. Secondo te qual'è il modello (max 16gb) da usare per la programmazione?
Ciao, io sono molto ignorante e mi ha affascinato molto la prima parte in cui la foto diventava più nitida, è possibile fare la stessa cosa con dei video?
Sarebbe interessante spiegare come creare gli script che trasformano il file di testo in file per sottotitoli e lo script batch per automatizzare le operazioni
Io per esempio studiando fisica all'uni, faccio un sacco di domande a chatGPT, quello pagato, tendenzialmente sul mio corso di studi. Sapete se c'è qualche LM verticale sul campo accademico scientifico, o direttamente sulla fisica?
Gli LLM hanno ancora difficoltà con compiti simbolici, come contare il numero di occorrenze di una lettera in una parola, perché non comprendono direttamente il significato intrinseco di parole o frasi, operando invece su rappresentazioni basate su token. Questo approccio riduce la complessità del vocabolario e ottimizza la gestione dello spazio latente, ma può introdurre limitazioni nel preservare alcune relazioni semantiche o logiche specifiche
penso sia molto interessante anche la parte precedente, come installare il software per farlo girare su cpu/gpu/npu (npu non ho idea se sia gia possiible) e la compatibilita con il vario hardware intel, amd e nvidia. siamo la parte piu sistemistica
Ciao Morro. Per favore, potresti fare una guida su come istallare UVR su linux? Ho seguito la guida su github ma non c'è stato verso di istallarlo. Tutte le volte mi tocca avviare win per utilizzarlo . Grazie!
Qwen 2.5 è un modello generalista, Qwen 2.5 Coder è quello specifico per il codice. Quindi hai dimostrato che modelli generalisti open source piccoli a volte possono fare meglio di ChatGPT 💣
👉Docker Per Comuni Mortali: corsolinux.com/docker
PS: Quello che si vede a 28:00 è OpenWebUI, una interfaccia web per Ollama, avevo dimenticato di menzionarlo!
i tuoi video sono sempre spettacolari, tuttavia Il problema di cui parli della rappresentazione delle mani è stato affrontato e risolto in diversi modelli di intelligenza artificiale. Inoltre nella versione GPT-4.o1 Preview, ChatGPT ha superato le difficoltà legate al conteggio delle lettere e ad altri aspetti del ragionamento logico. Poiché il tuo video è stato pubblicato solo 7 ore fa, mentre queste problematiche sono state risolte da mesi, ti suggerirei di aggiornarti alle ultime novità.
Grazie Morro, stavo impazzendo per il web ahahah
Questa episodio è stato eccezionale. Tutta roba che mi serviva. Purtroppo con gli LLM sono "a mollo" perché ho solo 2GB, ma per il resto devo assolutamente studiarci sopra. Congratulazioni per i tuoi 100.000 iscritti!!!
In realtà ci sono anche piccole LLM che stanno sotto i due giga, non sono decisamente granché, però se vuoi provare l'esperienza si trovano anche LLMs su HuggingFace!
Morro per favore fai un corso per il self hosting della propria ai, addestrabile con i propri dati e raggiungibile dall'esterno tramite internet!
Mettete like per farglielo vedere?
+1
Addestrarla e' impossibile, puoi estendere una gia' addestrata con i tuoi dati pero'.
-1
Hai 10000 GPU A100 o equivalenti? Se non le hai, non ti serve questo corso.
Pure il caffè vuoi?
Ragazzi, questo video è tipo il manuale definitivo per nerd d'assalto! Gatti in HD, sottotitoli magici e ora pure Shell GPT... mi hai rovinato il sonno, sappilo. Top come sempre, continua a sfornare chicche!
Mai visti video più interessanti di questo professionista. Complimenti e grazie per la tua divulgazione.
Grazie per aver portato a galla il 10%!
Probabilmente ho coperto al massimo il 5%, ci sono ancora tanti progetti interessanti che vorrei approfondire!
@@morrolinux beh bene! attendiamo fiduciosi i nuovi videi!
Grazie per questo lavoro mastodontico! P.s i capelli i del vecchio video su ChatGPT erano top 😁
Quanta qualità in questi video. Le chicca finale in bash top
complimenti per i 100k!!❤❤
Auguri per i 100.000 iscritti Morro!!!!
Come sempre eccezionale. Argomenti interessanti e ben descritti. Sarebbe bello se tu potessi postare i tuoi script da qualche parte.
Grazie ancora per il tuo lavoro 💚
Grazie, con questo video mi hai fatto scoprire sia whisper che il fatto di aggiungere script personalizzati nel menù di Nautilus. Utilissimo. Sarebbe interessante un video su altri modelli da hostare in locale specifici per altre funzioni e che possibilmente girano su CPU
beh a tutto dire,
anche il mio ex collega inventava cosa non sapeva,
non conosceva la matematica,
e parlava in Milanese con i clienti Francesi...
sarà anche lui un LLM?
🤣🤣🤣
AHAHAHHAH
Sempre aggiornato grande comunque le soluzioni open source fanno miracoli a volte
Un'analogia più accurata è che il numero di parametri di un modello LLM corrisponde al numero di sinapsi nel cervello, ovvero al numero di connessioni tra i neuroni, piuttosto che al numero di neuroni stessi. Questo perché i parametri rappresentano i pesi che definiscono le connessioni tra le unità nel modello, analogamente a come le sinapsi modulano la comunicazione tra neuroni nel cervello
ho appena smanettato con whisper.cpp (versione cpp di whisper, duh), ci ho sbattuto dentro 300 ore di audio ed è veramente incredibile quanto poco ci abbia messo relativamente (5 orette in totale), e il risultato: semplicemente perfetto (podcast in cui parlano in italiano/inglese, spesso mixati). tutto in locale runnato sulla mia modesta gpu (rtx 2060).
Se hai almeno 4giga di vram, ti consiglio di dare un occhio a insanely-fast-whisper usando il dataset large-v2 (più accurato sebbene poco più lento del v3).
Ma whisper è utilizzabile anche tramite cpu?
Si, ma estremamente più lento.
Whisper l'ho utilizzato per crearmi un file .srt edibile da VLC per un anime per il quale non trovavo i sottotitoli ❤
@@shrekkkkkkkkkkkkkkkk grazie non lo sapevo
Ciao morro, Puoi fare un video dove utilizzi stregatto o altri agenti collegato a LLM migliori per la generazione di codice. In questa maniera l’agente confronta l’output da diversi LLM e magari fornisce un output più completo e esaustivo.
Ma che dire Morro sei il numero 1. Video pazzesco
Cercavo giusto giusto i giocattoli per il prossimo weekend, grazie Morro
Complimenti, sei sempre professionale 💪
Davvero complimenti per il video!
Auguri per i 100mila iscritti morro
Eila, godibilissimo video! 40 minuti veramente fighi! Whisper è cio che cercavo per estrarre da alcuni video di amicimiei le battute della supercazzola😂! Se fai video approfonditi su whisper sarò in prima linea, nel frattempo lo usero per estrarre il testo da questo tuo video e segnarmi tutte le dritte che hai detto! Shellgpt invece è stato il primo tool che provai qualche mese dopo che uscii chatgpt 3, e tutt'ora lo uso proprio per ricordarmi alcuni comandi linux 😅! Poi ciliegina sulla torta l'astensione su vscode mooolto tattica. Un video pregno di dritte e spunti! Rock on 🤙
Ciao Morro il qwen che hai usato è il generico non il verticale sul codice. Quello è qwen-coder
Ciao @Morrolinux. Complimenti per il bellissimo video, sarebbe fantastico se potessi fare un video per commentare l'app open-source flatpak Alpaca (una sorta di interfaccia grafica per LLMs installabile direttamente dal software manager), oppure un video dimostrativo di come aggiungere un interfaccia grafica per Ollama usando Docker. Continua così e ancora complimenti per l'ottimo lavoro.
I Gazebo Penguins random su un video di morrolinux, bellissimo.
Molto utili i tool, ne sto provando qualcuno, grazie mille!
I video che ti stravolgono la giornata 😅
Ottimo video... Ti suggerirei di provare anche Open Interpreter: in pratica e' un sysadmin gestito dall'AI: puoi configurarlo con la API di ChatGPT o con qualunque API compatible OpenAI quindi anche con Ollama, e ti fa roba tipo installare software, analizzare i logs per problemi, ottimizzare i parametri del kernel e tanta altra roba ancora... Non e' perfetto perche' ogni tanto si incanta e se lo usi disabilitando le conferme manuali quando ti tocca il sistema puo' essere pericoloso pero' e' fantastico, quantomeno da provare...
Bellissimo video..hai attraversato quasi tutti gli utilizzi delle Ai in locale e soprattutto trattato tanta roba con un linguaggio sempre abbordabile...Grazie !!PS ..sono un curioso con preparazione scientifica (laurea ingegneria)che si vuole approcciare a questo interessantissimo mondo ..ma quando parli di GPU ..intendi quello della scheda video del PC che adoperi? e quanto costano per avere delle perfomance medie ?
Con UVR ti consiglio di usare Ensemble mode Vocals/Instrumental selezionando i modelli 1_HP-UVR e UVR-MDX-NET Inst HQ 4.
Dovrebbe dare un miglior risultato perché unisce i risultati dei due modelli
Grande Moreno, video strepitoso! grazie ;-)
mi hai fatto esplodere il cervello di idee! finalmente ho trovato l'utilizzo per la quadro che abbiamo nel thinkpad aziendale 😂
Bel video con argomenti interessanti !!
Video utilissimo, complimenti
Gran video! Grande Morro
ottimo video, io uso spesso llama nella versione più light perchè gira abbastanza bene anche su CPU con buoni risultati. vorrei che provassi con lo stesso esempio Claude, per la programmazione è il migliore che io abbia provato (anche se so bene che è il più costoso sul mercato)
WOW grazie , mi hai aperto un mondo
suggerisco di installare langflow o 8n8 e fare un prompt tuner che filtra la richiesta, passa il prompt migliorato rispettando le direttive a un pool di agenti coders (magari modelli diversi), un ultimo filtro raccoglie cio' che hanno generato i coders e le valuta e formatta ad hoc una risposta accurata e precisa. Anche con modelli piu piccoli (io uso 2xcpu e 128gb ram ddr4..insomma niente di che) escono fuori i numeri veri :) si puo' usar anche lo stesso modello come coder ma con temperature diverse per vedere approcci piu' o meno "creativi".
Hai parlato pure poco, sarei stato ancora delle ore a vedere e capire quello che conosci ❤
Ciao ottimi video, quando puoi faresti un video sullo Stregatto il progetto di agent per AI tutto italiano?
Un video approfondito per ogni ai open source
6:41 gran pezzo 👌
Per quanto riguarda la matematica e gli LLM, ho visto che ora chiedendo un calcolo a ChatGPT crea uno script python per calcolare il risultato e lo esegue, azzeccandoci al 99% e lasciandoti lo script per controllare. Però non so se sceglie python perchè io le chiedo spesso script python o perchè è hard-coded come linguaggio.
Grande lavoro 🙏
Bellissimo! Grazie mille ❤
Un tool fighettoso utile per convertire pdf in formati "machine readable" è MinerU, l'output lo puoi dare poi in pasto per training o sintesi o quel che ti pare
video molto interessante e ben fatto!
Grande come sempre. Vorrei consigliarti di recensire come solo tu sai fare un software di nome cursor che praticamente è un fork di VScode con integrata l'AI e non solo.....pazzesco. Ciao
Mixtral (e molti altri modelli LLM) sarebbero impossibili da eseguire in gou consumer per motivi di spazio nella loro versione "base" (in genere FP16), ma in realtà si trovano facilmente delle versioni "quantized", che hanno performance leggermente inferiori ma occupano molto meno spazio.
La versione 8x7b può arrivare anche a 15gb nella variante q2k, ad esempio. In genere il formato utilizzato è GGUF, e i modelli si possono usare con llama.cpp e derivati. (Tecnicamente anche Ollama)
Sempre llama.cpp è poi in grado di eseguire un offlloading "misto" sfruttando il più possibile la vram, ma tenendo comunque parte del modello nella memoria ram di sistema. È un approccio ovviamente molto più lento, ma consente comunque di eseguire modelli grandi con performance ancora tuttosommato ragionevoli in contesti dove non sarebbe altrimenti possibile.
Anche Ollama (che usa llama.cpp) può eseguire modelli distribuendo i layers tra GPU e CPU
@@SimoneScanzoni Vero, anche se ollama al momento non usa ancora tutte le features offerte da llama.cpp, ad esempio non mi pare che venga utilizzata Vulkan, almeno per ora.
È anche vero però che buona parte delle gpu moderne sono comunque già supportate attraverso cuda e hip
Ciao Morro! potresti anche fare un video sulla differenziazione di qwen:2.5, qwen:2.5-math, qwen:2.5-coder e qwen:2.5-instruct? (tutti 7b o come ti va meglio insomma)
Upscayl io lo uso sul mio laptop senza nessuna grafica dedicata, quindi penso proprio che funzioni anche in cpu,
Ovviamente ci mette molto più tempo di quello che si vede nel tuo video.
Sono un programmatore. Se credevi di spaventarmi... ci sei riuscito.
Fantastico ! Video Incredibilmente utile, ma posso usare ollama o Llama CPP con apple Silicon ? Mi interessa molto per VSCode
6:16 quindi con Ultimate Vocal Remover UVR adesso posso da una qualsiasi canzone separare voce da strumentale, mettere la strumentale a 432HZ o meglio 431.8588, rimettere la voce, e non avere più quell'effetto "vocetta" se metto tutto a 432? Correct? Bellizzimo anche Whisper
wow, c'è tanta carne al fuoco in questo video, tanti strumenti utili da provare e da integrare; personalmente l'ultimo dell'integrazione di una IA nella shell non la proverei per ora, non per niente ma basta pochissimo un click in più su una richiesta non ben compresa e si rischia di dover formattare ahahahah
37:53 ma brave non era chromium based? Per usare brave allora tanto vale usare opera (con l’integrazione a lato di chat gpt) o edge (con l’integrazione di copilot) che per l’utilizzo di ai nei browser non penso siano molto diversi da quelli open source
gran video, sarebbe bello se ne facessi una rubrica periodica
Sarebbe molto interessante un approfondimento su whisper e su come utilizzare le sue API x integrarlo in un gestionale da me prodotto. Molto bene comunque
Video assurdo ed utilissimo!
Sei un pozzo di informazioni
Video meraviglioso, grazie
Io personalmente uso (non in locale) Perplexity per cose abbastanza banali, e usavo Claude per creare un programmino che "contasse" i km (in realtà pixel) fatti dal cursore del mouse con degli occhi che si muovevano al muoversi del cursore stesso. Sono arrivato a una soluzione decente ma che non mi aveva soddisfatto pienamente. Ci proverò di nuovo con qwen 2.5
Quando parli di "experts" ( caso Mixtral ad esempio) vuol dire che sono integrati engine specifici di calcolo o inferenziali che la I.A generalista pilota? Es. Per il calcolo ...Tipo una I.A che pilota MATLAB per dire?
Peccato non fosse possibile testare Claude 3.5, secondo me è una bomba anche per il coding se la cava alla grande. (poi ovviamente come hai detto c'è di meglio)
bellissimo video
con il codice mi trovo bene anche con claude (meglio di gpt-o).
quel che mi manca è un'AI da poter utilizzare come NotebookLM: ho un milione di pdf, odt, doc etc locali e devo proprio trovare un sistema per creare un motore di ricerca limitato ai files.
fino ad oggi ho utilizzato elasticsearch che è bello performante ma ormai gli utenti vogliono chattare con LLM 😥
e l'utilizzo dei RAG? al momento mi sembra abbastanza interessante come possibilità
Coming soon!
grande, sarebbe interessante un approfondimento su whisper..
Ciao morro. Bel video, ma non ho potuto far a meno di notare il tuo browser. Che browser è questo?
Con whisper ci sbobino tutte le lezioni universitarie
che cosa useresti per scrivere un programma strutturato e composto di piu moduli che possono essere scritti ogniuno in un linguaggio differente (C. C++. Rust,, etc) e che richieda che l'AI abbia una ottima conoscenza di leggi matematiche e fisiche ?
Cosa si puo' usare x tradurre video in lingua inglese direttamente in lingua italiana. Oppure per creare sottotitoli in italiano di video parlati in inglese ?
Whisper
@@simonedisalvatore6832 : ci avevo provato qualche anno fa,ma mi ero accorto che la qualita' della traduzione non era un granche'...
@@ZioMarietto dipende da che modello usi ( di default usa quello piccolo) , io usavo quello medio ed andava bene
@@simonedisalvatore6832 : io ho una RTX 2080 ti con 12 GB di memoria...che modello posso prendere ?
@@ZioMarietto a me girava su un ryzen 5 5600x, quindi vai tranquillo. Penso che puoi far girare qualsiasi modello
Ciao Morro, quale IA o LLM consiglieresti per attività di Project Management a 360 gradi?
Ho sperimentato sia ChatGpt che Claude ma non sono soddisfatto dei risultati di output e spesso devo reiterare le risposte. Grazie!
Gran video!!!
ho scaricato Qwen 2.5, lo installato, clicco sull'icona ma non si apre, mi puoi risolvere per favore?
Scusate come fa nell’ultima parte del video a eseguire il llm in localhost con OLLAMA e testare in contemporanea il server web sempre in localhost? Sta utilizzando porte diverse o utilizza alternativamente il server e il llm o non dovrebbero esserci dei problemi?
Porte diverse chiaramente :)
Chiaro grazie mille, non pensavo si potesse fare
Conosci Anything LLM ? È un tool che integra anche un database vettoriale al suo interno. Ieri ho parlato con un PDF !!
qualcosa per fare ocr di tabelle?
cmq complimenti per il video davvero interessante
Trovo molto interessante Anything LLM. Embedda e fornisce delle api general purpose niente male. Si integra quasi con tutto.
Ti sei perso ComfyUI o stable diffusion
Top video 🎉
Cosa cambia tra LM Studio e Ollama? Quale dei due è migliore?
Iscrizione effettuata
La vera chicca del video sono i Gazebo Penguins
Ottimo video grazie
Tu sai, non te lo sto neanche a dire 😂 .... molto interessante sia come video che come tecnologia, l'unico problema che potrei sollevare, non di certo la paura per il posto di lavoro ma l'effetto invornito nel senso che ad usare troppo pesantemente questo genere di tecnologia si rischia di perdere la conoscenza base sulla cosa che si sta usando/facendo e/o anche il saper trovare una soluzione con le proprie forze, es. chi sa piu parcheggiare una macchina che non abbia almeno 20 sensori !?!, ed in ultimo che fioriscano come funghi i programmatori dell'ultima ora !!!
Totalmente d'accordo
Ciao Morrolinux,
O1-preview ha superato abbastanza bene il problema di saper contare i caratteri. Difficilmente sbaglia.
Es.
Da quanti caratteri è formata questa frase?
ChatGPT
Thought per 9 secondi
La frase "Da quanti caratteri è formata questa frase?" è composta da:
43 caratteri contando gli spazi.
37 caratteri escludendo gli spazi.
è multi agent
Super interessante. MI piacerebbe evitare copilot su Vs code e Visual Studio che uso praticamente solo come autocomplete e per qualche metodino semplice da scrivere al volo. Cosa suggerisci? Ho installato Ollama ma mi funziona tutto da shell (Windows) Come abilito quell'interfaccia web con tutti i modelli scaricati? Grazie ;)
OpenWebUI :)
@@morrolinux grazie. Ho provato QWEN 14b e mi sembra ostico e poco propenso a generare codice. Secondo te qual'è il modello (max 16gb) da usare per la programmazione?
Ciao, io sono molto ignorante e mi ha affascinato molto la prima parte in cui la foto diventava più nitida, è possibile fare la stessa cosa con dei video?
Video top !
sei una miniera di softwares interessanti, sono i video trovo piu utili
Puoi approfondire il discorso di Whisper? Grazie
Sarebbe interessante spiegare come creare gli script che trasformano il file di testo in file per sottotitoli e lo script batch per automatizzare le operazioni
Io per esempio studiando fisica all'uni, faccio un sacco di domande a chatGPT, quello pagato, tendenzialmente sul mio corso di studi. Sapete se c'è qualche LM verticale sul campo accademico scientifico, o direttamente sulla fisica?
Prova a fare RAG.
Fai una prova con NotebookLM dandogli in input il materiale di studio.
Se funziona forse ti conviene puntare in quella direzione.
Gli LLM hanno ancora difficoltà con compiti simbolici, come contare il numero di occorrenze di una lettera in una parola, perché non comprendono direttamente il significato intrinseco di parole o frasi, operando invece su rappresentazioni basate su token. Questo approccio riduce la complessità del vocabolario e ottimizza la gestione dello spazio latente, ma può introdurre limitazioni nel preservare alcune relazioni semantiche o logiche specifiche
penso sia molto interessante anche la parte precedente, come installare il software per farlo girare su cpu/gpu/npu (npu non ho idea se sia gia possiible) e la compatibilita con il vario hardware intel, amd e nvidia. siamo la parte piu sistemistica
Ciao Morro. Per favore, potresti fare una guida su come istallare UVR su linux? Ho seguito la guida su github ma non c'è stato verso di istallarlo. Tutte le volte mi tocca avviare win per utilizzarlo . Grazie!
Shell gpt fantastico 🎉
Qwen 2.5 è un modello generalista, Qwen 2.5 Coder è quello specifico per il codice. Quindi hai dimostrato che modelli generalisti open source piccoli a volte possono fare meglio di ChatGPT 💣
Nooooo sei venuto a Dozza haahahah io ci abito se ripassi fammi un fischio che ti offro volentieri un caffè 😊
Cursor >> continue