Ci sono riuscito! Ottime e chiare istruzioni anche per un non esperto come me. Sono partito dall'inizio ed ho installato Ollama e sono arrivato fino a fare girare in locale il tutto. Devo studiare meglio Colab, che mi ha creato i maggiori problemi. Grazie Simone!!
@@simone_rizzo98 😉 Grazie a te per l'ottima guida. Faccio notare a tutti quelli che ci proveranno, che servirebbero oltre 6gb liberi sul Google Drive. Nell'account che ho usato per Colab non li avevo e quindi ho salvato manualmente sul pc i due file menzionati "Modelfil" (da editare come indicato nel video) e unsloth.F16.gguf (di circa 6gb che con calma verrà scaricato in locale). In ogni caso tutto liscio fino a "Esporto in GGUF per Ollama" e ottime istruzioni!!
Il 18 faccio una lezione sull'AI per degli studenti della triennale. Metterò il tuo video tra le risorse come esempio per il training di un AI. Va bene come uso?
Non si fanno queste cose... Video di sabato sera... Io sono seduto al ristorante tanti invitati e mi fai venire la "scimmia" di programmazione.😅. Non vedo l'ora di testare... Grazie
@@simone_rizzo98 Non so se hai sentito parlare di BrainGPT: si tratta di un LLM addestrato sulla letteratura scientifica nel campo delle neuroscienze. Hanno anche pubblicato un articolo recentemente, su Nature, intitolato "Large language models surpass human experts in predicting neuroscience results". In sostanza, è un LLM pensato per supportare la ricerca nelle neuroscienze. Io lavoro in campo delle neuroscienze e non vedo l'ora di testarlo.
ni, l'ho preso da una lista più grande di prompt per flux e con un prompt specifico ho fatto scrivere laparte a sinistra semplificata in modo da avere i due prompt: quello dell'utente e quello risultante per flux.
Wow lo aspettavo questo video. Grazie. Volevo chiederti se dopo l'addestramento, a parte il RAG anche quello molto interessante, se si può far in modo che il modello "impari" da ogni interazione con l'utente attraverso i prompt?
Questo purtroppo non si può fare poiché troppo costoso addestrarlo ad ogni nuovo messaggio. Questo che vuoi fare te si chiama Continual Learning e gli llm non sono adatti a questo
Buongiorno e grazie moltissimo per i tuoi contributi. Non vedo l'ora di provare a replicare quello che hai fatto. Una curiosità : per fare questo tipo di lavoro è sempre conveniente appoggiarsi a servizi che offrono gratuitamente schede per l'elaborazione o in alcuni casi potrebbe essere conveniente costruirsi un pc con una Nvidia adeguata? Grazie
Conviene sempre utilizzare servizi che offrono la computazione di GPU che siano gratuite come Colab o a pagamento come RunPod per poi scaricare il modello es utilizzarlo
Molto bello e interessante, ma se al posto di avere domanda e risposta da fare il training, ho dei PDF, mail o note generiche di Obsidian, come li trasformo in un dataset per LLama?
Gran bel video complimenti. Sarebbe interessante un video sui data set. Dove trovarli....Come crearli.... buona domenica a tutti
Va bene posso prepararne uno!
@simone_rizzo98 grandioso! Grazie mille
Grazie mille Simone, lo proverò sicuramente!
Ci sono riuscito! Ottime e chiare istruzioni anche per un non esperto come me. Sono partito dall'inizio ed ho installato Ollama e sono arrivato fino a fare girare in locale il tutto.
Devo studiare meglio Colab, che mi ha creato i maggiori problemi. Grazie Simone!!
Grande Stefano! Evvaii aspettavo un commento del genere di qualcuno che effettivamente provasse tutto il flusso!
@@simone_rizzo98 😉 Grazie a te per l'ottima guida. Faccio notare a tutti quelli che ci proveranno, che servirebbero oltre 6gb liberi sul Google Drive. Nell'account che ho usato per Colab non li avevo e quindi ho salvato manualmente sul pc i due file menzionati "Modelfil" (da editare come indicato nel video) e unsloth.F16.gguf (di circa 6gb che con calma verrà scaricato in locale). In ogni caso tutto liscio fino a "Esporto in GGUF per Ollama" e ottime istruzioni!!
grazie, molto interessante e pratico, dritto al punto senza fronzoli
Esattamente non voglio farvi perdere tempo, solo informazioni di alta qualità!
bravo un bel video per dare un'idea concreta del lavoro che c'è dietro questa tecnologia
Esattamente ma soprattutto che la parte principale è la preparazione del dataset, i dati sono tutto!
Finalmente qualcosa di super concreto e nuovo... bravo davvero.
Solo fatti! Fanne buon uso🙌
Video utilissimo. Complimenti Simone!
Un gran bel video e soprattutto concreto. Complimenti.
Solo fatti ✅
Grazie tantissime, video utile e semplice, E poi grazie per lo script!
Di nulla, fanne buon uso!
Il 18 faccio una lezione sull'AI per degli studenti della triennale. Metterò il tuo video tra le risorse come esempio per il training di un AI. Va bene come uso?
Top, adoro, top, adoro🙏❤️💪👏
🙏🏼
Ottimo video informativo!
grazie, sono contento che ti sia piaciuto!
Grande, molto prezioso, grazie
Prego di nulla!
Sei bravissimo. Complimenti. Nuovo iscritto :)
Grazie e benvenuto 🙌
Video utilissimo!
Fatene buon uso!
Il video che cercavo 😭
Non si fanno queste cose... Video di sabato sera... Io sono seduto al ristorante tanti invitati e mi fai venire la "scimmia" di programmazione.😅. Non vedo l'ora di testare... Grazie
Ahahaha ops fantastico questo commento Alessandro, Buona cena !
SUPERRR!!! Grazie!!!
Pregoo fanne buon uso!
@@simone_rizzo98 Non so se hai sentito parlare di BrainGPT: si tratta di un LLM addestrato sulla letteratura scientifica nel campo delle neuroscienze. Hanno anche pubblicato un articolo recentemente, su Nature, intitolato "Large language models surpass human experts in predicting neuroscience results". In sostanza, è un LLM pensato per supportare la ricerca nelle neuroscienze. Io lavoro in campo delle neuroscienze e non vedo l'ora di testarlo.
Simone, sei sempre il migliore. Una domanda. Il dataset con cui hai addestrato il modello, l’hai creato manualmente?
ni, l'ho preso da una lista più grande di prompt per flux e con un prompt specifico ho fatto scrivere laparte a sinistra semplificata in modo da avere i due prompt: quello dell'utente e quello risultante per flux.
Wow lo aspettavo questo video. Grazie. Volevo chiederti se dopo l'addestramento, a parte il RAG anche quello molto interessante, se si può far in modo che il modello "impari" da ogni interazione con l'utente attraverso i prompt?
Questo purtroppo non si può fare poiché troppo costoso addestrarlo ad ogni nuovo messaggio. Questo che vuoi fare te si chiama Continual Learning e gli llm non sono adatti a questo
Ok, capito. Gentilissimo 😊
grazie Simone, bel video !! Mangari un giorno si potrebbe collaborare
Complimenti, gran bel video didattico e molto esplicativo!
Una curiosità: su che hardware hai fatto girare ollama?
Grazie, l’ho fatto girare solo su CPU Intel i7-7700k
@@simone_rizzo98 Un i7 di settima generazione ??? Diciamo 7 anni fa, corretto ?
Grandeeeee
Ciao, complimenti per il video. Ho una domanda: come si fa a capire la grandezza ottimale del dataset per effettuare un buon finetuning?
Buongiorno e grazie moltissimo per i tuoi contributi. Non vedo l'ora di provare a replicare quello che hai fatto.
Una curiosità :
per fare questo tipo di lavoro è sempre conveniente appoggiarsi a servizi che offrono gratuitamente schede per l'elaborazione o in alcuni casi potrebbe essere conveniente costruirsi un pc con una Nvidia adeguata? Grazie
Conviene sempre utilizzare servizi che offrono la computazione di GPU che siano gratuite come Colab o a pagamento come RunPod per poi scaricare il modello es utilizzarlo
Questo è il fine tuning?
Esattamente il famoso finetuning 🙌
Molto bello e interessante, ma se al posto di avere domanda e risposta da fare il training, ho dei PDF, mail o note generiche di Obsidian, come li trasformo in un dataset per LLama?
In quel caso devi costruirti il dataset con domande e risposte e per farlo puoi usare un’altra AI
Mi sembra un'attività per AI Engineer, non alla portata di tutti. E poi come si crea un dataset?
Sì devi saper almeno programma in Python, il dataset puoi crearlo in modo sintetico usando un AI ed i documenti che desideri
Top🔥
Avanti tutta!! Ad un mondo migliore con l’IA
Toma tu Like buon uomo 😂
grazie uomo!