Come utilizzare le AI Generative in Locale su PC: LM Studio, Ollama e modelli Open Source

Поделиться
HTML-код
  • Опубликовано: 14 окт 2024

Комментарии • 20

  • @dataproject4199
    @dataproject4199 14 дней назад

    Grazie molte. Con 8Gb in Windows del mio pc girano pochi modelli. Secondo te c'è un modello che risponda bene come NotebookLM per interrogare dei documenti? Anche con più RAM ovviamente.

    • @LoreCloud
      @LoreCloud  13 дней назад

      Ciao Dataproject! Grazie mille davvero per la donazione, super apprezzata 🙏🙏
      Non so dirti un modello simile alle funzioni di NotebookLM,che è molto di nicchia, ma l'idea alla base è che non è facile replicare in locale quello che fanno le più grosse webapp, come NotebookLM, ChatGPT, Copilot, Claude, ecc.
      Io uso sempre le webapp disponibili online (se necessario pagandole), per le AI in locale ci sono ancora troppi vincoli hardware per la stragrande maggioranza degli utenti , a mio avviso :)
      Grazie ancora Dataproject, un saluto e a presto! 🚀

  • @dataproject4199
    @dataproject4199 2 месяца назад

    Ciao Lore, bel video molto interessante. Potresti indicarci i requisiti minimi oppure consigliati come hardware e GPU per utilizzare Ollama con un modello come Llama 3.1 o Phi 3, modelli da 8M oppure superiori? grazie in anticipo

    • @LoreCloud
      @LoreCloud  Месяц назад

      Ciao DataProject! 👋😃 Grazie mille, sono contento che il video ti sia piaciuto!
      Per quanto riguarda i requisiti hardware per utilizzare Ollama con modelli come Llama 3.1 o Phi 3, ecco una panoramica:
      💻 Requisiti Minimi
      CPU: Processore multi-core (almeno 4 core) con una buona frequenza (minimo 2.5 GHz).
      RAM: 16 GB (può essere sufficiente per modelli più piccoli, ma potresti sperimentare rallentamenti).
      GPU: GPU con almeno 8 GB di VRAM (ad esempio, una NVIDIA GTX 1070 o superiore).
      I requisiti consigliati ti direi che puoi usare quelli sopra raddoppiando il valore in RAM (32 GB) e GPU (16 GB).
      Un abbraccio e a presto qui sul canale my friend! 🚀

  • @nicolomonarca3548
    @nicolomonarca3548 Месяц назад +1

    ottimo ottimo ottimo... tutto chiarissimo (Y)

    • @LoreCloud
      @LoreCloud  Месяц назад

      Mi fa piacere, grazie mille Nicolò 🚀🚀

  • @gianlucaiemma4863
    @gianlucaiemma4863 2 месяца назад

    molto chiaro e preparato.bravo

    • @LoreCloud
      @LoreCloud  2 месяца назад

      Grazie mille Gianluca, feedback super apprezzato 🙏🚀

  • @bigjohnchannel7378
    @bigjohnchannel7378 3 месяца назад +1

    🎉🎉🎉

  • @Omar-zq4wx
    @Omar-zq4wx 3 месяца назад

    Ma per quale motivo hai bisogno di docker, se poi installi il tuo modello privato all’interno della tua macchina invece che all’interno di un’immagine docker?

    • @LoreCloud
      @LoreCloud  3 месяца назад

      Ciao Omar! Docker è fondamentale per far funzionare Ollama su Open WebUI 👍

    • @Omar-zq4wx
      @Omar-zq4wx 3 месяца назад

      @@LoreCloud ahh ok, mi ero perso questa parte. E scusami, perché allora non fare tutto su docker? Cioè installare all’interno dell’immagine docker anche il modellino invece che installarlo in locale?

    • @LoreCloud
      @LoreCloud  3 месяца назад

      Perchè è necessario utilizzare un interfaccia per utilizzare i modelli di Ollama su Docker, in questo caso appunto quella di Open WebUI 😉

  • @sabrinagualco1003
    @sabrinagualco1003 4 месяца назад

    Favoloso! Ho fatto installazione, ma continua ad entrare in gioco l'antivirus che mi minaccia! Adesso l' ho disinstallato per tranquillità. Che cosa ne pensi?

    • @LoreCloud
      @LoreCloud  4 месяца назад

      Ciao Sabrina! 😀 Immagino dipenda dall'antivirus, io ad esempio non ho ricevuto nessun avviso con avast versione gratuita 😅 potresti provare ad escludere la minaccia dal settings del tuo antivirus, e poi provare a riattivarlo 👍

    • @sabrinagualco1003
      @sabrinagualco1003 4 месяца назад

      @@LoreCloud provo su un altro computer e vedo. Comunque mi lascia lavorare…ma continua ad uscire la finestra con minaccia.

  • @matteobaccan
    @matteobaccan 3 месяца назад

    Il compromesso è che non stai visualizzando in markdown ma visualizzi in plaintext non formattato. Basterebbe attivare la visualizzazione in markdown in alto a destra

    • @LoreCloud
      @LoreCloud  3 месяца назад

      Ciao Matteo! 😀 Hai ragione, non avevo notato la visualizzazione markdown nei pulsanti in alto a destra 😅 Grazie mille per la condivisione di valore, super apprezzatissima! 🙏

  • @TheMrAi_com
    @TheMrAi_com 4 месяца назад

    “Come? Open ……?” Dopo di che ho cambiato 😅

    • @LoreCloud
      @LoreCloud  4 месяца назад

      In che senso? Immagino tu ti riferisca alla differenza tra modelli Open Weight, ovvero modelli che pubblicano solo i parametri preaddestrati (come Meta), e quelli Open Source, ovvero che rilasciano il codice sorgente completo che permette di riaddestrare volendo il modello da zero?