Chat GPT senza censure in locale sul tuo computer - Come installare Alpaca Electron

Поделиться
HTML-код
  • Опубликовано: 11 окт 2024
  • In questo video ti mostro come installare sul tuo pc ed utilizzare Alpaca Electron. Alpaca Electron funziona in locale, anche senza connessione ad internet. Per utilizzarlo basta scaricare ed installare il file eseguibile (.exe) e scaricare un modello Alpaca. Funziona con windows, macOS e linux.
    RISORSE
    Alpaca electron: github.com/Its...
    Modello Alpaca 7B: huggingface.co...
    Articolo Alpaca Stanford: crfm.stanford....
    #intelligenzaartificiale #chatgpttutorial #chatgpt

Комментарии • 32

  • @NextAIOfficial
    @NextAIOfficial  Год назад

    👉Link per scaricare Alpaca:
    Alpaca electron: github.com/ItsPi3141/alpaca-electron
    Modello Alpaca 7B: huggingface.co/Pi3141/alpaca-7b-native-enhanced/tree/main
    Articolo Alpaca Stanford: crfm.stanford.edu/2023/03/13/alpaca.html

  • @SAVONASOTTERRANEASEGRETA
    @SAVONASOTTERRANEASEGRETA Год назад

    Grazie anche per questo video. Molto interessante e vorrei porti alcuni quesiti se non disturbo: 1 visto che è in locale ha anche la lingua Italiana? 2 - è già ampiamente istruito con testi di libri come Gpt3? Eventualmente si può ampliare la sua memoria aggiungendo altri documenti? Grazie mille. 😊

  • @Zzmanuzz1
    @Zzmanuzz1 Год назад

    ciao a tutti grazie , ma risponde solo in inglese? altro problema il q8 bin non me lo carica grazie mille

  • @SAVONASOTTERRANEASEGRETA
    @SAVONASOTTERRANEASEGRETA Год назад

    Vi do le mie impressioni. Lho installato e seguendo la guida é stato facile. Purtroppo è no so perché sono molto deluso dal risultato. Eppure ho 16 di ram e processore cpu ryzen 5 5600. Il sistema è lentissimo non come nel tuo video. Solo per rispondere a , Hi, per farti capire, ci ha messo 25 secondi. Per ogni singola parola minimo 5 secondi. Qualcosa non va

  • @estrosfere
    @estrosfere Год назад

    Forse è cambiato qualcosa... a me non funziona, la rotellina gira all'infinito!

  • @fabriziocasula
    @fabriziocasula Год назад +1

    grazie, non solo è lento ma le risposte che da sono spesso inutili... ci vorrebbe il modello 13B ma hai bisogno di molta piu CPU

    • @NextAIOfficial
      @NextAIOfficial  Год назад

      Esatto.. il problema è fare girare un modello più complesso in un normale pc domestico

    • @leporaf
      @leporaf Год назад

      Io avrei un PC abbastanza potente e volevo chiedervi Dove posso scaricare il modello 13B

  • @anonimoveneziano8183
    @anonimoveneziano8183 Год назад

    A me non ne vuole sapere di caricare il modello. La pagina che mostri è cambiata, quindi ho scaricato inizialmente ggml-model-q8_0.bin ma non gli è piaciuto. Poi ho scaricato esattamente quello che fai vedere tu ma non lo carica, continua a dire--> Couldn't load model
    Enter the filepath for an Alpaca model.
    Please make sure it is a new version of the GGML model. The old one no longer works.

    • @anonimoveneziano8183
      @anonimoveneziano8183 Год назад

      mi devo correggere. Alla fine sono riuscito a farlo funzionare. Complimenti, grazie per il video. NOn è nemmeno poi così lento come dice qualcuno. Lento si, ma non ingestibile. Qualche secondo per una risposta. Sono su un portatile, ma niente di che. Ho 16gb di ram. Ora vorrei capire un po' come funziona. Ad esempio: continua ad apprendere durante le conversazioni? Quanti token riesce a gestire? Quanta memoria esprime, nelle conversazioni? Fino a dove ricorda? Dove si trova qualche info?

    • @marioboiata2403
      @marioboiata2403 Год назад

      ciao anche a me da questo problema, come hai risolto?

    • @anonimoveneziano8183
      @anonimoveneziano8183 Год назад

      @@marioboiata2403 smanettando, con il file giusto ha funzionato. Stai scaricando il file sbagliato :)

    • @estrosfere
      @estrosfere Год назад +1

      @@anonimoveneziano8183 , ma dire quale è il file giusto no?

    • @AlessandroCarlini75
      @AlessandroCarlini75 9 месяцев назад

      @@estrosfere infatti, dire il file è troppo complicato

  • @AlessandroCarlini75
    @AlessandroCarlini75 9 месяцев назад

    a te chiede come modello un file .bin, a me chiede un file .gguf.....

  • @mariociulla9901
    @mariociulla9901 Год назад

    Grazie, ma serve a poco. Per avere una risposta ci mette 10 minuti! Assolutamente inutile.

    • @NextAIOfficial
      @NextAIOfficial  Год назад

      Sì, la velocità non è il suo punto forte e dipende dal pc che hai a disposizione. Ma non dimenticare che funziona in locale e questa non è cosa da poco!

    • @mariociulla9901
      @mariociulla9901 Год назад

      ​@@NextAIOfficial Ho un PC di tutto rispetto ma il risultato non riesco ad apprezzarlo. Il funzionamento in locale potrebbe essere un punto di forza se fosse veloce. Ma nel mio caso non lo è per nulla.

    • @alfonso1762
      @alfonso1762 Год назад +1

      credo sicuramente dipenda dal fatto che hai un PC con poche risorse, con il mio che è discretamente potente, la risposta è pressoché immediata, semmai è la qualità delle risposte che lascia a desiderare, come d'altronde citato anche nel video...ma quando mi ha risposto che Pietro Mennea è stato il più grande saltatore in alto della storia, che veniva definito il "re del salto in alto" e che era nato a Roma....beh..non ho esitato a disinstallare il tutto dal mio PC.🤣

    • @mariociulla9901
      @mariociulla9901 Год назад

      @@alfonso1762 Ho in iMac 27 pollici 5k. Forse non è un problema di risorse.

    • @NextAIOfficial
      @NextAIOfficial  Год назад +1

      @Mario dipende molto dalla quantità di RAM disponibile

  • @raffaelebuongiorno6299
    @raffaelebuongiorno6299 Год назад

    Mi dispiace scriverlo ma questo progetto non funziona su computer poco potenti. Personalmente ho un Pentium di 10a gen, con 4 threds e 16 Gb di ram........ma niente non risponde.....cazzarola .......

    • @NextAIOfficial
      @NextAIOfficial  Год назад

      Mi dispiace non funzioni 😅 Cercherò di condividere soluzioni più adatte a tutti