【ELYZA】ChatGPTクラス!ローカルで使える最強性能の日本語LLMを使ってみた【Python】

Поделиться
HTML-код
  • Опубликовано: 23 янв 2025

Комментарии • 9

  • @pinpi-v1x
    @pinpi-v1x 4 месяца назад

    gpu環境手元にないのでめっちゃおもろい動画でした!

  • @pinpi-v1x
    @pinpi-v1x 4 месяца назад

    12:40
    27行目のtocuda関数でgpuに送ってます!!

  • @i__witnessed__it
    @i__witnessed__it Год назад

    とても優良な動画ありがとうございます!
    質問なのですが、ローカルにLLMを入れた場合、容量はどのくらい必要なのでしょうか?

    • @snuow
      @snuow  Год назад +2

      huggingfaceの.cacheフォルダを見ると、ELYZAのinstructモデルは、12.5GBくらいでした。

    • @i__witnessed__it
      @i__witnessed__it Год назад

      @@snuowご返答ありがとうございます!
      動画参考に実行したらローカルで使えました!
      またライブ配信など楽しみにしています!!