StudyCo
StudyCo
  • Видео 86
  • Просмотров 120 747
【2024/10/03】トークナイザー入門!トークンから始めるLLM基本解説【アーカイブ】
LLMを触っていると、「トークン」という単語を耳にすることがあると思います。
例えば、ChatGPTのAPIは利用料金が「トークン」あたりで決められていたり、一度のリクエストで送れる最大テキスト量が「トークン」で決められていたりします。
そういった場面で、なんとなくテキストの長さを測るための単位だろうと想像しつつも、実際に「トークン」がLLMでどのように使われているか、どのような役割を果たしているかを詳しく分かっていない方も少なくないのではないでしょうか。
そこで本講座では、「トークン」とは何なのか、LLMにおいてどのような役割を果たしているかについて解説します。
===
00:00 はじめに
03:25 本編
56:52 告知
58:25 質疑
===
2024/10/03に開催したオンラインセミナーのアーカイブ動画です。
イベントページ:studyco.connpass.com/event/330887/
発表資料:speakerdeck.com/payanotty/tokunaizaru-men
===
運営:studyco.io
Просмотров: 399

Видео

【2024/09/19】Pythonで改めて考える「クラス(class)」の使いどころ【アーカイブ】
Просмотров 64321 день назад
Pythonでのプログラミングに慣れてきたあたりで、「クラス(class)」という機能はいつ使うんだろう?と疑問を持つ方は少なくありません。 「クラス」の動作自体は理解できても、実際に使って役立つ場面は想像しにくいかもしれません。 この勉強会では、できるだけ具体的な例を出しながら、Pythonでの「クラス」の使いどころを紹介していきます。 注意事項 ・Pythonを使用している方から質問される機会が多いため、例としてPythonを使います。 ・他のプログラミング言語の「クラス」でも当てはまる内容が中心であり、Python特有の話は少ないです。 00:00 はじめに 03:35 本編 48:55 告知 51:00 質疑 2024/09/19に開催したオンラインセミナーのアーカイブ動画です。 イベントページ:studyco.connpass.com/event/329477/ 発表資料:...
【2024/09/05】【LT大会#8】LLMの活用・機械学習・データ分析関係のいろいろな話題にふれよう【アーカイブ】
Просмотров 640Месяц назад
統計や機械学習(LLM含む)、その他データ分析に関係したテーマでの、LT(ライトニングトーク)大会になります! それぞれ10分程度で発表していきます! 00:00 はじめに 03:15 「Gemini/Vertex AIで実現する動画解析」戸塚翔太(BLUEISH) 14:23 「Prompt Cachingは本当に効果的なのか検証してみた」立野 祐太 26:18 「ノーコードエージェント構築ツールの良いところ / もう少しなところ~Vertex AI Agent Builder編~ 」森本慎太郎(ジーアイクラウド株式会社) 37:22 「トークナイザー入門」早野康太(StudyCo) 51:55 「LangGraphでのHuman-in-the-loopの実装」大嶋勇樹(ジェネラティブエージェンツ / StudyCo) 1:01:40 「外積やロドリゲスの回転公式を3次元点群処理で...
【2024/08/22】本読まなくても良いかも!?「その仕事、AIエージェントがやっておきました」著者が書籍の内容を徹底解説【アーカイブ】
Просмотров 1,1 тыс.Месяц назад
Microsoft Copilot Studio、Agents for Amazon Bedrock、Vertex AI Agent Builderなど、代表的なクラウドサービスでもエージェント開発機能が次々とリリースされてきており、2024年はまさにAIエージェント年です。 そんな中、AIエージェントとは何か、AIエージェントはどのようにビジネスへ活かして行けるのかを示した書籍に「その仕事、AIエージェントがやっておきました」がありますが、この書籍自体は2023年12月に出版されており、ちょっと話が早過ぎたためかあまり話題にならず・・・まさに今読んで欲しい本、ということで、著者自らが本の内容を徹底解説することになりました。 徹底解説しすぎて本自体読まなくても良くなっちゃうかも知れませんが、解説が面白かったら、ぜひお手元に置いていただけると嬉しいです! 00:00 はじめに 03:1...
【2024/08/01】機械学習アプリケーション(LLMアプリケーション)の「評価」の基本を改めて整理・議論する会【アーカイブ】
Просмотров 6842 месяца назад
大規模言語モデル(LLM)の登場により、機械学習を組み込んだアプリケーションの開発に取り組むハードルは非常に低くなりました。 「こんなもの作れそうかな?」というアイデアに対して、最低限動作するプロトタイプ程度であれば、簡単に実装できてしまうことも多いです。 一方で、本番レベルのアプリケーションにするために重要な「評価」については、どう取り組むべきなのか困っていると言われることも多いです。 そこでこの勉強会では、LLMを含む機械学習を組み込んだアプリケーションの「評価」について、基本を改めて整理しつつ議論していきます。 ※登壇者数名が、あらかじめ用意した資料をベースとして議論する形式の勉強会になります。視聴者の方からは適宜質問を受け付けます。 00:00 はじめに 02:56 本編 1:12:50 告知 1:14:35 質疑 2024/08/01に開催したオンラインセミナーのアーカイブ...
【2024/07/10】ノーコード・ローコードLLMアプリ開発ツールの実際!Difyなど4つのツールの概要とディスカッション【アーカイブ】
Просмотров 1,1 тыс.3 месяца назад
DifyやAzure Prompt flowをはじめとして、LLMを組み込んだアプリケーションをノーコード・ローコードで開発するツールが徐々に注目を集めています。 これらのツールに対して、「どこまで実践的に使えるのか」「限界を感じるのはどのようなケースか」といった点が気になる方は多いでしょう。 そこで、この勉強会では、ノーコード・ローコードでLLMアプリケーションを開発できる4つのツールについて、よくふれているエンジニアが基本を解説したうえで、「実際どうなの?」といったディスカッションをしていきます。 この勉強会で対象とするのは、以下の4つのツールです。 ・Dify ・Zapier(ChatGPT Integrations) ・Azure Prompt flow ・Amazon Bedrock Step Functions、Amazon Bedrock Studio 00:00 はじ...
【2024/07/04】【#Bedrock開発入門 出版記念】AWSで生成AIアプリ開発をはじめよう!【アーカイブ】
Просмотров 6353 месяца назад
6/26に書籍「Amazon Bedrock 生成AIアプリ開発入門」が発売されます。 今回はその著者3名をお招きして、AWSの生成AIサービスの基礎をわかりやすく解説いただきます。また、後半はディスカッション形式で執筆秘話を伺ったり、みなさまからの質問にもお答えいただく予定です。 00:00 はじめに 05:02 AWSの生成AIサービス入門 & 最強の書籍紹介! 25:20 Bedrockに触ってみよう 41:35 KnowledgeBasesとAgentsの紹介 58:10 ディスカッション・Q&A 1:21:35 告知 1:25:50 質疑 2024/07/04に開催したオンラインセミナーのアーカイブ動画です。 イベントページ:studyco.connpass.com/event/321443/ 運営:studyco.io
【2024/06/06】【LT大会#7】LLMの活用・機械学習・データ分析関係のいろいろな話題にふれよう【アーカイブ】
Просмотров 8124 месяца назад
【2024/06/06】【LT大会#7】LLMの活用・機械学習・データ分析関係のいろいろな話題にふれよう【アーカイブ】
【2024/05/16】【Kaggle】プロンプトを取り戻せ!LLM Prompt Recoveryコンペを解説【アーカイブ】
Просмотров 4355 месяцев назад
【2024/05/16】【Kaggle】プロンプトを取り戻せ!LLM Prompt Recoveryコンペを解説【アーカイブ】
【2024/04/25】LangSmith入門―トレース/評価/プロンプト管理などを担うLLMアプリ開発プラットフォーム【アーカイブ】
Просмотров 9095 месяцев назад
【2024/04/25】LangSmith入門―トレース/評価/プロンプト管理などを担うLLMアプリ開発プラットフォーム【アーカイブ】
【2024/04/18】AIの光と闇?失敗しないために知っておきたいAIリスクとその対応 ②企業の動き・ソリューション編【アーカイブ】
Просмотров 5005 месяцев назад
【2024/04/18】AIの光と闇?失敗しないために知っておきたいAIリスクとその対応 ②企業の動き・ソリューション編【アーカイブ】
【2024/04/11】Embeddingモデルを使ったベクトル化のしくみ & fine-tuning手法を解説【アーカイブ】
Просмотров 1,6 тыс.6 месяцев назад
【2024/04/11】Embeddingモデルを使ったベクトル化のしくみ & fine-tuning手法を解説【アーカイブ】
【2024/04/04】LLMアプリケーションの実験管理・評価の工夫を紹介〜PromptLayerを使った本番運用〜【アーカイブ】
Просмотров 6206 месяцев назад
【2024/04/04】LLMアプリケーションの実験管理・評価の工夫を紹介〜PromptLayerを使った本番運用〜【アーカイブ】
【2024/03/28】AIの光と闇?失敗しないために知っておきたいAIリスクとその対応 ①政府の動き編【アーカイブ】
Просмотров 6436 месяцев назад
【2024/03/28】AIの光と闇?失敗しないために知っておきたいAIリスクとその対応 ①政府の動き編【アーカイブ】
【2024/03/21】【LT大会#6】LLMの活用・機械学習・データ分析関係のいろいろな話題にふれよう【登壇者も募集】【アーカイブ】
Просмотров 7696 месяцев назад
【2024/03/21】【LT大会#6】LLMの活用・機械学習・データ分析関係のいろいろな話題にふれよう【登壇者も募集】【アーカイブ】
【2024/02/28】いまこそ学ぶLLMベースのAIエージェント入門―基本的なしくみ/開発ツール/有名なOSSや論文の紹介【アーカイブ】
Просмотров 3,1 тыс.7 месяцев назад
【2024/02/28】いまこそ学ぶLLMベースのAIエージェント入門―基本的なしくみ/開発ツール/有名なOSSや論文の紹介【アーカイブ】
【2024/02/14】【AOAIドーナツ本出版記念】AzureでのChatGPT活用入門【基本から周辺サービスまで解説】【アーカイブ】
Просмотров 1,3 тыс.8 месяцев назад
【2024/02/14】【AOAIドーナツ本出版記念】AzureでのChatGPT活用入門【基本から周辺サービスまで解説】【アーカイブ】
【2024/02/08】【GPT Storeオープン】GPTs(GPT Builder)の使い方を徹底解説【アーカイブ】
Просмотров 5348 месяцев назад
【2024/02/08】【GPT Storeオープン】GPTs(GPT Builder)の使い方を徹底解説【アーカイブ】
【2024/01/31】【StudyCo×KAGコラボ】Azure・AWSでLLMアプリ開発レベルアップ!事例&ハンズオン【アーカイブ】
Просмотров 5598 месяцев назад
【2024/01/31】【StudyCo×KAGコラボ】Azure・AWSでLLMアプリ開発レベルアップ!事例&ハンズオン【アーカイブ】
【2024/01/25】OpenAI DevDayがLLMアプリ開発に与えた影響を振り返る&2024年以降のトレンド予想【アーカイブ】
Просмотров 6198 месяцев назад
【2024/01/25】OpenAI DevDayがLLMアプリ開発に与えた影響を振り返る&2024年以降のトレンド予想【アーカイブ】
【2024/01/18】【StudyCo with Momento】LLMに独自知識で回答させる「RAG」の理解を深めよう【アーカイブ】
Просмотров 3,3 тыс.8 месяцев назад
【2024/01/18】【StudyCo with Momento】LLMに独自知識で回答させる「RAG」の理解を深めよう【アーカイブ】
【2023/12/07】【初心者向け】本当にわかりやすいAI入門―数式や専門用語なしにイチから最新動向まで解説!【アーカイブ】
Просмотров 3,6 тыс.10 месяцев назад
【2023/12/07】【初心者向け】本当にわかりやすいAI入門―数式や専門用語なしにイチから最新動向まで解説!【アーカイブ】
【2023/11/30】キーワードはRAG ! Kaggle LLMコンペの攻略法を解説【アーカイブ】
Просмотров 1,6 тыс.10 месяцев назад
【2023/11/30】キーワードはRAG ! Kaggle LLMコンペの攻略法を解説【アーカイブ】
【2023/11/22】【初心者歓迎】ChatGPTを使った話題の自動化ツールOpen Interpreterの基本から解説【アーカイブ】
Просмотров 80910 месяцев назад
【2023/11/22】【初心者歓迎】ChatGPTを使った話題の自動化ツールOpen Interpreterの基本から解説【アーカイブ】
【2023/11/09】【初心者歓迎】NeRF: 3次元×機械学習入門―注目の3次元化技術をやさしく解説【アーカイブ】
Просмотров 1,4 тыс.11 месяцев назад
【2023/11/09】【初心者歓迎】NeRF: 3次元×機械学習入門―注目の3次元化技術をやさしく解説【アーカイブ】
【2023/11/07】【当日開催】今朝のOpenAI DevDayでのアップデートをキャッチアップする会【アーカイブ】
Просмотров 92011 месяцев назад
【2023/11/07】【当日開催】今朝のOpenAI DevDayでのアップデートをキャッチアップする会【アーカイブ】
【2023/10/05】【書籍出版記念】LangChainから学ぶLLMを使ったアプリケーションの工夫【アーカイブ】
Просмотров 7 тыс.Год назад
【2023/10/05】【書籍出版記念】LangChainから学ぶLLMを使ったアプリケーションの工夫【アーカイブ】
【2023/09/14】【初心者向け】まだ間に合う!HuggingFace入門-TransformersでAI推論&学習
Просмотров 3 тыс.Год назад
【2023/09/14】【初心者向け】まだ間に合う!HuggingFace入門-TransformersでAI推論&学習
【2023/08/31】LT大会!機械学習・LLM・その他データ分析関係の色々な話題をつまもう!【アーカイブ】
Просмотров 481Год назад
【2023/08/31】LT大会!機械学習・LLM・その他データ分析関係の色々な話題をつまもう!【アーカイブ】
【2023/08/10】「シェル」ってなに?から改めて学ぶLinuxの基本【アーカイブ】
Просмотров 977Год назад
【2023/08/10】「シェル」ってなに?から改めて学ぶLinuxの基本【アーカイブ】

Комментарии

  • @tk2780
    @tk2780 25 дней назад

    わかりやすい解説ありがとうございます! 現在langchainを使わずにlangsmithだけで評価システムを構築しているのですがpropt管理のhubを使うにはlangchainが必要な感じでしょうか?

    • @studyco7292
      @studyco7292 24 дня назад

      コメントありがとうございます。登壇者の大嶋です。 LangSmithのHub機能を使ってLangSmith上からプロンプトを取得するには、LangSmithのクライアントライブラリを使うことになります。 公式ドキュメントは以下になります。 docs.smith.langchain.com/how_to_guides/prompts/manage_prompts_programatically#pull-a-prompt 私は試したことはありませんが、おそらくLangChainを基本的には使わない場合でも、LangSmithでプロンプトを管理することはできると思います。

    • @tk2780
      @tk2780 24 дня назад

      @@studyco7292 ご丁寧にありがとうございます!最新バージョンのlangsmithで手元で試したのですがlangchain_coreのimport errorになったのでlangchainはやはり必要そうに見えました。(旧バージョンなら出来たのかも?) langsmithのコミュニティslcckで今度聞いてみたいと思います。

  • @ざわりん
    @ざわりん 3 месяца назад

    7:50

  • @村山理-d8k
    @村山理-d8k 3 месяца назад

    申し訳ありませんが、2点質問させてください。 1)講義中の質問に対するご回答が聞き取れなかったのですが、そもそもStreamの目的は何ですか? word(?)単位の出力させているのは、想定していたもしくは想定外の単語が出力されたときに、何らかのアクションを取るためなのでしょうか? 2)Streamの出力単位が、英語の場合はword、日本語の場合は1文字になっているのは、どういう理由なのでしょうか?LLMモデルを構成するTransformerをイメージすると、出力単位がトークンであれば、わかりやすいのですが?

    • @studyco7292
      @studyco7292 3 месяца назад

      コメントありがとうございます。登壇者の大嶋です。 >1)講義中の質問に対するご回答が聞き取れなかったのですが、そもそもStreamの目的は何ですか?word(?)単位の出力させているのは、想定していたもしくは想定外の単語が出力されたときに、何らかのアクションを取るためなのでしょうか? OpenAIのChat Completions APIの場合、ストリーミングを使用する目的は、ユーザーにできるだけ早く応答を返し始めることによるユーザー体験の向上であることがほとんどだと思います。 なお、特定の単語が出力されたときに生成を停止して何か処理したりしたい場合は、「stop」というパラメータを使うことができます。 platform.openai.com/docs/api-reference/chat/create#chat-create-stop >2)Streamの出力単位が、英語の場合はword、日本語の場合は1文字になっているのは、どういう理由なのでしょうか?LLMモデルを構成するTransformerをイメージすると、出力単位がトークンであれば、わかりやすいのですが? Streamの出力単位については、OpenAIの公式ドキュメントで明言されている箇所が見つからなかったので、「分からない」という回答が正確ではないかと思います。 ただし、推測としてはトークン単位でStreamされている可能性はあります。 日本語の場合1文字で1トークンとなる場合もあります。 詳細は以下のTokenizerで確認してください。 platform.openai.com/tokenizer よろしくお願いします。

    • @村山理-d8k
      @村山理-d8k 3 месяца назад

      @@studyco7292 1)について 申し訳ありません。 「ユーザーにできるだけ早く応答を返し始めることによるユーザー体験の向上」とは、「Sreamを使用しない場合のChat Completions APIの場合、回答文が完成してから出力し始め、その結果応答がSream使用をした場合に比べて遅れる」という意味でしょうか?

    • @studyco7292
      @studyco7292 3 месяца назад

      >「Sreamを使用しない場合のChat Completions APIの場合、回答文が完成してから出力し始め、その結果応答がSream使用をした場合に比べて遅れる」という意味でしょうか? おおむねそのような理解でよいと思います。Streamを使うと応答し始めるのが早くなる、ということになります。 あまりイメージがついていないようでしたら、実際にChat Completions APIにふれて試していただくことをおすすめします。

    • @村山理-d8k
      @村山理-d8k 3 месяца назад

      度重なる質問にもかかわらず、ご丁寧に回答いただき、本当にありがとうございました。

  • @渋谷歯科技工所-b9p
    @渋谷歯科技工所-b9p 4 месяца назад

    大変勉強になりました。ありがとうございます。質問です。gradioじゃなくStreamlitを使った理由があれば教えてください

    • @studyco7292
      @studyco7292 4 месяца назад

      コメントありがとうございます。登壇者の大嶋です。 GradioではなくStreamlitを使ったことには、特段の理由はありません。 強いて言えば、実務でStreamlitを使っており、Streamlitでの実装例をすでに持っていたためです。 (実務でGradioではなくStreamlitを採用したことも、好み程度の理由になります) Gradioでもおそらく同様のことは実現できると思います。 よろしくお願いします。

    • @渋谷歯科技工所-b9p
      @渋谷歯科技工所-b9p 4 месяца назад

      @@studyco7292 お答えいただきありがとうございます。gradioでのchatbot実装を勉強中ですがStreamlitもシンプルで良いと思いました。

  • @村山理-d8k
    @村山理-d8k 4 месяца назад

    上記の質問の補足ですが、なぜLLMはAnswerを返さずに、Search 東京 天気と返すべきと判断できるのでしょうか?

    • @studyco7292
      @studyco7292 4 месяца назад

      コメントありがとうございます。登壇者の大嶋です。 LLMがAnswerを返さずに「Search 東京 天気」を返してくる理由は、そのモデルが学習に基づいて推論し、次のトークンとしてそれらが採用されたからです。 それ以上、なぜそのような動作になったのか根本的な説明はできません。 (LLMが何かを出力した理由は、根本的に説明することはできません) 感覚的には、そのように学習しているから、と言えるかもしれません。 とくに、OpenAIのGPT-3.5やGPT-4のFunction calling機能については、ツールを使う判断を適切に行いやすいようにモデルがファインチューニングされています。

    • @村山理-d8k
      @村山理-d8k 4 месяца назад

      なるほど’! GPT-3.5やGPT-4は、Fanction calling機能によって、Searchを依頼する選択肢もあることを学んでいるのですね。もし学んでいなければ、自分の知っている範囲で答える(ハルシネーション)ことになるのですね? 今更、超基本的なことで恐縮ですが、GPT-3.5やGPT-4とChatGPTのシステム上の違いは何ですか?

    • @studyco7292
      @studyco7292 4 месяца назад

      >GPT-3.5やGPT-4は、Fanction calling機能によって、Searchを依頼する選択肢もあることを学んでいるのですね。 もう少し正確に言うと、Function calling機能がなくても、高性能なモデルであれば、検索が必要な入力に対して「Search」と出力すべきだと推論してくれることが多いです。 Function calling機能のリリース時に、そのような推論がよりうまく動作しやすいようモデルがファインチューニングされたということであり、そのような推論のためにFunction calling機能は必須ではありません。 「Searchを依頼する選択肢もあることを学んでいる」ということについても、直接そのようなことを学んでいるというよりも、膨大な学習データに基づいてそのような推論をした、ということになります。 >もし学んでいなければ、自分の知っている範囲で答える(ハルシネーション)ことになるのですね? LLMは直接的に学んだこと以外にも適切な推論をすることが多い(つまりZero-shot性能が高い)ことが大きな特徴です。 直接的に学んだこと以外にも適切な推論をすることは多く、そのようなケースはハルシネーションとは言いません。 >今更、超基本的なことで恐縮ですが、GPT-3.5やGPT-4とChatGPTのシステム上の違いは何ですか? GPT-3.5やGPT-4やモデルの名前であり、ChatGPTはWebサービスの名前だと言われています。

    • @村山理-d8k
      @村山理-d8k 4 месяца назад

      お忙しい中、度重なる質問に対して、懇切丁寧にご回答いただき、大変恐縮いたしております。今後とも、よろしくお願いいたします

  • @村山理-d8k
    @村山理-d8k 4 месяца назад

    Part2の例で、LangGraph(エージェント)はクエリ(質問)に対して、即Answerせずに、Search(TooLを使って検索)すべきとどのように判断しているのですか?(エージェントは、検索しなければ答えられないと、どのように自分で認識できるのですか?)

    • @studyco7292
      @studyco7292 4 месяца назад

      コメントありがとうございます。登壇者の大嶋です。 Answerが必要かSearchが必要かは、LangGraphが判断しているのではなく、LLMが判断しています。 質問に対して何をすべきか判断する脳のようにLLMを使う、というのがLLMを使ったAIエージェントの大きな特徴の1つです。 過去の勉強会でこの仕組みについて解説しているので、よろしければ参照してください。 ruclips.net/video/uxt0w_u4EwM/видео.html また、実際にはより安定的に動作するよう「Function calling」などと呼ばれる機能を使っているので、ご興味あればFunction callingのドキュメントを参照してください。 platform.openai.com/docs/guides/function-calling docs.anthropic.com/en/docs/tool-use

    • @村山理-d8k
      @村山理-d8k 4 месяца назад

      ありがとうございました

  • @ogurahiroto9591
    @ogurahiroto9591 5 месяцев назад

    5:22

  • @マルコ-d4v
    @マルコ-d4v 7 месяцев назад

    めちゃくちゃ有益😂

  • @takaball
    @takaball 7 месяцев назад

    ありがとうございます。たいへん興味深く聞かせていただきました。

  • @studyco7292
    @studyco7292 7 месяцев назад

    登壇者より 1:09:40 あたりからのRunnableLambdaの箇所をより簡単に書きたい場合は、以下のようなコードでも動作します。 ``` chain = ( {"context": retriever, "question": lambda _: user_message} | prompt | model | output_parser ) ``` `lambda _: user_message`の箇所が`RunnableLambda(lambda _: user_message)`に自動で変換されるためです。

  • @re9236
    @re9236 8 месяцев назад

    デカすぎんだろ... 勉強になりました

  • @kk-cv1kd
    @kk-cv1kd 8 месяцев назад

    5:56本編

  • @pannakoota1
    @pannakoota1 9 месяцев назад

    すごいわかりやすかったです。ありがとうございますm

  • @わたり-g1o
    @わたり-g1o 10 месяцев назад

    解説ありがとうございます。作りたいアプリが出来たので全体像の勉強・整理になりました。

  • @FUKUYAMACITYSAMURAI
    @FUKUYAMACITYSAMURAI Год назад

    全体の流れが大変わかりやすい

  • @shinjiogishima3546
    @shinjiogishima3546 Год назад

    ありがとうございます。 見落としてしまったのかもしれないですが、Fine tuningにGPUもLoRAも使わなくてできるということなのでしょうか? それは(インストラクション チューンドの)rinnnaだからなのでしょうか?

    • @studyco7292
      @studyco7292 Год назад

      コメントありがとうございます。発表者の江﨑です。 今回CPUだけでFine-tuningできていたのは、利用したrinnaのモデル(huggingface.co/rinna/japanese-gpt2-small )が軽量だったためだとご理解いただければ幸いです。 パラメータ数が多くなって重いモデルになると、原理上はCPUだけでもLoRAなしのFine-tuningやAI推論実行はできないことはないですが、非常に時間がかかってしまって非現実的になってくるという認識です。

  • @ピカチュウ-w2j
    @ピカチュウ-w2j Год назад

    こちらはUdemyの内容と同じでしょうか?

    • @ピカチュウ-w2j
      @ピカチュウ-w2j Год назад

      こちらの動画はテキストダビンチ003を使用していますが、UdemyではGPT-3 turboの使用をしていますか?

    • @studyco7292
      @studyco7292 Год назад

      @user-tm7qe5tz3h 様 コメントありがとうございます! この動画の発表者・Udemy講座の講師の大嶋です。 Udemy講座「LangChainによる大規模言語モデル(LLM)アプリケーション開発入門」では、この動画と違い、gpt-3.5-turboを中心に解説しています。 また、Udemy講座にもこの動画と重複する内容はありますが、LangChainについてさらに丁寧に解説し、実際のアプリケーション開発まで扱っています。 以下のページで割引クーポン付きURLを公開しているので、よろしければご利用ください! www.nextskill.co.jp/courses

  • @好きな事で生きるプロゲーマー自

    すごいです。 エンジニア脳でここまで使いやすいローコードツール初めてみました。

  • @dennoucoil4423
    @dennoucoil4423 Год назад

    もしくは薬剤師側だけの音声データを先に文字起こしして「以下のセリフは薬剤師のものです。」 とプロンプトに含めてGPTに与えるとか。

  • @dennoucoil4423
    @dennoucoil4423 Год назад

    話者分離のところ、オンラインなら薬剤師側の声を別に録音しといて、機械っぽい声に加工した後会話音声と合成して話者分離用の音声データ作ったら精度上がるのでは?

  • @感謝感謝-d4v
    @感謝感謝-d4v Год назад

    10:00〜

  • @aproject_type323
    @aproject_type323 2 года назад

    ax.imshow(np.array(mnist_x[i, :].reshape(28,28)),cmap='binary') この行でエラーが出ます。 何度も丁寧に打ってもエラーがでます

    • @temphetar
      @temphetar Год назад

      mnist_xはdataFrame形式で前段処理で代入されます。 ax.imshow(np.array(mnist_x.iloc[i].values.reshape(28, 28)), cmap='binary') とすれば上手く動くかもしれないです。

  • @uk3700
    @uk3700 2 года назад

    2:17:26 「データがいっぱいになれば事後分布は尖っていくので過学習に近しいことになる」 ここがわかりませんでした。 直感的にデータ数を増やすと過学習はしにくくなると思うのですが,違うのでしょうか。 そもそも事後分布が尖っていくと過学習するというのはどういう意味でしょうか? また,統計的機械学習や非統計的機械学習(この言葉は初めて聞きました)など,機械学習の分類について独自の見解をされているようにみえます。 どこまでが世間一般の理解なのか,どこからが独自見解なのかを明確にすべきかと考えます。 単なる言葉の定義の問題なのですが一般的に異なる意味で理解されている言葉を別の意味で利用したり, よく知られた別の言葉が存在するのに別の言葉を充てがうことは混乱を生むので避けるべきかと考えます。

    • @chanileon9803
      @chanileon9803 Год назад

      chatgptでベイズ統計と機械学習で2つの質問をしたのですが、以下の回答が返ってきました。 🔸質問1 : データがいっぱいになれば事後分布は尖っていくので過学習に近しいことになる ベイズ統計について上の文章はあっているのか? 🔹回答1 : いいえ、上の文章は正確ではありません。事後分布がデータがいっぱいになると尖ることは一般的には起こりません。むしろ、ベイズ統計ではデータが増えるにつれて事後分布がより収束し、より正確な推定が得られる傾向があります。 過学習は、統計モデルが訓練データに対して過剰に適合し、未知のデータに対しては予測性能が低下する現象です。ベイズ統計では、事前分布とデータから事後分布を推定するため、過学習を避けるための手法が組み込まれています。 一般的に、ベイズ統計では事後分布がデータによって更新されるため、より多くのデータを取り入れることでより確からしい推定が得られます。事後分布はデータの情報を反映するため、データが増えると事後分布はより広がる傾向があります。つまり、過学習に近づくのではなく、より一般化された推定が可能となります。 ただし、事後分布がデータが増えると必ずしも尖るわけではありません。データの質やモデルの複雑さなどによって事後分布の形状は異なる場合があります。ですので、一般論として「事後分布がデータがいっぱいになれば尖る」とは言えません。 🔸質問2 : データがいっぱいになれば事後分布は尖っていくので過学習に近しいことになる。 機械学習において上の文章はあっているのか? 🔹回答2 : 機械学習において、上記の文は正確ではありません。データが増えることで、単に事後分布が尖るだけでは、必ずしも過学習に近づくとは限りません。 過学習は、モデルが訓練データに対して過度に適合し、未知のデータに対する予測性能が低下する現象です。機械学習において、データが増えると、通常はより一般化されたモデルを構築することができます。十分な量のデータがあれば、モデルはより多くのパターンを学習し、未知のデータに対しても良い予測を行うことが期待されます。 データが増えることで過学習のリスクは低下する傾向があります。追加のデータが新たな情報を提供し、モデルがより一般化された特徴を学習することができます。したがって、データがいっぱいになるほど、過学習に近づくという主張は一般的には当てはまりません。 ただし、データが非常に多くなる場合や、モデルが非常に複雑な場合は、過学習のリスクが増加する可能性があります。適切なモデルの複雑さとデータ量のバランスを保つことが重要です。