【LangChainゆる勉強会#6】LangGraphのチュートリアルを動かしながら解説【ランチタイム開催】

Поделиться
HTML-код
  • Опубликовано: 17 окт 2024

Комментарии • 8

  • @村山理-d8k
    @村山理-d8k 4 месяца назад

    Part2の例で、LangGraph(エージェント)はクエリ(質問)に対して、即Answerせずに、Search(TooLを使って検索)すべきとどのように判断しているのですか?(エージェントは、検索しなければ答えられないと、どのように自分で認識できるのですか?)

    • @studyco7292
      @studyco7292  4 месяца назад

      コメントありがとうございます。登壇者の大嶋です。
      Answerが必要かSearchが必要かは、LangGraphが判断しているのではなく、LLMが判断しています。
      質問に対して何をすべきか判断する脳のようにLLMを使う、というのがLLMを使ったAIエージェントの大きな特徴の1つです。
      過去の勉強会でこの仕組みについて解説しているので、よろしければ参照してください。
      ruclips.net/video/uxt0w_u4EwM/видео.html
      また、実際にはより安定的に動作するよう「Function calling」などと呼ばれる機能を使っているので、ご興味あればFunction callingのドキュメントを参照してください。
      platform.openai.com/docs/guides/function-calling
      docs.anthropic.com/en/docs/tool-use

    • @村山理-d8k
      @村山理-d8k 4 месяца назад

      ありがとうございました

  • @村山理-d8k
    @村山理-d8k 4 месяца назад

    上記の質問の補足ですが、なぜLLMはAnswerを返さずに、Search 東京 天気と返すべきと判断できるのでしょうか?

    • @studyco7292
      @studyco7292  4 месяца назад

      コメントありがとうございます。登壇者の大嶋です。
      LLMがAnswerを返さずに「Search 東京 天気」を返してくる理由は、そのモデルが学習に基づいて推論し、次のトークンとしてそれらが採用されたからです。
      それ以上、なぜそのような動作になったのか根本的な説明はできません。
      (LLMが何かを出力した理由は、根本的に説明することはできません)
      感覚的には、そのように学習しているから、と言えるかもしれません。
      とくに、OpenAIのGPT-3.5やGPT-4のFunction calling機能については、ツールを使う判断を適切に行いやすいようにモデルがファインチューニングされています。

    • @村山理-d8k
      @村山理-d8k 4 месяца назад

      なるほど’! GPT-3.5やGPT-4は、Fanction calling機能によって、Searchを依頼する選択肢もあることを学んでいるのですね。もし学んでいなければ、自分の知っている範囲で答える(ハルシネーション)ことになるのですね?
      今更、超基本的なことで恐縮ですが、GPT-3.5やGPT-4とChatGPTのシステム上の違いは何ですか?

    • @studyco7292
      @studyco7292  4 месяца назад

      >GPT-3.5やGPT-4は、Fanction calling機能によって、Searchを依頼する選択肢もあることを学んでいるのですね。
      もう少し正確に言うと、Function calling機能がなくても、高性能なモデルであれば、検索が必要な入力に対して「Search」と出力すべきだと推論してくれることが多いです。
      Function calling機能のリリース時に、そのような推論がよりうまく動作しやすいようモデルがファインチューニングされたということであり、そのような推論のためにFunction calling機能は必須ではありません。
      「Searchを依頼する選択肢もあることを学んでいる」ということについても、直接そのようなことを学んでいるというよりも、膨大な学習データに基づいてそのような推論をした、ということになります。
      >もし学んでいなければ、自分の知っている範囲で答える(ハルシネーション)ことになるのですね?
      LLMは直接的に学んだこと以外にも適切な推論をすることが多い(つまりZero-shot性能が高い)ことが大きな特徴です。
      直接的に学んだこと以外にも適切な推論をすることは多く、そのようなケースはハルシネーションとは言いません。
      >今更、超基本的なことで恐縮ですが、GPT-3.5やGPT-4とChatGPTのシステム上の違いは何ですか?
      GPT-3.5やGPT-4やモデルの名前であり、ChatGPTはWebサービスの名前だと言われています。

    • @村山理-d8k
      @村山理-d8k 4 месяца назад

      お忙しい中、度重なる質問に対して、懇切丁寧にご回答いただき、大変恐縮いたしております。今後とも、よろしくお願いいたします