AGIRobots
AGIRobots
  • Видео 95
  • Просмотров 193 168
PlanetaryGear-3.5xReducer for CyberGear
This RUclips video explains the PlanetaryGear-3.5xReducer for CyberGear, which is available on the AGIRobots GitHub page. You can find the project at github.com/AGIRobots/PlanetaryGear-3.5xReducer.
Просмотров: 405

Видео

ノートPCでLlama 3をローカルで実行してみた!
Просмотров 1,5 тыс.3 месяца назад
ブログ、Twitter、Instagramでも、情報を発信しています。 チャンネルの登録や、フォローお願いします! blog:agirobots.com/ twitter: AGIRobots/ instagram: agirobots
Perplexityという評価指標について解説
Просмотров 5973 месяца назад
大規模言語モデルの評価指標として一般的に使用されるPerplexityについて解説しました。 ブログ、Twitter、Instagramでも、情報を発信しています。 チャンネルの登録や、フォローお願いします! blog:agirobots.com/ twitter: AGIRobots/ instagram: agirobots
【解説】ChatGPTでも使われるTransformerが賢い理由に迫る
Просмотров 12 тыс.3 месяца назад
つい先日、Transformerが従来型のニューラルネットワークに比べて、その表現力が圧倒的に豊かであることが数学的に証明されました。これを切っ掛けに、私なりにTransformerについて考えたことを話したいと思ったので、この動画を作成しました。 Transformerの中心的な機能であるAttentionがTransformerが賢い理由を掴んでいるわけですが、なぜ従来型のニューラルネットワークでは実現できないような、高度な処理が可能なのか、私なりの解釈を紹介しました。 最後までご覧いただくと、ChatGPTをはじめとしたTransformerベースのLLMについての見方が変わるのではないかと思います。 ブログ、Twitter、Instagramでも、情報を発信しています。 チャンネルの登録や、フォローお願いします! blog:agirobots.com/ twitter:twi...
粒子フィルタについて分かりやすく解説!
Просмотров 6913 месяца назад
粒子フィルタとは、簡単に言えば、ベイズフィルタをモンテカルロ法を用いて実装したものです。この手法では、未知の分布を具体的な式で表現する代わりに、サンプルの集合(粒子)を用いて分布を近似します。これにより、分布の式を明確に知らなくても、その分布の変化を追跡することが可能になります。この手法は、自己位置推定などをはじめとして多種多様な分野で応用されています。ぜひこの機会に理解を深めてみてください! 解説記事:developers.agirobots.com/jp/particle-filter/ ブログ、Twitter、Instagramでも、情報を発信しています。 チャンネルの登録や、フォローお願いします! blog:agirobots.com/ twitter: AGIRobots/ instagram: agirobots
カルマンフィルタの基礎について詳しく解説!
Просмотров 1,7 тыс.3 месяца назад
センサーからの情報には多くのノイズが含まれており、これをそのまま利用することは好ましくありません。目指すべきは、ノイズのない、真の情報を把握することにあります。しかし、このノイズフリーな状態を直接得ることはできません。このため、目に見えない「隠れ状態」としてこれを推定する必要があります。これについては、ベイズフィルタに関する動画(ruclips.net/video/qqpNI1CPbv0/видео.html)で状態推定問題として触れましたが、ベイズフィルタはその理論的基盤を提供するものであり、実際の実装にはコンピュータで扱える形式に落とし込む必要があります。カルマンフィルタは、この要求を満たす形でベイズフィルタの概念を実用化したものです。 解説記事:developers.agirobots.com/jp/kalman-filtering/ ブログ、Twitter、Instagram...
ベイズフィルタによる状態推定の基礎について分かりやすく解説!
Просмотров 1,2 тыс.3 месяца назад
この動画では、ベイズフィルタについて詳しく学びたい方向けに、ベイズフィルタが解決しようとする問題とその動機から始めて、ベイズフィルタによる解法へと説明を行います。具体的な解法を理解するために、状態空間モデルの概念を取り入れ、様々な場面でのベイズフィルタの式を導出します。そして、ロボットの自己位置推定を例に取り上げて、ベイズフィルタを用いた位置推定の理解を深めていきます。 ブログ記事:developers.agirobots.com/jp/bayesian-filtering-algorithm/ ブログ、Twitter、Instagramでも、情報を発信しています。 チャンネルの登録や、フォローお願いします! blog:agirobots.com/ twitter: AGIRobots/ instagram: agirobots
【ショートバージョン】Dynamic Window Approachによるローカルパスプランニングの基礎と強化学習との融合による移動障害物回避について解説!
Просмотров 1343 месяца назад
「Dynamic Window Approachによるローカルパスプランニングの基礎と強化学習との融合による移動障害物回避について解説!」(ruclips.net/video/Rdxnv8Eb80c/видео.html)のショートバージョンです。 要点を絞って説明しました。 ブログ、Twitter、Instagramでも、情報を発信しています。 チャンネルの登録や、フォローお願いします! blog:agirobots.com/ twitter: AGIRobots/ instagram: agirobots
Dynamic Window Approachによるローカルパスプランニングの基礎と強化学習との融合による移動障害物回避について解説!
Просмотров 3733 месяца назад
この動画では、移動ロボットのナビゲーションに広く採用されているDynamic Window Approach(DWA)について、わかりやすくご紹介します。DWAは、そのシンプルな仕組みにも関わらず、自然な障害物回避を実現します。この動画の後半ではDWAを強化学習と組み合わせた研究事例にも触れます。これにより、例えば人間のような移動障害物を避けることが可能になります。完璧なソリューションではないにせよ、現実の応用において非常に興味深いアプローチであるため、この記事を通じてDWAの基本とその可能性について理解を深めていただければと思います。 ブログ、Twitter、Instagramでも、情報を発信しています。 チャンネルの登録や、フォローお願いします! blog:agirobots.com/ twitter: AGIRobots/ instagram:instag...
ヒューマノイドロボット時代の幕開けか Figure 01の衝撃 その仕組みや今後の動向について考察
Просмотров 7893 месяца назад
この動画では、ChatGPTをロボットに採り入れることで、人間とロボットの会話と動作が驚くほどシームレスに融合されたデモ動画で話題となったFigure 01について、そこで使用されたであろう技術と今後の研究動向に関する私の意見を話しました。 ブログ、Twitter、Instagramでも、情報を発信しています。 チャンネルの登録や、フォローお願いします! blog:agirobots.com/ twitter: AGIRobots/ instagram: agirobots
AGIRobotsのビジョンと2024年の目標
Просмотров 3595 месяцев назад
AGIRobotsの掲げるビジョンと、2024年の目標について語りました。 ブログ、Twitter、Instagramでも、情報を発信しています。 チャンネルの登録や、フォローお願いします! サイトトップ:agirobots.com/ twitter: AGIRobots/ instagram: agirobots
モデルベース強化学習のフレームワークであるDynaについて解説
Просмотров 54910 месяцев назад
本動画では、Dynaと呼ばれるモデルベース強化学習フレームワークについて分かりやすく説明します。このフレームワークは、近年注目を浴びている世界モデルなど強化学習技術の基礎となっています。ぜひ、この機会にDynaについて理解していきましょう! 記事:developers.agirobots.com/jp/dyna-framework/ Corrections: 18:45 2018年に登場した「World Models」という論文について、OpenAIが出したと説明しましたが、これは誤りでした。正確には、この論文はDavid HaとJürgen Schmidhuberによって書かれたもので、OpenAIは関与していません。お詫びして訂正いたします。 ブログ、Twitter、Instagramでも、情報を発信しています。 チャンネルの登録や、フォローお願いします! blog:agirob...
強化学習のパラダイムシフト!Decision Transformerとは?
Просмотров 3,1 тыс.Год назад
本動画は強化学習のパラダイムシフトともいえる、Decision Transformerについて解説したものです。 Decision Transformerは、強化学習問題を報酬による条件付き問題として扱うことで、自然言語処理などの他分野におけるTransformerの驚異的なポテンシャルを強化学習にも適用できることを示しました。 詳細は以下の記事で解説しています。 agirobots.com/decision-transformer/ ブログ、Twitter、Instagramでも、情報を発信しています。 チャンネルの登録や、フォローお願いします! blog:agirobots.com/ twitter: AGIRobots/ instagram: agirobots
世界モデルによる4脚ロボットの歩行学習
Просмотров 1,2 тыс.Год назад
この動画は、以下の記事の内容をスライドにして解説したものです。 agirobots.com/worldmodel-quadruped/ また同内容を、connpassを通じて開催している4脚ロボット勉強会で発表しました。 quadruped.connpass.com/event/251874/ スライドは、 speakerdeck.com/robots/shi-jie-moderuniyoru4jiao-robotutonobu-xing-xue-xi で公開しています。 ブログ、Twitter、Instagramでも、情報を発信しています。 チャンネルの登録や、フォローお願いします! blog:agirobots.com/ twitter: AGIRobots/ instagram: agirobots
【遂にGPT-4が発表】何が凄いのか解説!
Просмотров 2,4 тыс.Год назад
本動画は、つい先日公開されたGPT-4について、概要や何が凄いのかについて、また私たちはどうAIと関わっていけばいいかなどについて、私なりの解釈を話したものです! この動画の内容は以下の記事を解説したものです。 agirobots.com/gpt-4/ その他、GPTに関連した話題について説明していますので、もし興味がありましたら、それらも見ていただけると幸いです。 ① ChatGPTとは?なぜ無料?意識はあるの?未来は?について私なりの考えをまとめてみた! ruclips.net/video/wrLMjNER_ZM/видео.html ② ChatGPTの仕組みと課題について解説! ruclips.net/video/om-PZpvnCBM/видео.html ブログ、Twitter、Instagramでも、情報を発信しています。 チャンネルの登録や、フォローお願いします! b...
【組み込みマシンで大規模言語モデル】JetsonでFlexGenは動くのか?
Просмотров 625Год назад
【組み込みマシンで大規模言語モデル】JetsonでFlexGenは動くのか?
【プロンプトエンジニアリング】ChatGPTの応答の質を上げる方法!
Просмотров 26 тыс.Год назад
【プロンプトエンジニアリング】ChatGPTの応答の質を上げる方法!
ChatGPTの仕組みと課題について解説!
Просмотров 16 тыс.Год назад
ChatGPTの仕組みと課題について解説!
ChatGPTとは?なぜ無料?意識はあるの?未来は?について私なりの考えをまとめてみた!
Просмотров 1,4 тыс.Год назад
ChatGPTとは?なぜ無料?意識はあるの?未来は?について私なりの考えをまとめてみた!
【Transformerの基礎】Multi-Head Attentionの仕組み
Просмотров 14 тыс.Год назад
【Transformerの基礎】Multi-Head Attentionの仕組み
Transformerについて本質を分かりやすく解説!
Просмотров 12 тыс.Год назад
Transformerについて本質を分かりやすく解説!
Depthwise Separable Convolutionについて分かりやすく解説!
Просмотров 1,8 тыс.Год назад
Depthwise Separable Convolutionについて分かりやすく解説!
直感で理解するLSTM・GRU入門 - 機械学習の基礎をマスターしよう!
Просмотров 2,8 тыс.Год назад
直感で理解するLSTM・GRU入門 - 機械学習の基礎をマスターしよう!
[Weekly RL with code]4脚ロボットMinitaurのシミュレータと深層強化学習による歩行学習
Просмотров 405Год назад
[Weekly RL with code]4脚ロボットMinitaurのシミュレータと深層強化学習による歩行学習
[Weekly RL with code]BipedalWalker よく歩くアルゴリズムはどれ?
Просмотров 200Год назад
[Weekly RL with code]BipedalWalker よく歩くアルゴリズムはどれ?
[Weekly RL with code]簡易的な二足歩行ロボットの学習環境を試してみた!
Просмотров 211Год назад
[Weekly RL with code]簡易的な二足歩行ロボットの学習環境を試してみた!
[Weekly RL with code]DQNでCartPole問題を解く
Просмотров 629Год назад
[Weekly RL with code]DQNでCartPole問題を解く
【再現度高!】カスタムなYOLOv5をCoreMLへ変換する方法
Просмотров 469Год назад
【再現度高!】カスタムなYOLOv5をCoreMLへ変換する方法
AGIRobotsチャンネルの紹介(ショートバージョン)
Просмотров 1,2 тыс.Год назад
AGIRobotsチャンネルの紹介(ショートバージョン)
ニューラルネットワークで複数種類の入力データを同時に扱う方法について解説!
Просмотров 1 тыс.2 года назад
ニューラルネットワークで複数種類の入力データを同時に扱う方法について解説!

Комментарии

  • @mampam3244
    @mampam3244 2 месяца назад

    きっかけとなったarXivの論文、”The topos of Transfoemer Netwroks” withdrawnされてるよ。 本当にそんなことが数学的に証明されているのなら「ものすごい」けどね。

    • @AGIRobots
      @AGIRobots 2 месяца назад

      情報ありがとうございます。 withdrawnされてますね…

  • @shinsogayborg
    @shinsogayborg 2 месяца назад

    確かにキートゥードアみたいなタスクに対しては アテンションが有効ということは非常に理解しやすいですね。

  • @shinsogayborg
    @shinsogayborg 2 месяца назад

    Atentionまでは独学で勉強しておりまして、Transformerを理解したくて当該動画を拝見させていただきました。 しかし、やはり分かってい部分しか分からない・・・という知能の低さで申し訳なく思っております。 AtentionからTransformaerへの以降がぶっ飛んでいるような。39分からのクエリ キー バリューが突如として出てきて迷子になってしまいました。出直してきます!

  • @JumpeiMurakami
    @JumpeiMurakami 3 месяца назад

    脳に近づいてる感じが、本当に面白い。

  • @user-sr3hh2cs9w
    @user-sr3hh2cs9w 3 месяца назад

    とてもわかりやすく勉強になりました。 仕事で speech to textで音声からテキストを起こして、LLMで校正し、更に議事録作成をする っというのをやっていたときに感じたことですが、これって人間がやっていることと同じだなと感じました。人間も会議などで言葉を拾い走り書きのメモを残し、その後メモから議事録を起こしますよね。人間もAIと同じように推論に推論を重ねているだけであって、それが思考というものなのかなと思いました。マルチモーダルが進んでいますが、今後更に発展して、人間の五感相当が接続されて、処理性能が格段に向上すれば、もう人間と区別つかないかもですね。

  • @unlabeled000
    @unlabeled000 3 месяца назад

    具体例も記載いただきわかりやすいです。勉強になります。ありがとうございます。

  • @pandapapa2024
    @pandapapa2024 3 месяца назад

    とても興味深い内容ですね

  • @pandapapa2024
    @pandapapa2024 3 месяца назад

    とても興味深い~

  • @taka-en4hp
    @taka-en4hp 3 месяца назад

    投稿ありがとうございます。とても勉強になりました。いいねx10くらい押したいです笑

    • @AGIRobots
      @AGIRobots 3 месяца назад

      ありがとうございます!

  • @amakusaiyeyasu3680
    @amakusaiyeyasu3680 3 месяца назад

    とてもわかりやすい解説ありがとうございます。多くのLLMの場合実際の使用ではループを防ぐために2位以下の候補を敢えて選ぶことで文章を自然にしますが、2位以下の候補の自然さを定量的測る方法があればLLMの自然さや学習データを超えた創造性を計測できるようになるのかなと雑感ながら思いました。ただ、そこはやっぱり人間からのフィードバックがひつゆですかね。

    • @AGIRobots
      @AGIRobots 3 месяца назад

      現状のAIですと、人間からのフィードバックなしには、難しいでしょうね...

  • @kosetei1
    @kosetei1 3 месяца назад

    確かにこの内容は使ってる側の実感としても思い当たる。 なるほど確かにtransformer層を獲得したことで文章を文章として「解釈」し、その続きを「生成」することは言われてみればまさに人間が行なっている思考と同じプロセスを踏んでいると思うし、GPTなどに代表される文章生成AIを日常的に使う身としては、とくに非常に曖昧な入力から適切なoutputを出力する能力はこの「思考」プロレスによるものが大きいと感じる。 ところで、今回の内容を聞いてもやはり私はAIが人間と同じ「思考」を行なっていると実感したことはない、ということに改めて気付いた。(もっともその頭の良さにはすでに人間の誰も勝てなさそう、というのは毎日感じるが。) 仮にAIが思考を行なっているなら、それは「哲学的ゾンビ」とほぼ等しいはずで、実際googleの社員にはAIに人権、なんて言い出して、クビになった人がいる。当時はあの出来事を笑ってスルーしたが、当時すでに大規模言語モデルの最先端の研究を行っていたGoogleならそう感じる人間がいても仕方ない。 では何故私は、(おそらくあなたも)、GPT4などの優秀なモデルに「知性」は感じても、人権を認めたくなるほどの「人間っぽさ」を感じることが無いのだろうか? まぁモデルの調整の段階でエンジニアたちが、極力そう調整しているというのもあるだろうが、私は、彼ら(AI)の記憶はあくまで学習段階の集合知であることが原因だと思う。 様々テクニックで大規模言語モデルに長期記憶を模倣させる手法は存在するが、あれらはあくまでそれっぽさを出すためのテクニックであって、当然だが、「私」との会話に基づいてAIのモデルが更新されるわけでは無い、いや、実際は更新されていたとしても、その個性の範囲が広すぎる。 逆にもっと狭い経験でモデルを調整する、すなわち、会社など閉じた空間で、全社員と会話でき、その会話に基づいて日々モデルを更新するようなAIを各々が活用し出した時、我々は本当にAIと人間の区別がつかなくなってしまうのかもしれない。

    • @AGIRobots
      @AGIRobots 3 месяца назад

      興味深いコメントありがとうございます。 確かに、ChatGPTを使っていて、知性を感じることはありますが、人権を認めたくなるほどの人間っぽさを感じることはありませんね。 ちなみに、私たち人間の知性ですが、個々の個体しか持たない経験に基づく知性があるとはいえ、本などから得られる集合知のような側面も結構ある気がします。この観点からすると、知性の有無よりも、むしろ社会性が「人間らしさ」の核心にあるのかも、と思ってます。たとえば、人間ほどの知性がなくても甘えてくるペットに対して保護や尊重の感情が生まれるように、社会的な相互作用がその存在に対する権利の認識を引き出すのです。 私たちは人間同士の会話においても、自ら積極的に関わってくる人とそうでない人とでは、感じる距離感が大きく異なります。AIに対しては、それがプロンプトに基づく人格であっても、私たちが積極的に関わらなければ何も起こりません。AIと人間の間にも、距離感というものが存在すると思います。そして、その距離感の解釈が、相手が人間(もしくは生物)なのか、AIなのかによって異なるのかもしれません。 あまり、上手く表現できませんが、その距離感は、AIから人間に対して自発的に作用してくるようになれば、感じ方は異なってくるかもしれません。将来、日常に溶け込むロボットが登場し、人間と同じように自発的に私たちに関わってくるようになれば(=都合の良いだけの存在でなくなり)、その距離感はぐっと縮まり、それがたとえ集合知に基づくものであっても、私たちのAIに対する感じ方にも変化が生まれるのではないでしょうか。 そして、エッジAIが進化して、特定のロボットの個体しか語れない経験や知識を持つようになれば、人間との境界は無くなりそうですね。

  • @nan-vb1ei
    @nan-vb1ei 3 месяца назад

    未来の基礎科目でやる内容が今まさに研究されてる感じで面白い。脳の数理モデルの詳細な意味づけを行う座学、それからその有効性を確かめるためにAI組み立てて性能を評価する実習とがあるんだろうな。レポートの考察として人間の脳以上の性能を持つ数理モデル考えさせたり。

    • @AGIRobots
      @AGIRobots 3 месяца назад

      面白い未来ですね。 将来の大学生は、在学中にいかに賢いAIを作り上げるかで、進路が決まるのかも...

  • @user-tn2lv8fg2s
    @user-tn2lv8fg2s 3 месяца назад

    Scaled Dot-Product Attention層は入力が変化すれば重みも変化する。他の層は重みが入力に依存しないとのことですが、層の出力を他の層の出力と掛け合わせるだけでは不十分なのでしょうか?

  • @user-fv3yl4we9f
    @user-fv3yl4we9f 3 месяца назад

    衝撃感 ♪

  • @fron_r
    @fron_r 3 месяца назад

    思考をどのような意味で言っているのか分からないから、なんとでも言えるのでは...

    • @AGIRobots
      @AGIRobots 3 месяца назад

      まあ、実のところは、そなりますね。

  • @criticalstate6111
    @criticalstate6111 3 месяца назад

    メタ認知がまだ欠けてると思うんだよなぁ

  • @takaborn
    @takaborn 3 месяца назад

    シンギュラリティサロンをコロナが始まった頃から見ておりそこの松田教授がトランスフォーマーは脳を模倣することを止めたからあれだけ凄い性能になった、鳥を模倣することを止めて飛ぶことが出来た飛行機と同じだと主張されていたのですっかりそのような物だと思い込んでいましたので今回の動画は眼から鱗でした。(これはトランスフォーマーに対してAIは脳を模倣すべきであるというヤン・ルカンか誰か失念しましたが高名なAI開発者の主張があったからで松田教授が個人的にそう主張しているわけではありませんが)。最初から大脳と海馬を模倣して設計されていたとすればヤン・ルカンは凄いですね😊

  • @ilabotakeda
    @ilabotakeda 3 месяца назад

    おお、そういう解釈!?? すごい面白いですね。重み係数の動的な変化のシミュレーションしてたと言えるんですね。色々腑に落ちた気がします😂

  • @user-pb8dg3ih7o
    @user-pb8dg3ih7o 3 месяца назад

    論文や本を読んでtransformerを勉強しています。attention =海馬、feed-coward層=大脳の機能と考える仮説は、私にも理解できる興味深い考えです!

  • @sakuraikeizo
    @sakuraikeizo 3 месяца назад

    これで生成文法やLAD無しでも、人間が自然言語を学習できる仕組みが良く理解できました。 チョムスキーはChatGPTは電気代の無駄とか時間の無駄と言っていました、彼はこの辺の理解がまったくできていないようです。

  • @student-beer
    @student-beer 3 месяца назад

    こういう最新の論文を受けた内容の動画最高😀

  • @johnlennon2009nyc
    @johnlennon2009nyc 3 месяца назад

    ものすごくわかりやすい説明です ところで、Hopfield Networkはその特徴の一つとして、ネットワークの構造自体が記憶と演算を司っているというイメージです attention機構ではトークンデータは時間の情報をもっており、両者を比べると「時間」でなかり異なった性質を持つと思うのです 不思議なことに この二つが似ているのですね

  • @cde390d32
    @cde390d32 3 месяца назад

    素晴らしい解説ありがとうございます! Transformerが脳の機能、特に大脳と海馬をどう模倣しているのかの部分は特に興味深かったです。 全てを完全に理解するのは難しいですが、AIの進化とその潜在能力について考えさせられる内容でした。 これからも新しい技術の発展が楽しみです!🧠🤖

  • @DrGuero2001
    @DrGuero2001 3 месяца назад

    あるトークンベクトルとセンテンス内の全トークンベクトルとの内積をとるあたりHopfield networkの全結合の イメージと重なりますし、Scaled Dot-Product AttentionとFFNをN回繰り返すところも平衡収束処理の焼きなまし ループに近い感じがします。更にはHopfield networkにはない「FFN」が挟まることで一体どの様な特性が 得られるのだろうか?と、とても興味深く拝見させていただきました。

    • @AGIRobots
      @AGIRobots 3 месяца назад

      コメントありがとうございます。 Hopfield Network単体でも、連想記憶の機能を実現できる優れモノなのですが、それが、Multi-Headで複数並列にされ、またMulti-Head Attention内の複数のLinear層と、その外にあるFeed Forward層により、Hopfield Networkでは表現できないような複雑な連想を可能にしてるのかもしれません。 Hopfield networkにFFNを追加することがどのくらいの効果を生むのか調査した論文が存在しないか、探してみようと思います!

  • @amakusaiyeyasu3680
    @amakusaiyeyasu3680 3 месяца назад

    Attention機構が海馬に似ているというのは目から鱗でした。しかし、feed forward部分は大脳に似ているというよりは、まだ大脳の代わりとしてはかなり発展の余地があるような印象を受けました。逆を言えば、大脳と似たモデルをうまくモデル化できれば、それとattentionをかけ合わせて本当の意味の思考ができるAGIのようになるのではないかと少し背筋が寒くなりました。個人的に再帰的な部分を排除したtransformerモデルは、実際の生物学的なニューロンの構造を模倣するところから敢えて遠ざかったために、却って上手く行ったのだと思っていました。しかし、むしろattentionが海馬に似ているというのは考えもしませんでしたが、とても素晴らしいアイデアだと思いました。とても勉強になります。ありがとうございました。

    • @AGIRobots
      @AGIRobots 3 месяца назад

      コメントありがとうございます。 仰る通り、Feed Forward部分を大脳というにはまだ不十分で、発展の余地があると思います。この動画では、結構悩んだ末、大脳と呼ぶことにしました。 例えばですが、Feed Forwardの部分をCNNにすれば視覚野っぽくなって、大脳って言えるかな... このように考えると、Transformerベースのマルチモーダル基盤モデルなら、様々な種類のTransformerを合体することになるため、原論文のTransformerよりも脳に似ているのかもしれません!

    • @amakusaiyeyasu3680
      @amakusaiyeyasu3680 3 месяца назад

      m.ruclips.net/video/N-0eFoQYkrs/видео.html この動画がかなり示唆的だと思います。attentionには注目のゴミ箱のような機能が偶然実装されていたり、FF層は当初想定されていなかった距離の遠い単語どうしの意味論的な混ぜ返しを行っていたり、さらにFF層にはかなり徒が多い可能性があるなどとのこと。transformerの高性能はそれぞれのレイヤーがかなり意図とちがった不思議な作用をしているとすれば今後意図して性能を上げることもできそうですし、さらなる効率化や改善の余地があるほど冗長な場所も多く、実に発展の余地が大きいなと感じます。ただ、それぞれのレイヤーが全く想定と違う機能を勝手に持ってしまうところこそがある意味で人間の脳との最大の類似性かもしれません。

    • @AGIRobots
      @AGIRobots 3 месяца назад

      早速、共有いただいたリンクの動画を拝見しました。非常に興味深い内容で、特に学習におけるゴミ箱機能の重要性と、初期のTransformerのAttention機構が自然とそれを実現していた点が印象的でした。また、FF層はAttentionの外部にあり、全く異なる働きをしていると思いがちですが、意外にもAttentionで行われるようなまぜあわせに関与していたりする点も興味深いです。 本動画では、FF層を大脳として捉えてみましたが、大脳と称するには、より大胆な改良が必要である、あるいは可能であるかもしれませんね。非常に興味深いです。

  • @matio0812
    @matio0812 3 месяца назад

    なぜ、Transformerは優れているのか、非常に興味深く、そして分かりやすい解説でした。

  • @hiro-ITengineer-supportch
    @hiro-ITengineer-supportch 3 месяца назад

    非常に面白かったです。確かにAGIとしては、100%脳と同じメカニズムのニューラルネットワークをコンピュータ上に実装できれば、それが人間の知能となにが違うのかと問えると思います。ありがとうございました。

    • @AGIRobots
      @AGIRobots 3 месяца назад

      コメントありがとうございます。 AGIの実現アプローチは複数あると考えられますが、なんだかんだ、脳に似せるのが有用なのかもしれません。そして、脳に限りなく近いメカニズムのニューラルネットがコンピュータに実装できた場合、人間の知能との違いはなくなる可能性は高いでしょう。 (倫理的な問題が残りそうですが...)

  • @thomasaqinas2000
    @thomasaqinas2000 3 месяца назад

    本来重要な数学的な解説が、全く理解できないので、とてつもなくバカな大雑把なことを言いますが、海馬と大脳辺縁系で情報処理する仕方に、Transformerの処理過程が似ている、ということでいいでしょうか?  そうであれば、推論やシミュレーションという知性作用という情報処理は、同様の処理をしているであろうことは、作用の結果からも類推できます。生物行動学・進化学では、細胞が電気パルスの反応から反射運動を起こして神経細胞を発生し、その束が軸索になり身体器官形成に伴ってその制御を実行し、次第にその制御が自動になるよう脳が発生し・・・・・、といった過程を説明してくれます。その生物体にとって淘汰圧に抗して生存確率が高くなるのは、リスキーでコストの高い試行錯誤の行動ではなく、シミュレーションができる知能の発生・発達となるとされます。まさにこのシミュレーションが、脳そしてAIの情報処理作用だろうと思います。  人間の個体脳は産道制限などもあり、容量やそれにも制限されて律速限界があります。そこからコミュニケーション(情報伝達)が発生して社会脳化したともされます。情報プールの拡張がこれによって生じたわけですが、情報の側から観れば、集合集積知が形成されたことになります。今、自然言語LLMによって、社会の中で専門分業して相互エージェント化してきた個体脳のネットワークに、新しいエージェントが加わり、グローバルブレーン様(Like)の集合集積知処理をし始めた印象を与えられます。  こうして眺めた時に、赤見坂先生の御見識が、個体脳内部から拡張情報処理装置AIへと連続して行く様を理解させてくださるようにも思えました。  ただ現状、分からないのは海馬と大脳辺縁系で処理される情報が、生物個体にとっての主観的自己意識をもたらすものかどうか、ということです。集合集積知となる「情報」はある種「普遍性」を示す知であり、そこには「個的現在」の要素、即ち質料性が捨象されます。主観的自己意識は生物の身体的条件に結びついているようでもあり、小脳やさらに身体各所の分泌物質伝達を行う部分の作用が、要素として大きいのかもしれません。生命としての「感じ」という情報処理を、Transformerができないのは当然の事かもしれず、AIアライメント問題に感情的に騒ぎたくなるのも、そこに原因があるのではないかと思います。  先生の動画の意図に即したコメントができなくて、申し訳ありませんが、動画でも説明された連想の作用で、このようなコメントになってしまいました。

    • @AGIRobots
      @AGIRobots 3 месяца назад

      コメントありがとうございます。 とても興味深い洞察ありがとうございます。 本動画では、Transformerのアーキテクチャが海馬のCA3の機能+αになってるかもしれない、という話で、Transformerが大脳辺縁系に似ているとまでは言えないかなとは思っています。 また、記載いただいた内容に添えているか分かりませんが、自己意識や感情の問題について、まさにその通りで、これらはAI技術にとってまだ大きな挑戦となっています。AIがこれらの人間特有の特性をどのように模倣、理解するかは、今後の研究で重要なテーマとなるでしょう。

  • @johnlennon2009nyc
    @johnlennon2009nyc 4 месяца назад

    丁寧な説明で理解しやすいです ただ、バックに流れる音楽の音量をもう少し下げてもらえると嬉しいです

  • @user-py1yd6tw7g
    @user-py1yd6tw7g 5 месяцев назад

    Learning robust perceptive locomotion for quadrupedal robots in the wildの論文解説動画上げて欲しいです!

    • @AGIRobots
      @AGIRobots 5 месяцев назад

      コメントありがとうございます。 私もその論文に興味があるので、近いうちに取り上げられたらと思ってます!

    • @user-py1yd6tw7g
      @user-py1yd6tw7g 5 месяцев назад

      ​@@AGIRobots 楽しみに待ってます! 活動応援してます!

    • @AGIRobots
      @AGIRobots 5 месяцев назад

      ありがとうございます!

  • @MAMESGARDEN
    @MAMESGARDEN 5 месяцев назад

    テキストファイルからPVファイルの作成ができないです。

    • @AGIRobots
      @AGIRobots 5 месяцев назад

      拡張子が非表示の設定のままの場合、〇〇.pyを作成したつもりでも、〇〇.py.txtとなってしまう場合があります。 その場合は、エクスプローラで拡張子が表示されるように設定してから実行してみてください。 参考になれば幸いです。

    • @MAMESGARDEN
      @MAMESGARDEN 5 месяцев назад

      @@AGIRobots ありがとうございます!!😂

  • @tyama1224
    @tyama1224 6 месяцев назад

    美味しい料理の匂いにも注意が向く。カレーとか鰻の蒲焼きとかね。嗅覚的注意ですね。(笑)

  • @doggy9745
    @doggy9745 7 месяцев назад

    素晴らしい動画ありがとうございます。解説の順番も導入もわかりやすかったです。

  • @abcdefg-ff5nq
    @abcdefg-ff5nq 7 месяцев назад

    非常に興味深い内容でした。 この動画を作る上で、参考にした書籍や論文などはございますでしょうか。

    • @AGIRobots
      @AGIRobots 6 месяцев назад

      コメントありがとうございます。 この動画はかなり前に制作したため、詳細は忘れてしまいました。しかし、ホップフィールドネットワークについて調査した際、使用されているニューロンモデルが出典によって異なることが多く、多くの資料を調べたことを覚えています。 また、動画を作成した当時は論文を読む習慣がなかったので、日本語の記事を多く読んで、自分なりに理解した内容をまとめました。

  • @kou5528
    @kou5528 7 месяцев назад

    Transformerを触り始めたもののイメージが掴めず、本動画で解像度が高まりました。引き続き勉強がんばりたいと思います。素晴らしい動画をありがとうございます!

  • @logico13
    @logico13 7 месяцев назад

    本当丁寧でわかりやすい。もっと伸びてほしいチャンネル👍

    • @AGIRobots
      @AGIRobots 7 месяцев назад

      ありがとうございます! 頑張ります~!

  • @user-vr5lr9en1n
    @user-vr5lr9en1n 8 месяцев назад

    ひえ

  • @itsumo5656
    @itsumo5656 9 месяцев назад

    M5Stack導入の動画では簡潔で一番、わかりやすかった

  • @masayorimoto6499
    @masayorimoto6499 9 месяцев назад

    余計なBGMも無く聴きやすいし、何より分かりやすかったです!

  • @hiroyukifuruta2725
    @hiroyukifuruta2725 9 месяцев назад

    最後の部分はそんなに気にする必要は無いと思いますね。自分の周りにある道具やシステムで1から10すべて自分が完璧に理解し作り出せる物などほゞ無いですから。そして便利な道具が使えなくなったら人間はまた別の便利な道具を作るだけですから。それは歴史が証明していると覆います。自分は車を運転しコンピュータを使いますが、プラスチックをどうやって石油から作るのかとか、鉄鉱石をどうやって採掘するのか全然知りませんが協力して社会を作るというのはそういうものであり、仮にその知識が失われても必要ならまた1から積み上げればいいわけで、出来るかどうか分からない状態から積み上げるのと違ってゴールが分かっている事は効率よく短時間で再現できると思うんですよね。とはいえ無駄な事を減らすためにもストレージがぶっ壊れて泣かないために(=過去何度か経験済み)情報のバックアップには注意をした方が良いと思います

    • @AGIRobots
      @AGIRobots 9 месяцев назад

      興味深いコメントありがとうございます。確かに、人類はそのようにして進化をしてきましたね。しかしAIについては、これまでと同じように語ってもよいのかは分からないと考えています。今まで、様々な革命がおこり、そのたびに新しい道具が登場してきましたが、それらは我々人間の能力の一部を抜くだけでした。しかし、AIの場合は(ロボットと融合することで)、人間の能力の大半を凌駕する可能性があります。つまり、今までは人類の一部を凌駕する機械などが登場したとしても、人類の方が勝っている部分が残っていたので、そこへ容易にシフトし、伸ばしていきました。しかし、AIの場合は、全ての面において人間を抜く可能性があり、人間を伸ばすのではなく、人間を押さえつけてしまう可能性があると思っています。今までは流れで容易に人類の得意分野を伸ばすようなシフトができましたが、AIの場合は、私たちがしっかりと意識しないと、人類の成長・発展に繋げられないのではないかと思ってます。動画の中で話した内容は、少し稀な例だったかもしれませんが、要するに、AIを使うメリットとデメリットをしっかりと理解しながら利用するように努めなければならないと思ってます。もちろん、未来は私の想像をはるかに超える出来事が起こるでしょうから、この心配は無用になる可能性も十分にあると思っています。少なくとも現状の話をすれば、私を含め、ChatGPTの登場により思考量が減ってしまった方々が結構いるのではないかと思うので、ChatGPTをなぜ使うのか、それは自分の成長につながるのかを意識的に考えるようにする必要があるのではと考えます。 (ここでは、結構慎重な意見を記載しましたが、実際はそこまで慎重には思っていないので、そのような自分に対する戒めみたいな感じの内容ですが。GPT-4を毎日使いまくっているヘビーユーザーなので...) 長々と失礼しました。

    • @hiroyukifuruta2725
      @hiroyukifuruta2725 9 месяцев назад

      @@AGIRobots 丁寧な返信コメントありがとうございます。ただ私は考え方が少し違います。人間はこれまで道具を使い、それを自分の体の一部と認識(錯覚?)し、身体を拡張してきたと思います。そして、道具を使わない者と使う者では、勝負にならないことは歴史が証明しています。道具を使うことで生物としてある種の退化をしているかもしれませんが、結果の到達地点は圧倒的に道具を使った方に軍配が上がります。自分の能力だけでは作れないものが道具を使うと楽に出来る事を悪い事だと考える必要は無いと思います。同じ成果物なら少ない労力や時間で作れるという事はその余力を他に回せるわけですから。ただし、LLMは思考をアシストする道具で、それは今までにあまりない形の道具なのでそれに問題があるように感じるかもしれません。そして世の中には現在のLLMの方向性をより進めて脳自体を機械に置き換えていく研究をされている人もいます。それが現在の人間の到達点を大幅に超えるのであれば、人はその方向に進むだけだと私は思うのです。AIが人間を身体&思考など完全に凌駕した時に人類にとって重大な問題が発生するかもしれませんが、現在の人間の時代は約35億年の生物の進化の一瞬に過ぎず、1000万年経ったら必ず生物的に人間は別の物に置き換わっているわけですからそういうものだと思うのです。ある種確定した未来なのでそれを心配しても意味は無いと私は思うのです。それがAIで少し早まるという認識です。遠い将来、必ずそれが起きるなら自分が生きている内に自分の目でその移り変わりを見てみたいと私は思うのです。

    • @AGIRobots
      @AGIRobots 9 месяцев назад

      とても考えさせられる内容ですね。私も、内心は仰られた内容と結構同じように思っています。 一方で、個人的な話になりますが私は高度なAIやロボットを世に送り出していく側の人間になることを目指しているので、その立場になる(なろうとする)側の人間はどのくらい楽観的でいて良いのかが私の中では結論が出ていません。 現時点での私の考えは、私を含めAI(やロボット)を研究している側の人間は、それらを人類の発展に繋げる責任を負っていると思っています。一歩間違えれば、人間絶滅のシナリオも否定できない中、どのように人間側がAIに向き合っていったらよいのか、また、どのようにAIを開発していけばよいのかは、今のうちからでも考えておく必要は十分にあると思っています。 ちなみに、「自分の能力だけでは作れないものが道具を使うと楽に出来る事を悪い事」に関しては、私は悪いことだとは思っていません。仰られた通り時間の短縮になるというメリットはとても大きいですし、それによって今までには無かった職が生まれたりするでしょう。むしろ、良いことです。問題は今がAI普及の過渡期であり、自動車のように大半の人が当たり前に利用するもの、というレベルには到達していない点だと思います。 例えば、国際学会の発表では英語は自力で話さなければなりません。ChatGPTを使うようになって英語力が落ちて話せなくなった、は少なくとも現時点では通用しないでしょう。つまり、論文を要約してもらったり解説してもらったりとAIで楽をしながらも、それにより生まれた時間を英語力向上に使うとか、そういうことが必要ですね。そのためには、利用者側のリテラシーが必要になってくるのだろうと思ってます。

  • @AGIRobots
    @AGIRobots 10 месяцев назад

    18:45前後において、2018年に登場した「World Models」という論文について、OpenAIが出したと説明しましたが、これは誤りでした。正確には、この論文はDavid HaとJürgen Schmidhuberによって書かれたもので、OpenAIは関与していません。お詫びして訂正いたします。

  • @contactglobal1414
    @contactglobal1414 11 месяцев назад

    scaled Dot-Product Attentionの中でもQueryとKeyとValueが同じものがSelf-Attentionですか?どこまでをattentionとさすのかイマイチ分かりません、、、

    • @AGIRobots
      @AGIRobots 11 месяцев назад

      コメントありがとうございます。私の解釈を述べさせていただきます。 まず、Attentionは抽象的な名称であり、どこまでをAttentionと呼んでいるのかは論文によっても異なることがあります。 私の場合は、基本的に、Single-Head AttentionをAttentionと呼んでいます(Single-Head AttentionはHulti-Head Attentionと区別するためにそのように読んでいるだけであり、複数使用しないのであれば、そのままAttentionと呼んでも問題ないため)。Scaled Dot-Product AttentionのことをAttentionと省略して呼ぶことが少ないのは、おそらく、Scaled Dot-Product以外の手法も存在し、それをテーマとして扱う場合はそこを明確に述べる必要があるからだと思います。すなわち、Attentionとだけ呼ぶときの説明者側の気持ちとしては、Scaled Dot-Productかどうかを明確にする必要がない、すなわち、そのような詳しい内部的な仕組みはブラックボックスとして述べられるSingle-Head Attentionのことを指すと思ってもらえばよいと思います。 また、AttentionがSelfか、SourceTarget(Cross)かは、その入力の違いについて分類したものなので、そこで使用されているAttentionがScaled Dot-Product Attentionである必要はありません。Multi-Head Attentionでも、QueryとKey、Valueの全てが同じであれば、Self-Attentionと呼びます。混乱を招かないように説明するなら、Self-Attention型のMulti-Head Attentionというと混同を避けられるかもしれません。 動画の中では、そこら辺を意識して説明しているつもりではありますが、もしかしたら私自身も混同して説明してる可能性があるので、混乱を招いてしまい申し訳ありませんでした。参考になれば幸いです。

    • @contactglobal1414
      @contactglobal1414 11 месяцев назад

      @@AGIRobots こんなにも丁寧に説明していただけるとは、、大変勉強になりました!!ありがとうございます。

  • @user-sp6xx4fl4c
    @user-sp6xx4fl4c 11 месяцев назад

    transformerのQKVの詳細な挙動が分からなく困っていたのですが、こちらの神動画&神サイトに出会えて全て解決しました! 本当にありがとうございます😊

  • @lemilemio
    @lemilemio Год назад

    死ぬほどわかりやすかったです 有料級コンテンツ

  • @matsu_life
    @matsu_life Год назад

    スケール化のところで、次元数d _kを単語数(5)とされていますが、各単語の次元数(色がついたベクトルの長さ)の間違いではありませんか?

    • @matsu_life
      @matsu_life Год назад

      d_kが単語数ならば、なぜd_kが大きくなると内積が大きくなるのかが分かりません。

    • @AGIRobots
      @AGIRobots Год назад

      ご指摘いただき、本当にありがとうございます。 確認したところ、動画の説明は間違っておりました。正しくは、ベクトルの次元数、つまり各単語を表現する特徴ベクトルの次元数を指していおります。ご指摘の通り、d_kが単語数を示す場合、それが内積の大きさに影響を与えることはありません。 誤った説明をしてしまい申し訳ございません。 該当記事の図は差し替えしました。また、動画の該当箇所については、修正カードを追加しました。 今後ともよろしくお願いいたします。

  • @uraxurax3426
    @uraxurax3426 Год назад

    とても勉強になりました。 ありがとうございます。 ちなみに、解説動画内で文字を書いたり、線を引いているツールは何なのでしょうか? 良かったら教えてください!

    • @AGIRobots
      @AGIRobots Год назад

      コメントありがとうございます! 使用しているツールは、iPadに標準でインストールされているKeynoteになります。

    • @uraxurax3426
      @uraxurax3426 Год назад

      @@AGIRobots Keynoteって、こんなことできるのですね。 ありがとうございます。 勉強になりました!

  • @AnonymousMagician-eo4ot
    @AnonymousMagician-eo4ot Год назад

    わかりやすい説明ありがとうございました。 割引報酬和が要らない方が、難しいタスクを解くのに有利というのは新鮮でした!

  • @miaoqi1713
    @miaoqi1713 Год назад

    動画色々見て勉強させてもらってます! 一つ質問なんですが、DBNの浅い層は実際ベイジアンネットワークとおっしゃったんじゃないですか。 でしたら入力はどのようにされてるんですか?

    • @AGIRobots
      @AGIRobots Год назад

      コメントいただき、ありがとうございます。 DBNについて、私自身少し忘れてるので、正しく解答できるか不安ですが... 機械学習モデルを学習するとき、事前学習とファインチューニングの2ステップで行うのが一般的です。事前学習とは、ファインチューニングにおいて精度を高めるための重みの初期値を決める学習です。ファインチューニングとは、事前学習により獲得した重みの初期値に基づいて全体をチューニングします。 本題のDBN(Deep Belief Network)は事前学習で使用する手法です。DBNは、浅い層(可視層)からデータを入力し、各層の重み(初期値)を訓練します。この過程で学習された中間表現は保存され、後の微調整で使用されます。したがって、一度学習された中間表現を用いれば、一般的な意味での「入力」は不要になります。ただし、獲得された中間表現から入力を生成できるかを確認するには、学習済みのネットワーク部分を深い層から浅い層に向けて繋がっているベイジアンネットとみなして生成してみる必要があります。 つまり、DBNはその学習方法ゆえ、入力層から1つ目の中間層間の重みの事前学習の時のみ一般的な意味での「入力」が必要となり、それ以外では不要となるのです。あくまでも事前学習として利用するだけのDBMでは、深い層の学習において入力層に入力できないのはあまりあまり大きな問題ではないと考えられます。 参考になれば幸いです。

    • @miaoqi1713
      @miaoqi1713 Год назад

      @@AGIRobots コメントありがとうございます! 丁寧な解説ほんとにありがとうございます。 ちょっと納得した気がしますほんとにありがとうございます!!

  • @zi3ytb
    @zi3ytb Год назад

    うーむ、素人に毛が生えた様なレベルで見る動画ではなかった様だ。 判る所半分、自分の教養の無さから解らない所半分で少しモヤモヤしてしまうなぁ。

  • @Cheshire0000
    @Cheshire0000 Год назад

    めちゃくちゃわかりやすかったです!助かりました!!