Maruyama Lectures
Maruyama Lectures
  • Видео 916
  • Просмотров 196 422
フーリエ級数
【 フーリエ級数 】
今回のセッションは、「準備編」の3回目です。ここでは、フーリエ級数とフーリエ変換を取り上げます。
準備編一回目の「剰余算」にしろ、準備編二回目の「楕円曲線の有理点を数える」にしろ、どちらも整数の世界に関連したトピックでしたが、今回は少し違っています。
sin や cos といった三角関数の和として、様々な関数を表そう(あるいは、近似しよう)というのがフーリエ級数の考えなのですが、それは、整数の世界とは、あまり関係がないように感じる人は多いと思います。
数学でも、整数論と調和解析論( Harmonic Analysis フーリエ級数などを扱う)との接点は、かつてはあまり大きくなかったように思います。
Langlands program は、異なる対象を研究する数学の異なる分野の間に、見かけではわからない深いつながりが存在することを予見し、そうした予想外の発見(それは数学的証明として実行されます)を通じて、さらに深い視点から数学の各分野の統一をめざそうという意欲的で壮大な計画書です。
こうした壮大な構想の最初の糸口になったのが、整数論と調和解析論との予想外の接点の発見だったのです。それはLanglands自身の発見によるものではありません。それについては、次回から始まる Part 2 「志村・谷山予想」で紹介します。
今回「準備編」でフーリエ級数を取り上げたのには、そういう背景があります。
【 古典的フーリエ級数 】
今回のセッションでは、二つのフーリエ級数を取り上げています。
一つは、三角関数の和としての古典的なフーリエ級数と、その係数の抽出法である古典的なフーリエ変換の...
Просмотров: 70

Видео

楕円曲線の整数点を数える
Просмотров 7212 часов назад
【 楕円曲線の整数点を数える 】 楕円曲線というのは、y^2 y = x^3 −x^2 のような形をしている、二変数の3次の方程式です。 このセッションでは、ある楕円曲線が与えられた時、そのグラフで x, y 座標がともに整数になる点である整数点(integral point)がいくつあるかという問題を考えてみようと思います。 この問題を解く一つのアプローチは、全ての整数 x, yについてペア(x,y)を考え、それが、楕円曲線の方程式を満たすか否かをチェックして、このテストに合格するペアの数を数えることです。 ただ、こうした総当たりでは(といっても現実に可能なのは有限回のチェックでしかありません)、次のような二つの重要な問題に対して、その両方に答えを与えることができません。   ・整数点は、一つも存在しないのか?   ・整数点は、無限個存在するのか? 最初の問題の設定は、「楕円曲線の...
剰余算
Просмотров 6212 часов назад
【 準備編1 −− 剰余算 】 このセッションでは、初等整数論の基本的なツールである剰余算( modular arthematic )について学びます。 剰余算の簡単なものは「時計算」ともいわれます。 時計の盤面には1から12までの数字が刻まれていますが、そこには13とか31といった数字は現れません。そこはカレンダーとは違っています。それは、時計の時間では、時計の針が12時を回ると、時間を表す数字はいったんゼロにリセットされ、そこからどれくらいの時間が過ぎたかで言い直されるからです。時計では12時を0時(ゼロ時)とも呼ぶのはそのためです。 もっとも、そのことは「8時から33時間後は、何時になるか?」という問題を 8 33 = 41 と計算してはいけないということではありません。この計算の後で、 時計の針が何回12時をまたいでゼロにリセットされたかを考えればいいのです。   8 33 ...
セミナーの構成について
Просмотров 10416 часов назад
【 セミナーの構成について 】 いつも使っているマシンが突然死して(老衰死かも)、不自由しています。 その上、クラウドにバックアップしていたと思っていた、セミナーに向けてこの間作り溜めていたデータが、バックアップから外れていて利用できないことに気づき、泣いています。 マシンは修理に出したので、修理から戻ってくれば、自宅のTime Machine からデータを復元できると思います。 といっても、それまで何もしないというのもどうかと思い、今回のセッションでは、今回のセミナーでは、どのような話をするのか、セミナーの構成について話したいと思います。 【 今回のセミナーでフォーカスすること 】 Langlands programは、さまざまな数学の分野の「統一」を目指すビジョンだと前回のセッションでは述べました。ただ、「さまざまな数学の分野」と言ってもあまりに広すぎて、そのままだと「統一」のイ...
ラングランズ・プログラムとは何か?やさしい入門編 はじめに
Просмотров 153День назад
【 ラングランド・プログラムとは何か? 】 2024年も終わりに近づいています。 今回のセミナーでは、今年一年のニュースの中で、僕が一番印象に残ったトピックスを取り上げようと思います。 それが、今年五月の 「幾何学的ラングランズ予想の証明 Proof of the geometric Langlands conjecture」です。 people.mpim-bonn.mpg.de/gaitsgde/GLC/  繰り返しになりますが、2024年も終わりに近づいています。 それは、21世紀の最初の25年が終わろうとしているということです。 2024年のLanglands Programの大きな進展は、今年一年の重大ニュースというだけでなく、1967年のLanglands Programの開始以来、おそらくこの半世紀の間の最も重要な数学的事件と言っていいと思います。 【 「ラングランズ・プ...
「AIとグラフ ― GPT4oと遊ぶ」 Part 1 画像とグラフの違いを考える
Просмотров 10014 дней назад
マルレク「AIとグラフ ― GPT4oと遊ぶ」 2024年6月29日 Part 1 画像とグラフの違いを考える まとめページ www.marulabo.net/docs/ai-graph/
「AIとグラフ ― GPT4oと遊ぶ」 Part 2 グラフの認識の難しさ
Просмотров 5214 дней назад
マルレク「AIとグラフ ― GPT4oと遊ぶ」 2024年6月29日 Part 2 グラフの認識の難しさ まとめページ www.marulabo.net/docs/ai-graph/
「AIとグラフ ― GPT4oと遊ぶ」 Part 3 AIのAgent-Based Model
Просмотров 6014 дней назад
マルレク「AIとグラフ ― GPT4oと遊ぶ」 2024年6月29日 Part 3 AIのAgent-Based Model まとめページ www.marulabo.net/docs/ai-graph/
「カテゴリー論基礎 -- adjoint」はじめに
Просмотров 5921 день назад
【 明日のセミナーの「はじめに」を公開しました 】 明日10月26日開催 マルレク「カテゴリー論基礎 2 Adjoint 」の「はじめに」の部分を公開しました。 セミナーへの参加申し込みは、セミナー開始時刻 19:00 直前まで受け付けています。また、リアルタイムのセミナー配信ではなく、RUclipsの限定配信ですので、セミナー・コンテンツのURLを主催者から受け取れば、いつでも都合のいい日時にセミナー受講が可能です。 セミナーのお申し込みは、こちらのサイトからお願いします。 category-theory2.peatix.com/view 【 セミナーの開催にあたって 】 今回のセミナーは、今年5月に行った「カテゴリー論基礎」の続編です。 www.marulabo.net/docs/category-theory/ 5月のセミナーでは、カテゴリー論の基本的な構成要素である、Cate...
𝐹𝑟𝑒𝑒⊣𝐹𝑜𝑟𝑔𝑒𝑡𝑓𝑢𝑙 のペアではないAdjoint functor
Просмотров 5821 день назад
【 𝐹𝑟𝑒𝑒 ⊣ 𝐹𝑜𝑟𝑔𝑒𝑡𝑓𝑢𝑙 のペアではない Adjoint functor 】 これまで見てきたAdjoint functorの例は、いずれも、𝐹𝑟𝑒𝑒 𝑓𝑢𝑛𝑐𝑡𝑜𝑟 ⊣ 𝐹𝑜𝑟𝑔𝑒𝑡𝑓𝑢𝑙 𝑓𝑢𝑛𝑐𝑡𝑜𝑟 のペアに形をしていました。 このセッションでは、𝐹𝑟𝑒𝑒 ⊣ 𝐹𝑜𝑟𝑔𝑒𝑡𝑓𝑢𝑙 のペアではない Adjoint functor の例を見ていきたいと思います。 【 functor ー×𝐵と functor (−)^𝐵 】 二つの集合𝐴, 𝐵 ∈ 𝑆𝑒𝑡が与えられた時、 𝐴×𝐵というの積の表記で、二つの集合の直積(デカルト積)を表します。𝑥 ∈ 𝐴, 𝑦 ∈ 𝐵の時、(𝑥, 𝑦) ∈ 𝐴×𝐵です。 また、𝐵^𝐴という冪乗の表記で、AからBの関数を表します。𝑓 ∈ 𝐵^𝐴の時、𝑓: 𝐴 → 𝐵です。𝐵^𝐴は、hom (A, B) = 𝑆𝑒𝑡(𝐴, 𝐵)と同じです。 集合...
Free functorとベクトル空間
Просмотров 2921 день назад
【 Free functorとベクトル空間 】 前回のセッションでは、集合のカテゴリーSetから群のカテゴリーGrpを生成する Free functor Fの働きを見てきました。 このFree functor Fは、 U:Grp → Set である Forgetful functor Uのleft adjoint なのですが、そのことについてはきちんと説明していませんでした。 今回のセッションでは、集合のカテゴリーSetからベクトル空間のカテゴリーVectを生成する Free functor Fの構成を見ていこうと思います。 【 自由ベクトル空間の生成 】 Forgetful functor 𝑈: 𝑽𝒆𝒄𝒕→𝑺𝒆𝒕 の働きでつくられた集合をSとします。 Free functor 𝐹: 𝑺𝒆𝒕→𝑽𝒆𝒄𝒕 が生成する𝐹(𝑆)を次のように定義します。 𝐹(𝑆)の要素を、次のようなスカラー𝜆...
Forgetful functor とFree functor
Просмотров 3421 день назад
【 Forgetful functor とFree functor 】 二つのカテゴリー A, Bの間に、反対の向きを持つfunctorのペア F: A → B と G: B → Aがあって、A, Bのオブジェクト a, b について、Bの射 F(a) → b と Aの射 a → G(b) が同値である時、FをGのleft adjoint、GをFのright adjointと呼んで、F ⊣ G と表します。 今回のセッションでは、adjoint関係を満たす、二つのカテゴリー間の反対方向の向きをもつAdjoint functor F, Gの組 F ⊣ G の代表的な例を紹介しようと思います。 カテゴリー論的に興味深いのは、Free functorと呼ばれるfunctorと、Forgetful functor と呼ばれるfunctorの間の、次のようなadjoint関係です。    Fr...
unit と counit が存在すれば、adjunctionが成り立つ
Просмотров 6321 день назад
【 unit と counit が存在すれば、adjunctionが成り立つ 】 今回のセッションでは、前回のセッションの続編です。adjunctionを、unitとcounit を使って定義するのが目的です。 最初に、adjunctionが成り立っていると仮定した時に、unitとcounit がどういう性質を持つかを見ていきます。次に見る「同一射の三角図式」が可換になるという性質が重要です。 次に、adjunction 𝐹⊣ 𝐺が成り立っていることと、 「同一射の三角図式」を可換とするunit, counitが存在することが同値であるという定理を証明します。 この定理の証明のポイントは、unit, counitの存在から出発して、Part 2でみたadjunctionの定義を再現できることを示しているところにあります。 こうして、unitとcounit を使った定義が、adjunc...
adjunctionのもう一つの定義
Просмотров 5128 дней назад
【 adjunctionのもう一つの定義 】 今回のセッションから Part 3 「unit と counit」に入ります。 Part 2 で、functor F, Gが相互にadjointであることの定義を見てきました。 Part 3 では、それとは異なるadjunctionの定義を紹介しようと思います。 【 これまで見てきた adjunctionの定義を振り返る 】 最初に、これまで見てきた adjunctionの定義を振り返ってみようと思います。 二つのカテゴリー A と B の間に、反対向きの functor F と G があったとします。 F: A → B で、G: B → A ということです。 この時、Aのすべてのオブジェクト a と Bのすべてのオブジェクト b に対して、 射 F(a) → b が、射 a → G(b) と等価である時、functor F, G はad...
𝐹𝑟𝑒𝑒 ⊣ 𝐹𝑜𝑟𝑔𝑒𝑡𝑓𝑢𝑙 のペアではない Adjoint functor
Просмотров 8728 дней назад
【 𝐹𝑟𝑒𝑒 ⊣ 𝐹𝑜𝑟𝑔𝑒𝑡𝑓𝑢𝑙 のペアではない Adjoint functor 】 これまで見てきたAdjoint functorの例は、いずれも、𝐹𝑟𝑒𝑒 𝑓𝑢𝑛𝑐𝑡𝑜𝑟 ⊣ 𝐹𝑜𝑟𝑔𝑒𝑡𝑓𝑢𝑙 𝑓𝑢𝑛𝑐𝑡𝑜𝑟 のペアに形をしていました。 このセッションでは、𝐹𝑟𝑒𝑒 ⊣ 𝐹𝑜𝑟𝑔𝑒𝑡𝑓𝑢𝑙 のペアではない Adjoint functor の例を見ていきたいと思います。 【 functor ー×𝐵と functor (−)^𝐵 】 二つの集合𝐴, 𝐵 ∈ 𝑆𝑒𝑡が与えられた時、 𝐴×𝐵というの積の表記で、二つの集合の直積(デカルト積)を表します。𝑥 ∈ 𝐴, 𝑦 ∈ 𝐵の時、(𝑥, 𝑦) ∈ 𝐴×𝐵です。 また、𝐵^𝐴という冪乗の表記で、AからBの関数を表します。𝑓 ∈ 𝐵^𝐴の時、𝑓: 𝐴 → 𝐵です。𝐵^𝐴は、hom (A, B) = 𝑆𝑒𝑡(𝐴, 𝐵)と同じです。 集合...
Free functorとベクトル空間
Просмотров 78Месяц назад
Free functorとベクトル空間
Forgetful functor とFree functor
Просмотров 50Месяц назад
Forgetful functor とFree functor
Adjoint functorの定義
Просмотров 90Месяц назад
Adjoint functorの定義
Galois connections
Просмотров 87Месяц назад
Galois connections
Adjoint Operator
Просмотров 72Месяц назад
Adjoint Operator
Adjointとは何か?
Просмотров 100Месяц назад
Adjointとは何か?
カテゴリー論基礎 2 -- Adjoint --へのお誘い
Просмотров 115Месяц назад
カテゴリー論基礎 2 Adjoint へのお誘い
「カテゴリー論基礎」 Part 1-1 Category
Просмотров 239Месяц назад
「カテゴリー論基礎」 Part 1-1 Category
「カテゴリー論基礎」 Part 1-2 Functor
Просмотров 106Месяц назад
「カテゴリー論基礎」 Part 1-2 Functor
「カテゴリー論基礎」 Part 1-3 Natural Transformation
Просмотров 146Месяц назад
「カテゴリー論基礎」 Part 1-3 Natural Transformation
「カテゴリー論基礎」 Part 2-1 Limit
Просмотров 124Месяц назад
「カテゴリー論基礎」 Part 2-1 Limit
「カテゴリー論基礎」 Part 2-2 その他のLimit
Просмотров 158Месяц назад
「カテゴリー論基礎」 Part 2-2 その他のLimit
Church-Turing Thesisの変化と量子情報理論
Просмотров 101Месяц назад
Church-Turing Thesisの変化と量子情報理論
主要な計算複雑性クラスと対応するチューリングマシン
Просмотров 102Месяц назад
主要な計算複雑性クラスと対応するチューリングマシン
量子チューリングマシンとBQPクラス
Просмотров 63Месяц назад
量子チューリングマシンとBQPクラス

Комментарии

  • @ST-TheFlash
    @ST-TheFlash Месяц назад

    面白かったです!!

  • @sakesnare
    @sakesnare Месяц назад

    計算複雑性理論と型理論との接面のような理論があれば知りたいです。

    • @MaruyamaLectures
      @MaruyamaLectures Месяц назад

      計算複雑性理論は量子複雑性理論へと進化し、それは現在では「量子情報理論」の一分野になっていると思います。 量子情報理論は、量子コンピュータの「エラー訂正技術」などに実際的応用を持つ一方で、「エントロピー論」を媒介として現代の物理学の基礎理論として活発に研究されています。それは、コンピュータ・サイエンスの理論というより、物理学への接近を強めています。Suskindや日本の笠-高柳らがそうした流れを先導しています。 一方、型の理論の現在形は、Veovodskyが始めた Homotopy Type Theoryです。この分野では、数学の基礎理論としてのCategory論のHoTTバージョンへの書き換えが進んでいます。従来のCategory論をClassic Category Theoryと呼ぶこともあります。新しい型の理論は、新しいCategory論と一体のものになろうとしています。 少し単純化して言うと、計算複雑性理論は物理学の基礎の領域で、型の理論は数学の基礎の部分でもっとも活発に研究されているのかもしれません。 お尋ねの両者の「接面」に該当するは分かりませんが、僕が興味を持った理論を二つ紹介します。 一つは、『MIP* = RE定理」と言われるもので、量子複雑性の議論から、長く解かれていなかった数学の問題と物理学の問題を同時に解決しました。 「コンピュータ・サイエンスの現在 -- MIP*=RE定理とは何か?」www.marulabo.net/docs/cs-mipstar/ 「MIP*=RE 入門 -- Interactive Proofとnonlocal ゲーム --」 www.marulabo.net/docs/mipstar/ もう一つは、エントロピー論へのカテゴリー論の応用の動きです。 「エントロピー論とカテゴリー論」 www.marulabo.net/docs/info-entropy5-addendum/ 「エントロピー論の現在」 www.marulabo.net/docs/info-entropy5/ あと、個人的な哲学的・認識論的関心からは、「人口知能論」に両者の議論を援用するのは面白いと思っています。両者の「古典論」で十分だと思います。

    • @sakesnare
      @sakesnare Месяц назад

      @@MaruyamaLectures ご返信ありがとうございます。MIP*=RE定理のようにコンピューター・サイエンスが数学と物理の未解決問題をともに解決するケースがあるのですね。レクチャーの紹介もありがとうございます。また、カテゴリー論もエントロピーのような物理のようなトピックにも応用できることに驚きました。 ところで、先生のレクチャーは『言語の意味と数学的構造』から拝見しております。ここでおっしゃっている、「人工知能論への哲学的・認識論的関心」というのは、例えば『言語の意味と数学的構造』における「意味と形式は切り離せないという考え方」やこちらで言及していたファースの「状況の文脈」等のことだと思います。 認識論自体は広範な分野だと思うのですが、認識論自体が私は不勉強でして、概論的、もしくは入門的に「認識論とは何か」ということを知る手段(書籍等)を知る良い方法があれば教えていただけますと幸いです。

  • @westcoasttrap
    @westcoasttrap 2 месяца назад

    後半のお話は、望月教授がABC予想の証明のために構築した、宇宙際タイヒミューラー理論の一件を思い出しました。

  • @荻野宏
    @荻野宏 3 месяца назад

    専門外ですが、「数学セミナー 8月号 生成AIとこれからの数学」を購入しました。Leanが紹介されていましたが、よくわからず。ところが、この動画を視聴し足りない大きなピースが埋まりました。鍵はVoevodskyさんでした!ご紹介ありがとうございました。

  • @shota722bioshok
    @shota722bioshok 3 месяца назад

    ふむふむ

  • @RivusVirtutis
    @RivusVirtutis 3 месяца назад

    Voevodsky の指摘した論文が複雑になりすぎてエラーが蓄積されていても見過ごされリスクというのは、 京大の望月氏の長大な論文のあつかった分野があまりに広かったため、それら全てに精通した権威的数学者がいないために、それが正しいか間違っているかを決定できなくなっている問題ととても近いところにあると思いました。 数学が巨大化することで数学者自信が数学から疎外されるという自己疎外が起きています。 これを解決するにはコンピュータの力を使うほかないというのは全くその通りだとおもいます。

    • @MaruyamaLectures
      @MaruyamaLectures 3 месяца назад

      ポアンカレ予想を解いたペレルマンも、理解されなかったですね。

  • @RivusVirtutis
    @RivusVirtutis 3 месяца назад

    gpt4oはいつの間にかpythonとnetworkXを用いた隣接行列からのグラフの画像生成に対応しましたね。これはおそらく数学系のベンチマークの点を稼ぐために付けたしたのかもしれませんが。ただtransformer単体ではグラフの表現に問題があることは変わりませんね。

  • @kikaiserseasonform
    @kikaiserseasonform 4 месяца назад

    AIはまだまだ広大な可能性に満ちた分野

  • @RivusVirtutis
    @RivusVirtutis 4 месяца назад

    文系ですが、最近のシリーズのカテゴリー論とグラフ理論などを通じてLLMの論理能力にある種の落し穴があるのではないかというお話はとても勉強になります。 LLM、特にtransformerの構造を知った時にこれほどに唯名論的なものはないと思ったのですが、門外漢ながらLLMの限界は連続した高次元の空間の連続的パラメータで全てを捉えることに限界があると直感的に思っていましたが。 勝手ながらそういう事ともしかしたら関連するのではないかと少し思いながら見させてもらっています。

  • @RivusVirtutis
    @RivusVirtutis 5 месяцев назад

    取り扱い説明書に乗ってるような手順の説明の線画さえまったく模倣できないのがtransformerの画像生成ですもんね。 エゴンシーレの線画デッサンを模倣させようとしてもやはり線画はうまくいきませんし、手塚治虫レベルのデフォルメされた白黒のマンガですら模倣できません。 取説にしろ漫画にしろ線画を描写する抽象能力とグラフを生成する抽象能力は深いレベルでは同じものだと思います。 棒人間を普遍的に人と認識できる抽象能力というのは人類の知能の高度な抽象のあらわれだとおもいます。

  • @harukafuji1075
    @harukafuji1075 6 месяцев назад

    いつも楽しく拝聴させていただいています。ありがとうございます。 8:37 から数分、音が収録されていないようです。

  • @Kevin-sy7rx
    @Kevin-sy7rx 8 месяцев назад

    'Promo sm' 😢

  • @exzzor3550
    @exzzor3550 9 месяцев назад

    обалдеть

  • @JustAnUnnamedCat
    @JustAnUnnamedCat 9 месяцев назад

    I'll come back to this once I've learned japanese.

  • @増田紀宜
    @増田紀宜 Год назад

    3分00秒 の 雪玉 奥のやつはギザのピラミッドと 手前の 6角錐は水晶の結晶と 斜面の角度が同じだったりしますか!?

  • @student-beer
    @student-beer Год назад

    👍

  • @B0A0A
    @B0A0A Год назад

    いつも楽しんで視聴させて頂いております。 他の動画と比較すると、音量が小さいように感じますので、上げていただけると大変助かります。

  • @kurtdukes6336
    @kurtdukes6336 Год назад

    "promo sm"

  • @tuttisounddev1035
    @tuttisounddev1035 Год назад

    いつも有意義な講義ありがとうございます!

  • @nekokonekoko507
    @nekokonekoko507 Год назад

    ベナール対流って離散化したらボロノイ図にならないのかな。なんか似てるな。

  • @hexsight
    @hexsight Год назад

    自然淘汰!!!意識 ナビゲート!

  • @hexsight
    @hexsight Год назад

    匂い!!!

  • @akadatakanori3390
    @akadatakanori3390 Год назад

    いつも大変貴重なお話を無料で発信いただき、ありがとうございます。運動と感覚情報を数理モデルで解き明かし、一般臨床にどのように応用すべきかを毎日考えていますが、丸山先生の動画シリーズからたくさんのことを学びました。今後も楽しみにしています!

  • @hexsight
    @hexsight Год назад

    素晴らしい講義、ありがとうございました。

  • @nekokonekoko507
    @nekokonekoko507 Год назад

    ありがたいです。

  • @hexsight
    @hexsight Год назад

    LAMBECの理論 初めて知りました。 面白かったです。(方程式みたい) 貴重なレクチャーをありがとうございます。

  • @livedoorxmldtp
    @livedoorxmldtp Год назад

    私は、GPT-4が連想する力をもつのは、Transformer、ひいてはAttentionによってだと思っております。 Transformerの論文、”Attention Is All You Need”に、 Attention(Q, K, V ) = softmax(Q・Kの転置行列/√dk)V という式が出てきます。 つまり、GPTでも、AIではない一般的なプログラムでも K(Key)に対して、V(values)である値を返す という点では一緒なのですが、  一般的なプログラムは、検索対象Qとキー(K)が異なれば、    「わかりません」として、答えを返さないのに、  GPT(=Attention)の場合は、Q・Kの転置行列をかけて   (=検索対象とキーのベクトルの内積    =QとKの長さにCoS(類似度)をかけたもの)、   つまり、類似度に応じて割り引いて、値であるVを返してしまう ので、結果として、  一般のプログラムは、入力に対してぴったりのものでないと    値を返さない(=連想しない)けど、  GPTは、類似度で割り引いたものを返す    =類似したものを返すので、連想しているように見える のだと思います。  ただし、結局、QとKベクトルの表面的な類似度を見ているだけで、 本質的に体系的・演繹的に思考・判断して回答しているわけではないので、 目に見えるような類似性には、対応できるけど、 体系的・論理的に考えた話には弱いような気がします。

  • @ilabotakeda
    @ilabotakeda Год назад

    UniMath面白いなあ。数学的な証明記述を完全にChatGPTが自然言語との間で翻訳や理解出来たり、このソースを利用してCoTを実行したり、新たなUniMathのソースをChatGPTが書き下ろして貯めていくとか出来れば、それ自体が膨大な人類の資産になっていきそうですね😊

  • @Kilgora
    @Kilgora Год назад

    ChatGPTが意味を理解しているとすれば、何故、度々間違った答え、事実と違う回答をするのか? 意味を理解していない証拠ではないか?

  • @sakanosita
    @sakanosita Год назад

    大変わかりやすく勉強になります このような動画を公開してくださりありがとうございます

  • @shota722bioshok
    @shota722bioshok Год назад

    興味深く拝見させていただきました。浅学ながら1つ気になった点として、MIP*=RE定理はチューリングマシンの停止問題を確率的に解決できているのか?という疑問が湧きました。確実に停止するしないはわからないにしても確率的にはわかるのかと素人ながら疑問になりご質問僭越ながらさせていただきました

  • @tarosatsubatsu2847
    @tarosatsubatsu2847 Год назад

    8:00ごろの赤と青のペンキが上下に分かれるところの状態の数が10^46500000000000になるのはどう言う計算なのでしょうか…?

  • @user-UCvAlKf6pU2ED4sK_LV-nScA

    数学に疎いものです。 圏論がどう応用されているか知りたくて動画を拝見しています。 話の流れをほぼ理解できてない自覚があるのですが、 圏論のファンクタを使うときれいな形式化ができるので、それが適切な形式化かわからないが文法と意味の対応付けを圏論を使ってやってみた(結果適切だった?)、という話でしょうか。 つまり、きれいな意味のモデルを1つ見つけるために圏論を使う、みたいな応用の仕方でしょうか? Pregroupがベクトル空間と同じ構造をしているという話もありましたが、意味をベクトル空間でモデル化することが着想としてあって、そこからPregroupを対応するものとして選んでみたのような考え方でしょうか? あるいは、圏論の定理を使うと、演繹的に文法と同じ構造で意味を表現することができるという話でしょうか?

    • @MaruyamaLectures
      @MaruyamaLectures Год назад

      カテゴリー論の「応用」の見方が、ちょっと違うような気がします。 このセミナーで取り上げた言語理論DisCoCatの理論展開で中心的な役割を果たしているのは、カテゴリー論的な、次のような認識です。 ある理論Tともう一つの理論Mがあって、TからMへのFunctor Fが与えられた時、理論Mは理論Tのモデルとみなせる。あるいは、このMとFが、理論Tの「意味」を与えると見なすことができる。 こうした見方を、発見者の名前を取って、Lawvere のFunctorial Semantics と言います。カテゴリー論の成立期のもっとも重要な定理の一つです。この定理は、それ以前にもよく知られていた「理論」と「モデル」の関係を、カテゴリー論的に捉え返したものです。 DisCoCatは、このFunctorial Semantics を、言語理論に「応用」しようとしたのです。 「Functorial Semanticsの考え方を使えば、Syntax(文法の世界)をSemantics(意味のの世界)に対応づけられるはずだ」と。 このアプローチのメリットは、Syntaxの世界は、Chomsky-Lambek 以降それなりに形式化されているのに対して、Semantics の世界には、形式化された理論が存在しないというギャップを埋めることができる可能性があるということです。 「つまり、きれいな意味のモデルを1つ見つけるために圏論を使う、みたいな応用の仕方でしょうか?」 とおっしゃいますが、彼らの念頭にまずあったのは、「カテゴリー論のFunctorial Semantics の考え方を使えば、意味の形式的理論が構築できるはずだ」という考えです。こうした研究の目的・方向がカテゴリー論で与えられたのであって、単なる手段として、カテゴリー論を使ったわけではないと思います。(「圏論を使う」というのが、どういう意味なのかよくわからなかったのですが) それにしても、SyntaxからSemanticsへのFunctorを、どう構成すべきかという問題に、Functorial Semanticsが直接答えてくれるわけではありません。出発点(文法理論)と研究の方向(Functorial Semantics)が与えられただけです。そこから、実際の数学的作業が始まります。 うまいFunctorの構成を見つけて出来上がった、形式的な意味の理論は、「キレイ」というより、奇妙なものに僕には思えました。

  • @ilabotakeda
    @ilabotakeda Год назад

    コメントにご回答いただき、また動画にもして頂いて非常に興味深く拝見させていただいております。 今のchatGPTがそれこそひとつの答えの出力までに何兆回ものfloat演算を正確無比に行っているのにも関わらず、出す言葉として数桁の計算を間違ってみせる、と言うのは、ある意味ではそれ自体が知能の本質を探る非常に面白い素材ですね。 実用という事ではマイクロソフトに使われる形になるので、今後は恐らく他のAIモデルと直ぐに統合され構造も改変され、よりビジネス利用に強い形、ある程度の正確性担保もしながらAGIとして発展する方向で開発も進むとは思いますが、今のある意味フラットでナイーブな構造からの知見は、見てるだけで楽しくとても興味深い研究対象と思っています😊

  • @MultiYUUHI
    @MultiYUUHI Год назад

    数学の同じ問題に対して全然違う解答をしてきますねえ。今のところ。 GPTさん

  • @ilabotakeda
    @ilabotakeda Год назад

    自分も仰る通りの事を考えていました。人間には文系理系有りますが、文系的能力と理系的能力として違う部分がやはり1番は数学で、脳でも違う処理の上に、遺伝子的にも個人差があるのも既に明確なので、これはやはり基本的に違う処理であり、ロジックを完全に絞り込んで進めていくのは曖昧さをせっかく許容するようにしてきたAIの逆であり、まさに曖昧な処理なら得意の我々が元々コンピュータに任せたかった処理であり分野だろうと思います。 プログラムをchatGPTができないのも、1ビット、1論理違えば全くゴミと化す、と言うプログラムは、雰囲気でそれっぽいものを並べる自然言語とは全く異なるのでありまさに文系と理系処理の差のように思います。 大規模言語モデルではなく、専用のロジカルマシンを例えばchatHPTが自分の必要に応じて利用する、人間が計算機や電卓を必要に応じて利用する、フォン・ノイマンをも弾道計算に利用したように協調して答えを出す、要はchatGPTは世界中の電卓や専用ロジック、専用チェスAIと協調してAGIを実現する、という形が一番現実的でもあり、また、原理的にも正しいと思います。 複数の多種のAIが相互協調して全体としてAGIとなって行くことが次の発展のステップのひとつになるのかなと思っています。

    • @MaruyamaLectures
      @MaruyamaLectures Год назад

      コメントありがとうございます。 リプライが長くなりそうなので、別のページを作ろうと思っています。 途中までのリプライです。 --------------------------- 僕は、人間の様々な認識能力の中で、数学的な認識能力に一番興味があります。 自然の認識の変化でも、科学と技術の発展でも、それらの変化の背後にある一番大きな推進力であり基礎にもなっているのは、数学的な認識だと考えています。 人間の認識について少し単純化した議論だし、いろいろ異論は多いと思いますが、僕は、人間の知能の中核は「数学する能力」だと考えています。 ただ、現在主流の「人工知能」技術は、GPT-3.5を使ったTheorem Proverの失敗の総括で、Ilyaが述べているように、たとえ高校生レベルの問題でも数学の問題を解くことには全く手が出ないのです。 (Ilyaの発言とは明記されていないのですが、あんなことをはっきり言えるのは、彼しかいないと思います。違っていたらごめん。一方、Chat-GPTの論文には、彼は名を連ねていません。このことにも、僕は注目しています。) なぜ、大規模言語モデルは、数学ができないのか? それには理由があると思います。 大規模言語モデルは、機械翻訳モデルから派生したものです。それはある言語の文法的に正しい文を受理し、他の言語の文法的に正しい文に変換・生成する能力を持ちます。それはそれで素晴らしいものです。 そこでの意味理解は、基本的には、翻訳的意味理解ともいうべきものです。それは、  「 "I love you" の意味は、"私はあなたを愛している" ということである。」 と考えることです。 あるいは、同じことだと思いますが  「システムTが、 "I love you" を"私はあなたを愛している" に変換できるなら、システムTは、"I love you" の意味を理解している」 と考えることです。 システムTは、入力に与えられた語の並びS1を、別の語の並びS2に変換するシステムと考えることができます。ただ、こうした変換が可能であるためには、システムTに課せられる最低限の条件があります。それは、S1もS2も「文法的」に正しい語の並びでなければならないということです。 " I you love"は英語の文法にあっていませんのでシステムTは、それを入力として受け付けることはできません。また "私愛するあなた”は、日本語の文法にあっていませんので、システムTは、そうした出力をすることはできません。 システムTが、こうした文法性の要件を満たしているとして、次のように考えることができるでしょうか? 「システムTが、文法的に正しいシーケンスS1を文法的に正しいシーケンスS2に変換できる時、システムTはS1の意味を理解していると考えることができる。」 これは少しおかしいですね。こう言えるのは、出力S2の意味を我々が理解できる場合だけですね。少し変更しましょう。 「システムTが、文法的に正しいシーケンスS1を文法的に正しいシーケンスS2に変換でき、S2の意味を我々が理解できる時、システムTはS1の意味を理解していると考えることができる。」 これは、機械の意味理解についてのいい解釈かもしれません。大方の場合はそれでうまくいきそうです。機械の意味理解を、人間がその意味を理解できることに還元しているのが気になりますが、そこは当面は目をつぶることにしましょう。 ただ、こうした意味の理解だと、数学の問題の意味を考えると、そうそうに少し困ったことが起きます。多分、それは人間の意味理解の能力が、非常に広いからだと思います。一つの逃げ道は、数学のことなど考えないことなのですが。 「 1 + 1 = 2 」という文を考えましょう。この構文的に正しい式をシステムTは、「1たす1は2である」と正しい日本語に変換できるでしょう。我々はこの日本語の意味を理解できますので、Tは「 1 + 1 = 2 」の意味を理解していると考えることができます。 今度は、「 1 + 1 = 3 」という文を考えましょう。この構文的に正しい式をシステムTは、「1たす1は3である」と正しい日本語に変換できるでしょう。ただ困ったことに、我々はこの日本語の意味を、そのまま理解できるのです。ですから、先の解釈に従えば、Tは「 1 + 1 = 3 」の意味を理解していると考えるしかないのです。たとえ、我々は、「それは、数学的には間違っている」とわかっていたとしても。 別の言い方をすれば、変換システムT自体には、数学的には真である「 1 + 1 = 2 」と数学的には偽である「 1 + 1 = 3 」を区別する能力はないのです。「 1 = 1 」と「 1 = 0 」の区別のできないシステムに、数学的能力を期待することはできません。 もっと一般的に言えば、ある命題が現実の世界で真であるとか、物理的実在の世界で真であるとかの判断を機械に期待することはできません。ただ、そのことで機械の無能力さをあげつらうのは、僕の本意ではありません。それは、まず、なによりも、現実の中で生き、物理的実在に取り囲まれている人間に求められている仕事なのですから。 それでは、機械に数学的能力を期待するのは、難しいのでしょうか? 大規模言語モデルの上に数学的能力を構築するのが難しいからといって、まったくそうではないのです。 機械には、そうした回り道をせずとも、直接に、自分の力だけで、論理的・数学的に正しい推論を行う能力を持っているのです。 (途中です)

  • @PiyokunK7
    @PiyokunK7 Год назад

    本で分からなかった所がすっと腑に落ちました。ありがとうございます。

  • @PiyokunK7
    @PiyokunK7 Год назад

    丸山先生キャミ! 応援してまちゅ。

  • @jojoAtHanawa
    @jojoAtHanawa Год назад

    円安について質問したら、意味は正しく説明するのですが、例題1ドル100円が・・・の増減の説明が真逆に。私の昔の取り違え通りに間違っていうのが面白かった。指摘すると次第に訂正してくれましたけど・・・

  • @derekv210
    @derekv210 Год назад

    Love it, it’s different!! Find out how your competition ranks better - P R O M O S M.

  • @小野寺利浩
    @小野寺利浩 Год назад

    ありがとうございました。エンタングルメントがよくわかりました。

  • @kazuhiko7025
    @kazuhiko7025 2 года назад

    大変素晴らしい講義、ありがとうございます。聞こえにくいためアップロードの音量上げていただくと助かります。

  • @hatyh
    @hatyh 2 года назад

    この内容が214ビューなんて!もっと見られるべき。

  • @前田日明-w8u
    @前田日明-w8u 2 года назад

    こういうレクチャーがㇲッと解るような知能に産まれたかった。

  • @cmuller1593
    @cmuller1593 2 года назад

    😊 𝓟Ř𝔬𝓂𝔬𝐒ϻ