Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
なんとなく掛け算とか割り算とかを何回かした結果をイメージするとフロートのほうが多い感じはしたけど詳しい解説助かる🤩
「頻度が低いほど情報量が大きい」というのは直感にも合いますね。表しか出ないと思ってたコインを振り続けて、あるとき急に裏が出たら「このコインは裏も出るのか」と気づくことができるので。(動画の内容を言い換えただけですが、こう考えることで自分はしっくり来ました)
コメントありがとうございます。そうですね。情報量は驚きの度合いとも解釈できますね!
この動画は目からウロコでした!👀✨私はプログラミングを学び始めたばかりで、intとfloatの違いについてはあまり考えたことがありませんでした。しかし、この動画を見て、情報量の本質的な違いとその計算方法について、誰も教えてくれなかった重要な知識を得ることができました。特に、情報エントロピーの計算方法と、それがプログラミングにおける型選択にどのように影響するかの説明は、私のこれからの学習にとって非常に価値があります。この動画を見る前は、ただ漠然とコードを書いていましたが、今は適切な型を選択することの重要性を理解し、より効率的で正確なプログラミングができるようになりました。本当にありがとうございます!これからもこのチャンネルを応援しています。🚀🌟
いつもコメントありがとうございます。次の動画も、お楽しみにお待ちください!
冒頭の問として、その型が送れる「最大」の情報量と、ある条件下で送れる情報量がごっちゃになってるような気がした。
コメントありがとうございます!「最大」の情報量を計算するためにも、一定の条件(=確率分布)を仮定する必要があります。例えば、intとfloatでは、情報量が最大となる時の確率分布は異なります。異なる確率分布の下での、情報量を比べる事は、実務上あまりないかなと思います。
@@RUclipsKosen あれですね。同じなのは情報量と言うよりは、メモリの確保領域が32個で同じという話ですかね。多分どちらも単位がbitでややこしくなってる気がしました。
そうですね。物理サイズはどちらも32bitなので、同じと言っていいと思います。情報量を言及する時は、ランダムな1ビット変数(コインの裏表情報)の情報量を1単位として、30ビット"分"というような言い方をしましたが、それをちゃんと説明してなかったので、紛らわしかったかもしれないです。次回からの改善につなげます。ありがとうございます!!
ここでの議論の本質は、データの発生確率が0〜1の一様分布を仮定したことであって、本質的なfloatとintのエントロピーとは関係ないのではないでしょうか。もしデータの発生確率がこのようにわかっているならば、unsigend intにして、最小桁の重みを1/2^32にすれば均等なサンプリングになるので、そちらのほうが保持できるエントロピーは多くなるように思いますが、いかがでしょうか。
結局CPUは2進数しか扱うことができないゆえに離散化の仕方に差が発生するってことですね。型には主義しなくちゃ。
そういうことですね。いつもコメントありがとうございます!
情報量の定義すっかり忘れてて最初intとfloat情報量同じなんじゃねと思ってしまいました。情報理論の復習になりました。あと、固定小数点表示に関してQ形式というのがあるのをはじめ知りました。
コメントありがとうございます!お役に立てて光栄です。次の動画もぜひご覧ください☺️
実務では金輪際役に立ちません
なんの実務されてるか、分からないですが、情報理論は、かなり汎用的に使える概念です。何かわからないことがあったら、気兼ねなく、質問して下さい😊
なんとなく掛け算とか割り算とかを何回かした結果をイメージするとフロートのほうが多い感じはしたけど詳しい解説助かる🤩
「頻度が低いほど情報量が大きい」というのは直感にも合いますね。
表しか出ないと思ってたコインを振り続けて、あるとき急に裏が出たら「このコインは裏も出るのか」と気づくことができるので。
(動画の内容を言い換えただけですが、こう考えることで自分はしっくり来ました)
コメントありがとうございます。
そうですね。情報量は驚きの度合いとも解釈できますね!
この動画は目からウロコでした!👀✨
私はプログラミングを学び始めたばかりで、intとfloatの違いについてはあまり考えたことがありませんでした。
しかし、この動画を見て、情報量の本質的な違いとその計算方法について、誰も教えてくれなかった重要な知識を得ることができました。
特に、情報エントロピーの計算方法と、それがプログラミングにおける型選択にどのように影響するかの説明は、私のこれからの学習にとって非常に価値があります。
この動画を見る前は、ただ漠然とコードを書いていましたが、今は適切な型を選択することの重要性を理解し、より効率的で正確なプログラミングができるようになりました。
本当にありがとうございます!これからもこのチャンネルを応援しています。🚀🌟
いつもコメントありがとうございます。
次の動画も、お楽しみにお待ちください!
冒頭の問として、その型が送れる「最大」の情報量と、ある条件下で送れる情報量がごっちゃになってるような気がした。
コメントありがとうございます!
「最大」の情報量を計算するためにも、一定の条件(=確率分布)を仮定する必要があります。
例えば、intとfloatでは、情報量が最大となる時の確率分布は異なります。
異なる確率分布の下での、情報量を比べる事は、実務上あまりないかなと思います。
@@RUclipsKosen あれですね。同じなのは情報量と言うよりは、メモリの確保領域が32個で同じという話ですかね。
多分どちらも単位がbitでややこしくなってる気がしました。
そうですね。物理サイズはどちらも32bitなので、同じと言っていいと思います。
情報量を言及する時は、ランダムな1ビット変数(コインの裏表情報)の情報量を1単位として、30ビット"分"というような言い方をしましたが、それをちゃんと説明してなかったので、紛らわしかったかもしれないです。
次回からの改善につなげます。
ありがとうございます!!
ここでの議論の本質は、データの発生確率が0〜1の一様分布を仮定したことであって、本質的なfloatとintのエントロピーとは関係ないのではないでしょうか。もしデータの発生確率がこのようにわかっているならば、unsigend intにして、最小桁の重みを1/2^32にすれば均等なサンプリングになるので、そちらのほうが保持できるエントロピーは多くなるように思いますが、いかがでしょうか。
結局CPUは2進数しか扱うことができないゆえに離散化の仕方に差が発生するってことですね。
型には主義しなくちゃ。
そういうことですね。
いつもコメントありがとうございます!
情報量の定義すっかり忘れてて最初intとfloat情報量同じなんじゃねと思ってしまいました。情報理論の復習になりました。あと、固定小数点表示に関してQ形式というのがあるのをはじめ知りました。
コメントありがとうございます!
お役に立てて光栄です。
次の動画もぜひご覧ください☺️
実務では金輪際役に立ちません
なんの実務されてるか、分からないですが、情報理論は、かなり汎用的に使える概念です。
何かわからないことがあったら、気兼ねなく、質問して下さい😊