Entropía e Información.

Поделиться
HTML-код
  • Опубликовано: 5 сен 2024
  • Se deduce la entropía dentro del campo de la Teoría de la información.
    SUSCRÍBETE AL CANAL-
    bit.ly/3DRY6sB

Комментарии • 9

  • @gonzalogonzalezgiraldez7617
    @gonzalogonzalezgiraldez7617 2 месяца назад +1

    hola, bueno tu video, otros no se meten tan en el detalle. no se si pudieras hacer vun video con este concepto comparando una organizacion muy caotica con otra mas estructurada y ordenada. relacionando la cantidad de informacion necesaria para describir cada una de estas organizaciones. gracias

    • @JavArro
      @JavArro  2 месяца назад

      En el futuro intentaré hacer un vídeo de eso. Gracias y saludos.

  • @dionisioambrona5318
    @dionisioambrona5318 Год назад

    He vuelto a ver el vídeo y encuentro cada vez más detalles. Gracias por el tiempo que dedica para compartir.

  • @anthonycasapia3307
    @anthonycasapia3307 Год назад

    Como siempre bastante entendible. Gracias bro por tus aportes. Saludos desde PERU

  • @oterootero3141
    @oterootero3141 Год назад

    Estupendo gracias

  • @dionisioambrona5318
    @dionisioambrona5318 Год назад

    Gran vídeo

  • @markrg8095
    @markrg8095 Год назад

    Excelente video

  • @ricardoolivabravo9590
    @ricardoolivabravo9590 Год назад

    Estimado, una consulta, cómo sería la entriopia para estos casos: (1) Sea x el resultado de tirar un dado e y una variable binaria que indica si el resultado es par o impar. ¿Cuál es la entropía condicional de y dado x? (2) Considere una variable aleatoria x con una entropía de 12 bits. Ahora construyamos otra variable aleatoria y que es más o menos la raíz cuadrada de x con probabilidad 50/50. ¿Cuál es la entropía de y? (3) Imagina que juegas un juego de tirar una moneda en el que cuentas cuánto tiempo pasa hasta que aciertas en la primera cruz. ¿Cuál es la entriopia del resultado "pegar cruz en el tercer lanzamiento"?