Métricas para Clasificadores de Machine Learning ➤ Matriz de Confusión Precision Accuracy Recall F1

Поделиться
HTML-код
  • Опубликовано: 5 ноя 2024

Комментарии • 19

  • @CodigoMaquina
    @CodigoMaquina  2 года назад +4

    👉 Xiperia ofrece consultoría empresarial que transforma datos en conocimiento accionable para alcanzar los objetivos de tu negocio. Conoce más en www.xiperia.com

  • @edwardbrandt4868
    @edwardbrandt4868 Год назад +4

    Primeramente, agradecer lo excelente que es este canal llevando el conocimiento de ML en nuestra lengua, eso es impagable. Como aporte a este video quiero indicar la accuracy o exactitud es una metrica global, que indica la calidad del modelo para predecir los estados o respuestas cuando trabajamos con data supervisada. En términos simples la probabilidad de predecir cualquiera de los estados defenidos. Ahora recall y precisión no son globales como se presentó. Precison es la probabilidad del modelo de predecir un estado en particular, en este caso saludable o mortal. Por lo tanto cuando hablamos de precision debemos hacer referencia en su valor a que estado esta referencia. Lo mismo con recall o sensibilidad donde corresponde a la probabilidad de que el modelo capture la condicion particular. Es decir tendremos un recall para saludable y uno para mortal, no global. Como sugerencia la matriz de confusion si bien se puede mostrar en términos contables, es mas ludica cuando se mueatra en términos de porcentajes, y esto porque la diagonal de la matriz representa el recall que el modelo aplica al estado real. Me parecio miy bien explicar el concepto de data desbalanceada, ahora el que el clasificador tenga calificativos depende de la data, del modelo elegido, sus hiperparametros y de normalizacion o standarizacion escogida, dado que en el ejemplo se utilizo arbol de decisión no requiere normalizar la data en cuanto a modelos como svm que realizan clasificaciones basedas en distancia euclidiana para la data. Es un gran trabajo el que desarrollas, un abrazo.

    • @CodigoMaquina
      @CodigoMaquina  Год назад

      Estimado Edward gracias por toda la información que brindas. Comentarios como el tuyo son aportes muy valiosos.

  • @fpicado1
    @fpicado1 8 месяцев назад +2

    De los mejores canales por mucho, mil gracias por esto!

    • @CodigoMaquina
      @CodigoMaquina  2 месяца назад

      Muchas gracias por tus palabras!!!

  • @carlosandrestellocardenas7536
    @carlosandrestellocardenas7536 2 года назад +1

    Excelente su trabajo para los que estamos aprendiendo. Muchas Gracias

    • @CodigoMaquina
      @CodigoMaquina  2 года назад

      Gracias a ti Carlos, por tomarte el tiempo de comentar. Saludos!!

  • @alberthpinco3543
    @alberthpinco3543 9 месяцев назад +1

    Gran contenido, muy buena explicación del tema y del código

    • @CodigoMaquina
      @CodigoMaquina  2 месяца назад

      Muchas gracias por tus palabras!!!

  • @darkstyllv9251
    @darkstyllv9251 2 года назад +1

    Muchas gracias! Lo que necesitaba!!!

    • @CodigoMaquina
      @CodigoMaquina  2 года назад

      Es un placer leer que los videos son de utilidad. Ese es justo su propósito :)

  • @TOTE77
    @TOTE77 Год назад +1

    Excelente aporte

  • @joseernestomoralesventura9286
    @joseernestomoralesventura9286 Год назад +1

    Como siempre, gracias! Me ha ayudado bastante tu explicación.

    • @CodigoMaquina
      @CodigoMaquina  Год назад

      @joseernestomoralesventura9286 muchas gracias por seguir el contenido del canal!

  • @yuniorbatista2416
    @yuniorbatista2416 Год назад +1

    Los verdaderos positivos deberian estar en la parte superior Izquierda porque efectivamente eran sanas y se clasificron como sanas?

    • @CodigoMaquina
      @CodigoMaquina  Год назад +1

      Hola Yunior. Gracias por la pregunta. Te comento que con respecto a la posición de los verdaderos positivos en la matriz de confusión, no hay un estándar (hasta donde tengo conocimiento) para ponerlos en la parte superior izquierda o en la parte inferior derecha, siempre cuando se organicen las otras celdas y etiquetas en función de su posición. Lo más importante es llevarse es el entendimiento de los falsos positivos/negativos y los verdaderos positivos/negativos. Te agradezco tu interacción y el seguimiento al contenido de canal :)

    • @joseernestomoralesventura9286
      @joseernestomoralesventura9286 Год назад

      ​@@CodigoMaquina eso veo, buscando información sobre lo que retorna la matriz de confusión se encuentra que la respuesta queda en esta forma ( ('TN', 'FP'), ('FN','TP') ) . Lo mismo que preguntas @yuniorbatista2416 lo puedes reinterpretar con esto. En base a esto debes ubicar correctamente las etiquetas de tu matriz de confusión (para que no te confundas jajajaja)

  • @brayanneciosup9873
    @brayanneciosup9873 2 месяца назад

    tengo estos resultados de mis metricas, sobre un dominio de 1=persona enferma y 0= persona sana.
    **METRICAS DE ENTRENAMIENTO RF:
    {'Accuracy': 0.8651421778709294, 'Precision': np.float64(0.9462677453823843), 'Recall': np.float64(0.7746329272102468), 'F1 score': np.float64(0.8518912976260006), 'Specificity': np.float64(0.9558952512216514)}
    **METRICAS DE VALIDACION RF:
    {'Accuracy': 0.8369343065693431, 'Precision': np.float64(0.9072964399013042), 'Recall': np.float64(0.7508751458576429), 'F1 score': np.float64(0.82170790103751), 'Specificity': np.float64(0.9231443600233782)}
    **METRICAS DE PRUEBAS RF:
    {'Accuracy': 0.8238213399503722, 'Precision': np.float64(0.9072011878247959), 'Recall': np.float64(0.7186121728903264), 'F1 score': np.float64(0.8019688269073011), 'Specificity': np.float64(0.927536231884058)}
    y el AUC-ROC es 0.88, estara bien el modelo para poder desplegarlo?. De antemano muchas gracias