👉 Xiperia ofrece consultoría empresarial que transforma datos en conocimiento accionable para alcanzar los objetivos de tu negocio. Conoce más en www.xiperia.com
Primeramente, agradecer lo excelente que es este canal llevando el conocimiento de ML en nuestra lengua, eso es impagable. Como aporte a este video quiero indicar la accuracy o exactitud es una metrica global, que indica la calidad del modelo para predecir los estados o respuestas cuando trabajamos con data supervisada. En términos simples la probabilidad de predecir cualquiera de los estados defenidos. Ahora recall y precisión no son globales como se presentó. Precison es la probabilidad del modelo de predecir un estado en particular, en este caso saludable o mortal. Por lo tanto cuando hablamos de precision debemos hacer referencia en su valor a que estado esta referencia. Lo mismo con recall o sensibilidad donde corresponde a la probabilidad de que el modelo capture la condicion particular. Es decir tendremos un recall para saludable y uno para mortal, no global. Como sugerencia la matriz de confusion si bien se puede mostrar en términos contables, es mas ludica cuando se mueatra en términos de porcentajes, y esto porque la diagonal de la matriz representa el recall que el modelo aplica al estado real. Me parecio miy bien explicar el concepto de data desbalanceada, ahora el que el clasificador tenga calificativos depende de la data, del modelo elegido, sus hiperparametros y de normalizacion o standarizacion escogida, dado que en el ejemplo se utilizo arbol de decisión no requiere normalizar la data en cuanto a modelos como svm que realizan clasificaciones basedas en distancia euclidiana para la data. Es un gran trabajo el que desarrollas, un abrazo.
Hola Yunior. Gracias por la pregunta. Te comento que con respecto a la posición de los verdaderos positivos en la matriz de confusión, no hay un estándar (hasta donde tengo conocimiento) para ponerlos en la parte superior izquierda o en la parte inferior derecha, siempre cuando se organicen las otras celdas y etiquetas en función de su posición. Lo más importante es llevarse es el entendimiento de los falsos positivos/negativos y los verdaderos positivos/negativos. Te agradezco tu interacción y el seguimiento al contenido de canal :)
@@CodigoMaquina eso veo, buscando información sobre lo que retorna la matriz de confusión se encuentra que la respuesta queda en esta forma ( ('TN', 'FP'), ('FN','TP') ) . Lo mismo que preguntas @yuniorbatista2416 lo puedes reinterpretar con esto. En base a esto debes ubicar correctamente las etiquetas de tu matriz de confusión (para que no te confundas jajajaja)
tengo estos resultados de mis metricas, sobre un dominio de 1=persona enferma y 0= persona sana. **METRICAS DE ENTRENAMIENTO RF: {'Accuracy': 0.8651421778709294, 'Precision': np.float64(0.9462677453823843), 'Recall': np.float64(0.7746329272102468), 'F1 score': np.float64(0.8518912976260006), 'Specificity': np.float64(0.9558952512216514)} **METRICAS DE VALIDACION RF: {'Accuracy': 0.8369343065693431, 'Precision': np.float64(0.9072964399013042), 'Recall': np.float64(0.7508751458576429), 'F1 score': np.float64(0.82170790103751), 'Specificity': np.float64(0.9231443600233782)} **METRICAS DE PRUEBAS RF: {'Accuracy': 0.8238213399503722, 'Precision': np.float64(0.9072011878247959), 'Recall': np.float64(0.7186121728903264), 'F1 score': np.float64(0.8019688269073011), 'Specificity': np.float64(0.927536231884058)} y el AUC-ROC es 0.88, estara bien el modelo para poder desplegarlo?. De antemano muchas gracias
👉 Xiperia ofrece consultoría empresarial que transforma datos en conocimiento accionable para alcanzar los objetivos de tu negocio. Conoce más en www.xiperia.com
Primeramente, agradecer lo excelente que es este canal llevando el conocimiento de ML en nuestra lengua, eso es impagable. Como aporte a este video quiero indicar la accuracy o exactitud es una metrica global, que indica la calidad del modelo para predecir los estados o respuestas cuando trabajamos con data supervisada. En términos simples la probabilidad de predecir cualquiera de los estados defenidos. Ahora recall y precisión no son globales como se presentó. Precison es la probabilidad del modelo de predecir un estado en particular, en este caso saludable o mortal. Por lo tanto cuando hablamos de precision debemos hacer referencia en su valor a que estado esta referencia. Lo mismo con recall o sensibilidad donde corresponde a la probabilidad de que el modelo capture la condicion particular. Es decir tendremos un recall para saludable y uno para mortal, no global. Como sugerencia la matriz de confusion si bien se puede mostrar en términos contables, es mas ludica cuando se mueatra en términos de porcentajes, y esto porque la diagonal de la matriz representa el recall que el modelo aplica al estado real. Me parecio miy bien explicar el concepto de data desbalanceada, ahora el que el clasificador tenga calificativos depende de la data, del modelo elegido, sus hiperparametros y de normalizacion o standarizacion escogida, dado que en el ejemplo se utilizo arbol de decisión no requiere normalizar la data en cuanto a modelos como svm que realizan clasificaciones basedas en distancia euclidiana para la data. Es un gran trabajo el que desarrollas, un abrazo.
Estimado Edward gracias por toda la información que brindas. Comentarios como el tuyo son aportes muy valiosos.
De los mejores canales por mucho, mil gracias por esto!
Muchas gracias por tus palabras!!!
Excelente su trabajo para los que estamos aprendiendo. Muchas Gracias
Gracias a ti Carlos, por tomarte el tiempo de comentar. Saludos!!
Gran contenido, muy buena explicación del tema y del código
Muchas gracias por tus palabras!!!
Muchas gracias! Lo que necesitaba!!!
Es un placer leer que los videos son de utilidad. Ese es justo su propósito :)
Excelente aporte
@TOTE77 muchas gracias!!!
Como siempre, gracias! Me ha ayudado bastante tu explicación.
@joseernestomoralesventura9286 muchas gracias por seguir el contenido del canal!
Los verdaderos positivos deberian estar en la parte superior Izquierda porque efectivamente eran sanas y se clasificron como sanas?
Hola Yunior. Gracias por la pregunta. Te comento que con respecto a la posición de los verdaderos positivos en la matriz de confusión, no hay un estándar (hasta donde tengo conocimiento) para ponerlos en la parte superior izquierda o en la parte inferior derecha, siempre cuando se organicen las otras celdas y etiquetas en función de su posición. Lo más importante es llevarse es el entendimiento de los falsos positivos/negativos y los verdaderos positivos/negativos. Te agradezco tu interacción y el seguimiento al contenido de canal :)
@@CodigoMaquina eso veo, buscando información sobre lo que retorna la matriz de confusión se encuentra que la respuesta queda en esta forma ( ('TN', 'FP'), ('FN','TP') ) . Lo mismo que preguntas @yuniorbatista2416 lo puedes reinterpretar con esto. En base a esto debes ubicar correctamente las etiquetas de tu matriz de confusión (para que no te confundas jajajaja)
tengo estos resultados de mis metricas, sobre un dominio de 1=persona enferma y 0= persona sana.
**METRICAS DE ENTRENAMIENTO RF:
{'Accuracy': 0.8651421778709294, 'Precision': np.float64(0.9462677453823843), 'Recall': np.float64(0.7746329272102468), 'F1 score': np.float64(0.8518912976260006), 'Specificity': np.float64(0.9558952512216514)}
**METRICAS DE VALIDACION RF:
{'Accuracy': 0.8369343065693431, 'Precision': np.float64(0.9072964399013042), 'Recall': np.float64(0.7508751458576429), 'F1 score': np.float64(0.82170790103751), 'Specificity': np.float64(0.9231443600233782)}
**METRICAS DE PRUEBAS RF:
{'Accuracy': 0.8238213399503722, 'Precision': np.float64(0.9072011878247959), 'Recall': np.float64(0.7186121728903264), 'F1 score': np.float64(0.8019688269073011), 'Specificity': np.float64(0.927536231884058)}
y el AUC-ROC es 0.88, estara bien el modelo para poder desplegarlo?. De antemano muchas gracias