NIE PODDAWAJCIE SIE I NAGRYWAJCIE PROSZE!! Brakuje czegos takiego na polskim YT, i oczywiscie ze zasiegi beda niskie bo takich nerdow jak my nie jest za wiele!!
Czy wykorzystanie tutaj SMOTE dla polepszenia metryk ma sens? Czy w tym przypadku klasy są jeszcze wystarczająco zbalansowane żeby tego nie wykorzystywać??
hm, można balansować zbiór samplowaniem / nadawaniem wag dla przykładów. Ale jakbyś tutaj wykorzystał SMOTE do tekstu? SMOTE generuje syntetyczne przykłady podobne do zbioru danych - więc w sumie do TFIDFa można by wrzucać podobne słowa. W każdym razie ciekawy temat - jak byś spróbował to dodać do naszego kodu z odcinka (dostępny tutaj ml-workout.pl/kod) - to daj znać jaki to dało efekt! :)
Odpowiedź to F1 Score! Aż kusiło, żeby dodać go do metryk w tych eksperymentach :D
Super materiał!
dzięki! :)
Świetny film, dzięki wam duzo sie ucze :) pozdrawiam i czekam na nastepne filmy!
Super, miło nam to słyszeć - dzięki! :)
Jak zwykle super, konkretnie, z kodem i teoria! :).
Co do metryki to F1 score, ale tez można użyć wartości pola pod krzywą Precision-Recall :D
Dzięki! Super pomysł z metrykami 💪🏻
NIE PODDAWAJCIE SIE I NAGRYWAJCIE PROSZE!! Brakuje czegos takiego na polskim YT, i oczywiscie ze zasiegi beda niskie bo takich nerdow jak my nie jest za wiele!!
Dzięki, miło nam!
Możliwy jest jednoczesny tuning hiperparametrów modelu wraz z tuningiem thresholdu?
Super
dzięki! :)
Czy wykorzystanie tutaj SMOTE dla polepszenia metryk ma sens? Czy w tym przypadku klasy są jeszcze wystarczająco zbalansowane żeby tego nie wykorzystywać??
hm, można balansować zbiór samplowaniem / nadawaniem wag dla przykładów. Ale jakbyś tutaj wykorzystał SMOTE do tekstu?
SMOTE generuje syntetyczne przykłady podobne do zbioru danych - więc w sumie do TFIDFa można by wrzucać podobne słowa.
W każdym razie ciekawy temat - jak byś spróbował to dodać do naszego kodu z odcinka (dostępny tutaj ml-workout.pl/kod) - to daj znać jaki to dało efekt! :)
F1?
tak, dokładnie! :)