[Deep Learning 101] Cross Entropy 크로스엔트로피 손실함수를 알아보자

Поделиться
HTML-код
  • Опубликовано: 20 сен 2024

Комментарии • 34

  • @신동호-i4j
    @신동호-i4j 4 месяца назад +3

    감사합니다 박사님
    박사님 덕택에 제 식견이 넓어지는 것 같습니다.
    스스로 이해한 내용을 최대한 쉽게 풀어 설명하듯이 블로그에 포스팅하고 있으나 교수님의 강의와 비교하여 보면 더욱 정진해야겠다는 생각이 듭니다.
    오늘 하루도 건강하시고 좋은 하루 되세요.

    • @phdshinAI
      @phdshinAI  4 месяца назад +1

      네 안녕하세요! 힘이되는 격려말씀에 감사드립니다. 배우고 익히신 것들을 쉽게 블로그를 통해 나누어 주고 계시다니, 왠지 저와 같은 마음을 가진 분을 만난것 같아 저도 기쁩니다. 어떤 형태의 강의가 되었든, 여러 다양한 루트로 배울 때, 모든 것들이 다 새로 배우시는 분들께 도움이 된다고 생각합니다. 항상 건강하시고, 좋은 하루 되세요 감사합니다!

  • @gdty74357g
    @gdty74357g Месяц назад +1

    깊은 통찰력에 감탄하고 갑니다. 크로스 엔트로피가 궁금해서 검색해서왔지만 나머지 강의들도 들어보겠습니다. 보통 수식만 나열하는 설명을 하는데 이해하기 쉬운 비유로 설명을 해주시니 정말 좋습니다. "단순하게 설명할 수 없다면 충분히 이해하지 못한 것이다" 라는 말이 있다죠. 나중에 AI 엔지니어로 취업하게 되면 후원 거하게 하겠습니다

    • @phdshinAI
      @phdshinAI  25 дней назад

      네 시청해주셔서 감사합니다. AI엔지니어로 취업하는 그날이 속히 오길 기도합니다~!! 감사합니다. 제가 바라는 것은 AI기술이 많은 사람들을 유익하게 만드는 세상이 되는 것입니다. AI 엔지니어로 멋진 미래를 열어가는데 앞장서신다면 그게 제가 바라는 후원이 되겠습니다. 감사합니다!

  • @jingyu_park
    @jingyu_park 26 дней назад +1

    단순히 정답에서 멀리 떨어져 있을 수록 loss가 커 학습이 잘된다 정도만 알고 있었는데, CrossEntropy가 정보이론 기댓값에서 나온 식이라는 것을 보고 원리가 이해되기 시작했습니다. 백그라운드부터 설명해준신 점 정말 감사드립니다!!

    • @phdshinAI
      @phdshinAI  25 дней назад +1

      네 시청해주셔서 감사합니다! 앞으로도 많은 시청 부탁드려요~

  • @bobae1357
    @bobae1357 10 месяцев назад +3

    이해하기 힘든 부분들을 쉬운 예로 설명해주시니까 너무 좋아요! 인터넷 블로그나 영상을 봐도 기초부터 가르쳐주지않고 냅다 수학 수식어로써 설명을 해줘서 이해하기 힘들었는데, 이렇게 차근차근 설명해주시니 너무 좋습니다.

    • @phdshinAI
      @phdshinAI  10 месяцев назад

      설명이 쉽고 이해하기 편하셨다니 저도 영상을 만든 보람이 느껴집니다. 제 영상들을 통해 기본적인 개념을 익히신다면, 또 다른 여러 좋은 채널들의 다른 좋은 영상들도 이해하시는데 도움이 될거라 생각이 들어요. 감사합니다. 앞으로도 많은 시청 부탁드려요!

  • @MrSkelver
    @MrSkelver 5 месяцев назад +5

    레전드 설명입니다

    • @phdshinAI
      @phdshinAI  5 месяцев назад

      앗 감사합니다!! 앞으로도 유익한 영상 많이 올리도록 노력하겠습니다!

  • @이종호-w5k
    @이종호-w5k Месяц назад +1

    쉬운 설명 감사합니다 ~~

    • @phdshinAI
      @phdshinAI  Месяц назад

      저도 감사드려요😊

  • @waynpark58
    @waynpark58 Месяц назад +1

    매우 우수한 설명!

    • @phdshinAI
      @phdshinAI  Месяц назад

      넵 감사합니다! 앞으로도 많은 시청 부탁드려요~

  • @3821lhg
    @3821lhg Месяц назад +1

    정말 감사합니다

    • @phdshinAI
      @phdshinAI  Месяц назад

      네 시청해주셔서 감사합니다~!

  • @woonjaeleem7762
    @woonjaeleem7762 4 месяца назад +1

    영상 잘 들었습니다. 감사합니다.

    • @phdshinAI
      @phdshinAI  4 месяца назад

      시청해 주셔서 감사드립니다. 앞으로도 많은 시청 부탁드려요. 감사합니다!

  • @gunduqrkdxhdrkd94
    @gunduqrkdxhdrkd94 3 месяца назад +1

    좋은 강의 감사합니다

    • @phdshinAI
      @phdshinAI  3 месяца назад

      도움이 되셨다니 다행입니다. 저도 감사드립니다!

  • @LioJeon
    @LioJeon 7 месяцев назад +1

    와.. 설명이 너무 깔씀하고 좋습니다. 감사합니다

    • @phdshinAI
      @phdshinAI  7 месяцев назад

      도움이 되셨다니 다행입니다. 감사합니다!!

  • @chxnmx
    @chxnmx 4 месяца назад +1

    너무 좋은 강의 감사합니다!!!!!

    • @phdshinAI
      @phdshinAI  4 месяца назад

      도움이 되셨다니 저도 기쁩니다! 시청해주셔서 감사합니다

  • @iridium3
    @iridium3 9 месяцев назад +2

    안녕하세요 박사님 항상 잘 보고있습니다
    그렇다면 cross entropy 함수는 log scale을 기반으로 예측 값의 loss가 큰 weight element의 값을 더 극단적으로 업데이트 하는 것에서 장점을 가지는 것이라 이해하면 될까요?
    또 궁금한 부분은 11분 30초 즈음 엔트로피 계산에서
    같은 기댓값 조건에서 전체적으로 확률이 중간 값 주변으로 분포하는 팀이 엔트로피가 높다고 하셨는데,
    p*log(1/p)를 미분할 경우 1/e 에서 최댓값을 가지는데, 그렇다면 정보이론에서 다루는 엔트로피에서는 1/e (약 0.37) 값을 가장 예측하기 힘든 값으로 보는 것인가요?
    항상 좋은 강의 감사드립니다

    • @iridium3
      @iridium3 9 месяцев назад +2

      아 전체 엔트로피 식을 보면 -(x*log(x)+(1-x)log(1-x)) 인데 이 함수의 경우 1/2 에서 최댓값을 갖네요 이해되었습니다!
      혹시 저처럼 착각하시는 분들 계실 수 있으니 글은 삭제하지 않고 두겠습니다. 감사합니다

    • @phdshinAI
      @phdshinAI  9 месяцев назад

      네 좋은질문과 훌륭한 답변 모두 감사드립니다! 맞습니다 이진 (binary)엔트로피 전체식을 고려해보면 1/2일때 엔트로피가 가장 높습니다. 열심히 공부하시는데 반드시 좋은 결실을 맺으시길 바랍니다 👍🏻

  • @lkh3876
    @lkh3876 3 месяца назад +1

    똥같은 교수들 말고 이런 강의가 널리 보급되야 합니다.
    어려운걸 어렵게 설명하는것은 결국 그것에 대해 본인도 잘 모르는것이고, 어려운것을 초등학생도 이해시킬수 있게 설명할때 진짜 제대로 아는것 이라고 했습니다.
    개인적으로 크로스 엔트로피에 대해 이것보다 더 잘 설명한 강의가 없는것같네요.

    • @phdshinAI
      @phdshinAI  2 месяца назад

      과한 칭찬에 몸둘바를 모르겠습니다! 물론 저보다도 훨씬 훌륭하게 가르치는 교수님들도 분명 많이 계시겠지만, 그래도 힘이 되는 댓글에 진심 감사를 드립니다. 확실히 알아야 쉽게 가르칠수 있다는 말씀에 전적으로 동의합니다. 앞으로도 쉽고 재미있는 강의 영상 많이 올리도록 노력하겠습니다! 감사합니다

  • @goldman7462
    @goldman7462 9 месяцев назад +2

    크로스엔트로피가 많이 쓰인다고하셨는데 그렇다면 요즘은 MSE는 사용되고 있지 않은건가요?

    • @phdshinAI
      @phdshinAI  9 месяцев назад

      아 그런것은 아닙니다. 각각의 손실함수는 각각의 특성이 있기 때문에 데이터의 종류와 모델의 종류에 따라 보다 더 합당한 손실함수를 고려해서 사용합니다. 오늘 올려드린 오토인코더 실습영상만 보더라도 MSE를 쓰고 있습니다. 크로스엔트로피도 MSE도 모두가 딥러닝 세계에서 다 필요한 손실함수입니다. 좋은 질문 감사합니다!

  • @digital7530
    @digital7530 4 месяца назад +1

    안녕하세요 잘 보았습니다. 혹시 회귀모델에서도 크로스 엔트로피 함수를 손실함수로 사용해도 문제 없을까요?

    • @phdshinAI
      @phdshinAI  4 месяца назад

      네 안녕하세요! 시청해주셔서 감사합니다. 회귀모델에서 크로스 엔트로피를 손실 함수로 사용하는 것은 일반적이지 않은것 같아요. 크로스 엔트로피 손실 함수는 주로 분류 문제에 사용되며, 예측값과 실제값 사이의 '확률분포' 차이를 측정하는 데 적합한 손실함수입니다. 그러나 회귀 문제는 연속적인 값을 예측하는 것이 목표이기 때문에, 손실 함수로는 주로 평균 제곱 오차(Mean Squared Error, MSE)나 평균 절대 오차(Mean Absolute Error, MAE) 같은 함수가 사용됩니다.
      즉, 크로스 엔트로피는 이산적인 범주를 다루는 데 적합하며, 출력값이 확률로 나옵니다. 반면, 회귀 모델의 출력은 연속적인 실수 값이기 때문에, 크로스 엔트로피를 사용하면 적합하지 않은 손실 계산이 이루어질 수 있습니다. 따라서, 회귀 문제에는 크로스 엔트로피 대신 MSE나 MAE를 사용하는 것이 더 적절합니다. 적절한 답이 되었기를 바랍니다. 앞으로도 많은 시청 부탁드려요. 감사합니다!

    • @digital7530
      @digital7530 4 месяца назад +1

      @@phdshinAI 감사합니다! 한 번 더 보니까 중간에 분류문제의 경우라고 말씀을 해주셨었네요!