[핵심 머신러닝] 머신러닝 모델 학습 프로세스

Поделиться
HTML-код
  • Опубликовано: 21 сен 2024
  • 머신러닝 모델의 종류를 결정하고 해당 모델의 파라미터를 추정하는 학습 프로세스 전반에 대해 설명한다.

Комментарии • 33

  • @chungwhoong
    @chungwhoong 4 года назад +4

    최고의 머신러닝 강의 감사합니다.

  • @kcw8305
    @kcw8305 2 года назад +1

    강의 감사합니다.

  • @deliciouscat
    @deliciouscat 5 лет назад +3

    훌륭한 강의 감사합니다. 머신러닝 관련하여 관심이 많아서 모델 그냥 돌리는 수준이 아닌 원리적인 내용 강의를 찾고있었는데 교수님 강의가 큰 도움이 되었습니다

  • @akirus3
    @akirus3 4 года назад +1

    좋은 강의 감사드립니다

  • @LilDdong
    @LilDdong 5 лет назад +1

    이해할수 있게 쉽게 설명해주셔서 감사합니다 다음 강의도 올려주세요~~

  • @yunyun4428
    @yunyun4428 4 года назад +1

    좋은 강의 감사합니다~ ^^

  • @정명수-v8k
    @정명수-v8k 2 года назад

    와 진짜 설명을 잘하시네요.....

  • @마드모아젤-n7x
    @마드모아젤-n7x 9 месяцев назад

    감사하고 감사합니다

  • @albertlee5312
    @albertlee5312 5 лет назад +1

    교수님, 감사합니다!

  • @naha000
    @naha000 3 года назад

    자세한 강의 감사합니다!!!! 머신러닝에 대한 많은 강의들과 영상들이 '수식의 의미를 알고 있다'라는 전제 아래 빨리빨리 지나간다는 느낌을 받았었는데 이런 친절한 강의를 이제 보게 되었습니다. 열심히 공부하겠습니다. 감사합니다.

  • @MZ-pj4eq
    @MZ-pj4eq 3 года назад

    강의 감사합니다!!

  • @minseokko8715
    @minseokko8715 2 года назад

    감사합니다. 고맙습니다.

  • @붐붐-y1v
    @붐붐-y1v 4 года назад +1

    좋은 강의를 공개해주신 것에 대해 감사인사를 드립니다. 한 가지 궁금한 점이 있는데, 교수님께서 모델을 설명해 주실 때에 decision tree 모델을 설명해주셨는데 parameter의 추정 알고리즘 설명에서 decision tree는 존재하지 않는 것 같아 혹, 어떤 알고리즘이 쓰이는지 알려주실 수 있으신가요?

    • @김성범교수산업경영공
      @김성범교수산업경영공  4 года назад

      의사결정나무모델 1, 2 강의자료를 학습해 보시기 바랍니다. decision tree 모델 파라미터를 추정하는 알고리즘은 특별한 명칭은 없습니다. 굳이 부른다면 greedy algorithm 입니다.

  • @박정환학부생-소프트
    @박정환학부생-소프트 4 года назад +1

    좋은 강의 감사합니다 교수님. 온라인 강의이다보니 스스로 나태해지는 부분이 있어. 강의에 대해 이해한 것을 요약하는 것으로 수강 기록을 남깁니다. 9월 7일 수강 요약.모델링의 전체적인 프로세스에 대한 이해. 모델을 결정하고, 결정한 모델에 따라 다른 파라미터 추정 알고리즘을 적용한다.

  • @김경수-c3r
    @김경수-c3r 4 года назад +1

    교수님 좋은 강의 감사합니다! 머리 속에서 파편화 되어있던 머신러닝 관련 내용들이 정리가 되는 느낌입니다!
    교수님 하나 이번 강의 내용중에 Yi 정답값과 모델이 유추한 값과의 차이를 e를 i부터 n개 까지 더한 값이 0이된다는 부분이 이해가 잘 가지 않아서요...두 값의 차이가 모두 양수 일경우(ei가 모두 양수 일 경수) n개를 합한 값은 0이 아니라 양수로 나올 것 같다는 생각이 들어서 문의 드립니다...!
    Yi-(w1X1i + w2X2i)

    • @김성범교수산업경영공
      @김성범교수산업경영공  4 года назад +3

      네. 감사합니다. 샘플 수(n)가 커지면 두 값의 차이가 모두 양수일 경우는 없다고 보시면 됩니다. 예측값이 실제값보다 클 경우도 있고, 그 반대되는 경우도 있기 때문에 샘플수(n)가 많다고 한다면 이론적으로 예측값과 실제값의 차이의 합은 0이됩니다. 물론 샘플수가 적은 경우 차이값이 모두 양수일수도 있고 음수일수도 있습니다.

    • @ksungm1214
      @ksungm1214 Год назад

      저도 그 부분이 이상했는데 잘 알고갑니다

  • @rohyun947
    @rohyun947 3 года назад

    교수님 훌륭한 강의 잘들었습니다. 강의 내용중에 한가지 궁금한게 있습니다. 데이터를 보고 모델을 결정한다고 하셨는데 어떤모델을 사용할지 어떻게 결정하는건가요? 데이터의 어떤부분을 보고 어떤모델을 사용할지 결정하나요? 데이터를보고 모델을 결정하는 기준이 궁금합니다. 혹은 아무모델을 사용해도 상관없는건가요?

    • @김성범교수산업경영공
      @김성범교수산업경영공  3 года назад +2

      데이터의 물리적인 모습이라기 보다는 형태와 특성을 보고 판단한다는 의미였습니다. 예를들어 변수의 갯수, 범주형 변수 포함 여부, 종속변수의 속성 등입니다. 하지만 이들 정보만을 이용해서 가장 적합한 모델을 결정할 수 있는 것은 아닙니다. 일반적으로는 여러가지 모델을 사용해 본 후 가장 적합한 모델(예, testing error가 최소인 모델)을 결정하게 됩니다.

  • @sukanglee496
    @sukanglee496 5 лет назад +1

    7:45부터 머신러닝 모델 핵심 부분에서 머신러닝을 '머신러밍'이라고 되어 있습니다. 나중에 수정하실 때 반영하세요.

  • @maketing82
    @maketing82 5 лет назад +1

    좋은 강의 감사합니다.