(Docceptor 머신러닝 8-2) SVM에 적용하기 위한 Kernel trick 기초

Поделиться
HTML-код
  • Опубликовано: 14 ноя 2024

Комментарии • 15

  • @고양이-e6t
    @고양이-e6t 6 месяцев назад

    존경합니다 정말..

  • @Tuyatututu
    @Tuyatututu Год назад

    명강의 감사합니당

  • @yoonchaena671
    @yoonchaena671 2 года назад

    하루종일 커널이 이해가 안갔는데......이거보고 이해했습니다. 좋은 배경과 이유 설명 감사드립니다.

  • @msjchr922
    @msjchr922 Год назад

    댓글 진짜 안남기는데 명강의 감사합니다.

  • @SphereofTime
    @SphereofTime 8 месяцев назад

    3:00

  • @흘러가는대로-t7j
    @흘러가는대로-t7j 2 года назад

    많이 배워갑니다! 감사합니다

  • @april21st_
    @april21st_ Год назад

    요약 : 고차원처럼 표현하지만 연산은 고차원이 아닌 커널트릭

  • @SphereofTime
    @SphereofTime 8 месяцев назад +1

    33:33 😮

  • @정윤영-l2w
    @정윤영-l2w 2 года назад

    좋은 강의 감사합니다.

  • @SphereofTime
    @SphereofTime 8 месяцев назад

    14:16 😮

  • @SphereofTime
    @SphereofTime 8 месяцев назад

    29:12

  • @younique9710
    @younique9710 Год назад

    좋은 영상 감사드립니다. 혹시, 머신러닝에서 말하는 커널과 선형대수학에서 말하는 커널 (영공간)은 같은 의미인가요?

    • @docceptor195
      @docceptor195  Год назад

      연관은 있는데 완전히 같은 개념은 아닙니다~ㅎㅎ

    • @younique9710
      @younique9710 Год назад

      @@docceptor195 그렇군요! 답변 감사드립니다!

  • @younique9710
    @younique9710 Год назад

    질문 있습니다. 31:09 Dual Problem에서 Gram matrix를 설명을 해주셨는데요. 제가 아는 Gram matrix는 단순히 변수끼리의 내적으로 만들어진 정방행렬이라 알고 있습니다. 이 강의에서 설명된 Gram matrix는 각 변수간의 내적을 커널함수를 통해 구한거 빼고는 동일한 건가요?