박해선
박해선
  • Видео 86
  • Просмотров 320 842

Видео

머신 러닝 교과서 3판 - 11장 레이블되지 않은 데이터 다루기: 군집 분석
Просмотров 457Год назад
아마존 베스트 셀러 [머신 러닝 교과서 3판]의 무료 동영상 강의입니다. 책 소개: tensorflow.blog/python-ml-3 깃허브: bit.ly/python-ml-3 유튜브: bit.ly/haesun-youtube
어떤 책을 봐야 하나요? (버전4)
Просмотров 10 тыс.2 года назад
안녕하세요. 박해선입니다. 종종 어떤 책을 봐야 좋은지 문의하는 경우가 많습니다. 그래서 아예 영상을 만들어 보았습니다. 지금까지 제가 쓰거나 번역한 책들의 특징을 설명합니다. 책을 고르실 때 도움이 되셨으면 좋겠습니다. 전체 책 목록은 tensorflow.blog/book-roadmap 을 참고하세요. 감사합니다! :)
[혼자 공부하는 데이터 분석 with 파이썬] 도서 소개 영상
Просмотров 7122 года назад
[혼자 공부하는 데이터 분석 with 파이썬] 책에 어떤 내용이 담겨 있는지 각 장에서 다루는 기술과 주제에 대해 소개합니다! 이 책에 대한 자세한 내용은 bit.ly/hg-da-home 을 참고하세요!
어떤 책을 봐야 하나요? (버전3)
Просмотров 2,6 тыс.2 года назад
안녕하세요. 박해선입니다. 종종 어떤 책을 봐야 좋은지 문의하는 경우가 많습니다. 그래서 아예 영상을 만들어 보았습니다. 지금까지 제가 쓰거나 번역한 책들의 특징을 설명합니다. 책을 고르실 때 도움이 되셨으면 좋겠습니다. 전체 책 목록은 tensorflow.blog/book-roadmap 을 참고하세요. 감사합니다! :)
머신 러닝 교과서 3판 - 10장 회귀 분석으로 연속적 타깃 변수 예측
Просмотров 4772 года назад
아마존 베스트 셀러 [머신 러닝 교과서 3판]의 무료 동영상 강의입니다. 책 소개: tensorflow.blog/python-ml-3 깃허브: bit.ly/python-ml-3 유튜브: bit.ly/haesun-youtube
머신 러닝 교과서 3판 - 8장 감성 분석에 머신 러닝 적용 (2/2)
Просмотров 8692 года назад
아마존 베스트 셀러 [머신 러닝 교과서 3판]의 무료 동영상 강의입니다. 책 소개: tensorflow.blog/python-ml-3 깃허브: bit.ly/python-ml-3 유튜브: bit.ly/haesun-youtube
머신 러닝 교과서 3판 - 8장 감성 분석에 머신 러닝 적용 (1/2)
Просмотров 6262 года назад
아마존 베스트 셀러 [머신 러닝 교과서 3판]의 무료 동영상 강의입니다. 책 소개: tensorflow.blog/python-ml-3 깃허브: bit.ly/python-ml-3 유튜브: bit.ly/haesun-youtube
머신 러닝 교과서 3판 - 7장 다양한 모델을 결합한 앙상블 학습 (2/2)
Просмотров 5242 года назад
아마존 베스트 셀러 [머신 러닝 교과서 3판]의 무료 동영상 강의입니다. 책 소개: tensorflow.blog/python-ml-3 깃허브: bit.ly/python-ml-3 유튜브: bit.ly/haesun-youtube
머신 러닝 교과서 3판 - 7장 다양한 모델을 결합한 앙상블 학습 (1/2)
Просмотров 6683 года назад
아마존 베스트 셀러 [머신 러닝 교과서 3판]의 무료 동영상 강의입니다. 책 소개: tensorflow.blog/python-ml-3 깃허브: bit.ly/python-ml-3 유튜브: bit.ly/haesun-youtube
머신 러닝 교과서 3판 - 6장 모델 평가와 하이퍼파라미터 튜닝의 모범 사례 (3/3)
Просмотров 7133 года назад
아마존 베스트 셀러 [머신 러닝 교과서 3판]의 무료 동영상 강의입니다. 책 소개: tensorflow.blog/python-ml-3 깃허브: bit.ly/python-ml-3 유튜브: bit.ly/haesun-youtube
머신 러닝 교과서 3판 - 6장 모델 평가와 하이퍼파라미터 튜닝의 모범 사례 (2/3)
Просмотров 8293 года назад
아마존 베스트 셀러 [머신 러닝 교과서 3판]의 무료 동영상 강의입니다. 책 소개: tensorflow.blog/python-ml-3 깃허브: bit.ly/python-ml-3 유튜브: bit.ly/haesun-youtube
어떤 책을 봐야 하나요? (버전2)
Просмотров 3,3 тыс.3 года назад
안녕하세요. 박해선입니다. 종종 어떤 책을 봐야 좋은지 문의하는 경우가 많습니다. 그래서 아예 영상을 만들어 보았습니다. 지금까지 제가 쓰거나 번역한 책들의 특징을 설명합니다. 책을 고르실 때 도움이 되셨으면 좋겠습니다. 전체 책 목록은 tensorflow.blog/book-roadmap 을 참고하세요. 감사합니다! :)
머신 러닝 교과서 3판 - 6장 모델 평가와 하이퍼파라미터 튜닝의 모범 사례 (1/3)
Просмотров 9843 года назад
아마존 베스트 셀러 [머신 러닝 교과서 3판]의 무료 동영상 강의입니다. 책 소개: tensorflow.blog/python-ml-3 깃허브: bit.ly/python-ml-3 유튜브: bit.ly/haesun-youtube
머신 러닝 교과서 3판 - 5장 차원 축소를 사용한 데이터 압축 (3/3)
Просмотров 6973 года назад
아마존 베스트 셀러 [머신 러닝 교과서 3판]의 무료 동영상 강의입니다. 책 소개: tensorflow.blog/python-ml-3 깃허브: bit.ly/python-ml-3 유튜브: bit.ly/haesun-youtube
머신 러닝 교과서 3판 - 5장 차원 축소를 사용한 데이터 압축 (2/3)
Просмотров 9453 года назад
머신 러닝 교과서 3판 - 5장 차원 축소를 사용한 데이터 압축 (2/3)
머신 러닝 교과서 3판 - 5장 차원 축소를 사용한 데이터 압축 (1/3)
Просмотров 1,2 тыс.3 года назад
머신 러닝 교과서 3판 - 5장 차원 축소를 사용한 데이터 압축 (1/3)
머신 러닝 교과서 3판 - 4장 좋은 훈련 데이터셋 만들기: 데이터 전처리 (2/2)
Просмотров 1,4 тыс.3 года назад
머신 러닝 교과서 3판 - 4장 좋은 훈련 데이터셋 만들기: 데이터 전처리 (2/2)
머신 러닝 교과서 3판 - 3장 사이킷런을 타고 떠나는 머신 러닝 분류 모델 투어 (3/3)
Просмотров 1,4 тыс.3 года назад
머신 러닝 교과서 3판 - 3장 사이킷런을 타고 떠나는 머신 러닝 분류 모델 투어 (3/3)
머신 러닝 교과서 3판 - 4장 좋은 훈련 데이터셋 만들기: 데이터 전처리 (1/2)
Просмотров 2,1 тыс.3 года назад
머신 러닝 교과서 3판 - 4장 좋은 훈련 데이터셋 만들기: 데이터 전처리 (1/2)
머신 러닝 교과서 3판 - 3장 사이킷런을 타고 떠나는 머신 러닝 분류 모델 투어 (2/3)
Просмотров 1,7 тыс.3 года назад
머신 러닝 교과서 3판 - 3장 사이킷런을 타고 떠나는 머신 러닝 분류 모델 투어 (2/3)
머신 러닝 교과서 3판 - 3장 사이킷런을 타고 떠나는 머신 러닝 분류 모델 투어 (1/3)
Просмотров 3 тыс.3 года назад
머신 러닝 교과서 3판 - 3장 사이킷런을 타고 떠나는 머신 러닝 분류 모델 투어 (1/3)
머신 러닝 교과서 3판 - 2장 간단한 분류 알고리즘 훈련 (2/2)
Просмотров 2,7 тыс.3 года назад
머신 러닝 교과서 3판 - 2장 간단한 분류 알고리즘 훈련 (2/2)
머신 러닝 교과서 3판 - 2장 간단한 분류 알고리즘 훈련 (1/2)
Просмотров 5 тыс.3 года назад
머신 러닝 교과서 3판 - 2장 간단한 분류 알고리즘 훈련 (1/2)
머신 러닝 교과서 3판 - 1장 컴퓨터는 데이터에서 배운다
Просмотров 13 тыс.3 года назад
머신 러닝 교과서 3판 - 1장 컴퓨터는 데이터에서 배운다
어떤 책을 봐야 하나요?
Просмотров 11 тыс.3 года назад
어떤 책을 봐야 하나요?
[Do it! 딥러닝 입문] 9장 텍스트를 분류합니다 - 순환 신경망
Просмотров 2,8 тыс.4 года назад
[Do it! 딥러닝 입문] 9장 텍스트를 분류합니다 - 순환 신경망
[Do it! 딥러닝 입문] 8장 이미지를 분류합니다 - 합성곱 신경망
Просмотров 3,3 тыс.4 года назад
[Do it! 딥러닝 입문] 8장 이미지를 분류합니다 - 합성곱 신경망
Sequences, Time Series and Prediction - Week 4
Просмотров 5134 года назад
Sequences, Time Series and Prediction - Week 4
Sequences, Time Series and Prediction - Week 3
Просмотров 2144 года назад
Sequences, Time Series and Prediction - Week 3

Комментарии

  • @마루루-w2p
    @마루루-w2p 10 дней назад

    안녕하세요. 혼공 데이터분석/머신러닝/딥러닝을 모두 봤습니다. 이후 딥러닝에 관심이 있는데요. 밑바닥 부터 시작하는 딥러닝 1~5 시리즈는 어떤지 궁금합니다.

    • @haesun_park
      @haesun_park 9 дней назад

      @@마루루-w2p 안녕하세요. 제가 읽은 책이 아니라 말씀드리기 어렵네요. 서점에 가셔서 직접 확인해 보시면 좋을 것 같습니다.

  • @옆집고양이뽀삐
    @옆집고양이뽀삐 Месяц назад

    감사합니다.

  • @산성비-v8m
    @산성비-v8m 2 месяца назад

    안녕하세요. 혹시 <개발자를 위한 필수 수학>은 비전공자가 이해할 수 있는 수준인지 알 수 있을 까요?

    • @haesun_park
      @haesun_park 2 месяца назад

      @@산성비-v8m 네. 파이썬 언어를 아신다면 쉽게 이해할 수 있으실 거에요.

    • @산성비-v8m
      @산성비-v8m 2 месяца назад

      @@haesun_park 답변 감사합니다. 그런데 그.. 수학이 고등학생 수준으로는 못 볼 수준인거겠죠?

  • @greapis
    @greapis 7 месяцев назад

    좋은 강의 잘 듣고 있습니다. 감사합니다.

  • @GlobalYoung7
    @GlobalYoung7 9 месяцев назад

    감사합니다

  • @suewonjp
    @suewonjp 9 месяцев назад

    안녕하세요. 언제나 도움 많이 받고 있습니다. 마지막에 페이크를 좀 넣으셨네요. ㅎㅎㅎ 잠깐 빵 터졌습니다.

  • @danhee_an
    @danhee_an 10 месяцев назад

    강의 잘 보았습니다. 감사합니다.

  • @danhee_an
    @danhee_an 10 месяцев назад

    영상 잘 들었습니다. :)

  • @danhee_an
    @danhee_an 10 месяцев назад

    오늘도 강의 잘 들었습니다. 감사합니다.

  • @danhee_an
    @danhee_an 11 месяцев назад

    감사합니다. 잘 들었습니다.

  • @danhee_an
    @danhee_an 11 месяцев назад

    강의 잘 보았습니다.:) 감사드려요~

  • @_pink_mustard
    @_pink_mustard 11 месяцев назад

    선생님 안녕하세요. 좋은 책들과 강의 자료 항상 감사드립니다. 자연어처리 관해 공부중이고 텐서플로보다는 파이토치를 주력으로 하고 있습니다. 파이토치 경로 화살표 대로 학습 진행하고 있고 "트랜스포머를 활용한 자연어 처리"를 현재 공부중인데 이 다음의 화살표는 없군요...이 다음으로 추천해주실만한 책 있을까요? 또 현재 시장에서 파이토치랑 텐서플로랑 무엇을 더 추천하시나요?

    • @haesun_park
      @haesun_park 11 месяцев назад

      안녕하세요. 최근에 출간된 "머신 러닝 교과서: 파이토치 편"을 추천해 드릴 수 있습니다. 이 책은 사이킷런과 파이토치를 다루어 머신러닝과 딥러닝을 배우도록 꾸며져 있습니다. 자연어 처리를 전문으로 다루지는 않습니다. 파이토치와 텐서플로 모두 장단점이 있으며 개인이나 회사에게 맞는 도구를 선택하면 됩니다. 둘 중 하나를 추천하기는 어렵네요. 감사합니다.

  • @danhee_an
    @danhee_an 11 месяцев назад

    재밌게 배웁니다. :)

  • @bnb7462
    @bnb7462 11 месяцев назад

    diabetes 데이타를 보면 특성은 age, sex, bmi 등등해서 10가지인데, 왜 각각의 값들은 서로 비슷한가요? sex만해도 수치로 나올수없이 남성, 여성 이렇게 나와하는거 같은데, 수치로 나온게 좀 이해가 안갑니다. 보시면 답변 좀 부탁해요.

  • @JJ-nf9nv
    @JJ-nf9nv Год назад

    안녕하세요 선생님, 혼자 공부하는 머신러닝+딥러닝 책을 공부 시작하려고 하는데 개정판 계획 있으신가요?

    • @haesun_park
      @haesun_park Год назад

      아니요. 아직 구체적인 계획은 없습니다. 아마 내년 말 즈음 되어야 시간이 날 것 같아요. :)

    • @JJ-nf9nv
      @JJ-nf9nv Год назад

      답변 감사합니다!

  • @izowooi
    @izowooi Год назад

    수식을 하나씩 풀어서 설명해주셔서 이해가 잘 되었습니다. 감사합니다

    • @haesun_park
      @haesun_park Год назад

      이해가 잘 되셨다니 다행이네요. 감사합니다!

  • @이민수-g9n
    @이민수-g9n Год назад

    안녕하세요 강의를 진짜 여러번 정독 하면서 이해를 하고자 하고 있습니다. 다만, 강의 중 궁금한게 있어서 이렇게 댓글 남깁니다. 1. 최상의 모델과 오차분석 - 최상의 모델을 나열하여 median_income을 제일 좋은 특성으로 찾았습니다. 근데 여기서 왜 오차 분석으로 되는지 궁금합니다. 2. 테스트 세트로 시스템 평가하기 - 여기선 최종 모델로 mean_squared_Error로 rmse값을 산출했습니다. 가격은 47873.xxxx 인데요 그 다음 95% 신뢰 구간을 설정하여 +- 를 주셨습니다. - 그렇다면 이게 실제 타겟값의 무슨 뜻을 의미하는건가여 ?? 이게 주제가 집값 예측 문제인데요 저 rmse 값이 무엇을 의미하는지 도통 이해가 가지 않습니다 ㅠ 결론적으로 47873 값이 집값 예측 가격인데 어떤 관계로 저 값이 나와서 설명을 해야하는건가여 ? 3. 모델 - 위에서 보면 여러가지 모델을 이용하여 진행하셨습니다. 제가 공부한 이론으로는 여러가지 모델을 선택하여 훈련함으로써 최적의 모델을 찾는거라고 이해하고 있는데, 테스트 세트에서는 mean_squared_Error만 사용하셨습니다 혹시 그 이유가 있는건가여 ?

  • @우소민
    @우소민 Год назад

    안녕하세요 선생님께서 쓰신 책들 구매해서 강의도 듣고 이번에 핸즈온머신러닝 3판이 나와서 구매했습니다! 그런데 다른 책들보다 내용이 너무 어렵더라구요ㅠ 다행히 선생님께서 앞강의를 올려주셔서 너무 다행입니다 그런데 혹시 뒷부분 강의는 지금이라도 업로드예정에 없으실까요..?!

    • @haesun_park
      @haesun_park Год назад

      안녕하세요. 박해선입니다. 아쉽지만 다른 일들이 많아 당장은 영상 제작이 어렵네요. 양해 부탁드립니다. 감사합니다!

  • @Chris-eg9mg
    @Chris-eg9mg Год назад

    딥러닝 패스를 따라 공부하기 시작해서, 혼공부터 시작해서 현재 핸즈온을 공부하고 있습니다. 그런데 강화학습 부분은 핸즈온 머신러닝에도 너무 짧게 나온 것 같아서요. 혹시 강화학습부분을 더 깊게 다룬 책을 추천해 주실 수 있을까요?

    • @haesun_park
      @haesun_park Год назад

      안녕하세요. 제가 댓글을 늦게 봤네요. 강화 학습을 주로 다룬 책 중에 제가 본 책이 없어 추천하기가 어렵네요. 양해 부탁드립니다. 감사합니다.

  • @user-pb2xc6lf2b
    @user-pb2xc6lf2b Год назад

    선생님 제가7~8월달에 혼공 데이터분석, 혼공머신러닝딥러닝 책을 직접코딩을 하지않고 빠르게 공부했습니다! 이제 직접실습을 하며 공부해야할 필요성을 느끼고 있어서 실습공부를 진행하려고 합니다! 데이터분석과 혼공머신책을 다시 공부하며 실습하는것이 좋을까요? 아니면 do it 딥러닝으로 실습을 공부하는것이 좋을까요? 머신러닝 딥러닝 부분을 실습하고 싶은데 고민이 돼서 여쭤봅니다!

    • @haesun_park
      @haesun_park Год назад

      읽으셨던 두 책을 코딩해 보면서 복습하시는 걸 추천해 드립니다! :)

    • @haesun_park
      @haesun_park Год назад

      읽으셨던 두 책을 코딩해 보면서 복습하시는 걸 추천해 드립니다! :)

    • @user-pb2xc6lf2b
      @user-pb2xc6lf2b Год назад

      @@haesun_park 네 알겠습니다 답변 감사합니다!

  • @michaelkim733
    @michaelkim733 Год назад

    안녕하세요 선생님, 혹시 핸즈온 머신러닝3판 번역본은 언제출시되는지 알수있을까요?

    • @haesun_park
      @haesun_park Год назад

      9월 29일에 출간된다고 합니다. 감사합니다!

    • @tissue20717
      @tissue20717 Год назад

      ㅇㅁㅇ!! 핸즈온 머신러닝 2판을 어제 구입했는데😂😂 혹시 3판과 2판은 어떤 점이 달라지는지 간략하게라도 알 수 있을까요..?ㅠㅠ

    • @haesun_park
      @haesun_park Год назад

      @@tissue20717 제 블로그를 참고하세요. tensorflow.blog/2023/05/13/homl2-vs-homl3/

  • @user-ep8xf1wy3w
    @user-ep8xf1wy3w Год назад

    안녕하세요. 혼자공부하는 데이터분석을 공부중인 취준생입니다. 캐글에 도전해 보고 싶은데 아예 지식이 없습니다. 혹시 캐글과 관련된 도서추천을 해주실수 있으신가요?

    • @haesun_park
      @haesun_park Год назад

      안녕하세요. 캐글에서 많이 사용하는 앙상블 알고리즘에 대해서는 <XGBoost와 사이킷런을 활용한 그레이디언트 부스팅> 책이 좋습니다. 이 책은 캐글 대회에 대한 안내도 조금 실려 있습니다. 하지만 캐글 대회 우승을 위한 가이드라인이나 책략 같은 것은 담겨 있지 않습니다. 이런 내용은 시중의 다른 책을 참고하시면 좋을 것 같습니다.

  • @욜류-b8m
    @욜류-b8m Год назад

    박해선 교수님께, 안녕하세요 교수님 통계학과 재학중인 3학년 대학생입니다 교수님의 책인 "혼공머신"을 읽고 공부하며 머신러닝 및 딥러닝 분야에 큰 흥미를 느꼈습니다. 데이터 사이언티스트로 성장하기 위해 논문을 읽고 구현하는 능력을 키우고자 하는데, 어떤 책을 읽는 것이 도움이 될지에 대해 조언을 구하고자 합니다. 혼공머신은 제가 처음으로 머신러닝에 입문할 때 큰 도움을 받은 책이었습니다. 하지만 이제는 좀 더 깊이 있는 내용을 다루고 논문을 읽고 구현할 수 있는 능력을 기르고 싶습니다. 따라서 교수님의 추천으로 머신러닝 및 딥러닝 분야에서 공부할 만한 책을 알고 싶습니다. 혼공머신을 통해 공부를 하며 학교 내 딥러닝 수업을 통해 머신러닝과 딥러닝의 기본 개념과 알고리즘은 얕게나마 이해하고 있습니다. 또한 최근에는 LSTM을 사용하여 호텔 리뷰 데이터에 대한 감정분석을 했습니다. 그러나 데이터 사이언티스트가 되기 위해서는 깊이 있는 내용과 논문을 읽고 구현할 수 있는 능력을 키우는 것이 중요하기 때문에 이에 대한 능력을 기르고자 교수님의 책 중에서 몇 개를 추가적으로 공부할 예정입니다. 이에 대해 어떤 책을 통해 실력을 향상 시키는 것이 좋을지 이렇게 댓글을 통해 여쭙게 됐습니다. ps. 현재 읽은 책은 혼공머신 하나 뿐이며 학교에서 배운 내용도 혼공머신 정도의 내용을 배웠습니다 감사합니다

  • @ssossosso123
    @ssossosso123 Год назад

    안녕하세요 선생님! 늘 영상에 도움 많이 받습니다. 다름이 아니라 혼공머신 끝내고 밑바닥부터 시작하는 딥러닝(deep learning from scratch) 시작하려던 참인데 혹시 이 책은 저 단계 중에서 어느단계정도에 해당할까요..? 그리고 이걸 대체할만한 더 좋은 책이 있을까요? 혼공머신 책은 너무나도 잘 보았습니다 감사합니다

    • @haesun_park
      @haesun_park Год назад

      안녕하세요. 두잇 딥러닝 입문이 밑바닥 1,2에 해당하는 내용을 담고 있습니다. 감사합니다.

  • @maestro6821
    @maestro6821 Год назад

    사용자 정의 젼환가를 만들때 왜 self.X 대신 X를 쓰는지 햇갈리네요…ㅠㅠㅠ 원래 함수 내부애서 걔산하는 경우는 self 인스턴스 불러오지 않나요?

  • @김영진-v5h1g
    @김영진-v5h1g Год назад

    혹시 저 책들 중에서 혼자공부하는 데이터 분석 > 혼자 공부하는 머신러닝 딥러닝 > 핸즈온 머신러닝2 이런 순서로 3가지만 공부해도 충분할까요?

    • @haesun_park
      @haesun_park Год назад

      안녕하세요. 이런 질문은 상황과 환경에 따라 크게 차이가 있기 때문에 제가 답변을 드리기 어려운 점 이해 부탁드립니다. 저는 배울수록 부족하게만 느껴지더라구요. 모쪼록 도움이 되시길 바라겠습니다. 감사합니다!

  • @jeongyoonkang959
    @jeongyoonkang959 Год назад

    선생님 질문 있습니다. 다층 신경망에 경우에 층별로 손실 함수를 다른 걸 사용해서 경사 하강법을 적용시킬 수는 없는 건가요? 공부하다가 문득 혼공머신에서도 그렇고 신경망 전체에서 하나의 손실 함수만 적용시켰던 것 같아서요.

    • @haesun_park
      @haesun_park Год назад

      네 그렇게 지정할 수 없습니다. 감사합니다.

  • @jeongyoonkang959
    @jeongyoonkang959 Год назад

    선생님. 질문이 있습니다. 아래 김원우 님께서 한 질문과 비슷한 질문일지는 모르겠으나, p.164에서 self.losses 리스트에 loss와 self.reg_loss()의 리턴값을 더한 값을 추가할 때, 왜 p.143의 코드와는 달리 전체에 괄호를 쳐서 m으로 나누는지 궁금했습니다.143페이지의 코드에서는 손실값(이걸 주손실 이라고 부르나요?)에만 샘플 개수를 나누고, 그 값에 self.reg_loss()의 리턴값을 더하는데, 왜 전체에 괄호를 쳐서 m으로 나누게 되는지가 궁금합니다. 아마도 큰 이유는 배치 경사 하강법이어서 그럴 것 같습니다만, 정확한 이유는 곰곰이 생각해봐도 모르겠습니다.

    • @haesun_park
      @haesun_park Год назад

      안녕하세요. 143페이지에서는 샘플 하나씩만 사용하기 때문에 m=1이므로 나눗셈이 의미가 없습니다. 이런 구현의 상세 사항은 개발자마다 조금씩 다를 수 있습니다. m을 나누지 않거나 셔플을 하지 않거나 등등. 여기에 집착하다보면 큰 그림을 놓칠 수 있어요. 코드를 작성한 이유는 알고리즘이 대략 어떻게 돌아간다는 것을 이해하기 위해서입니다. 완벽한 구현을 만드는 것이 목적이 아님을 이해해 주세요. 실전에서는 텐서플로나 파이토치 같은 프레임워크를 사용하니까요. 감사합니다.

  • @jeongyoonkang959
    @jeongyoonkang959 Год назад

    선생님 질문 있습니다. p.126에서 넘파이로 표준화를 구현하는 코드에 x_train.shape는 (364,30) 이고 train_mean과 train_std는 (30,) 으로 둘 간의 차원 수가 다른데 어떻게 넘파이 브로드캐스팅이 가능한지 궁금합니다. 감사합니다.

    • @haesun_park
      @haesun_park Год назад

      브로드캐스팅은 차원이 다른 두 배열의 연산을 지원하는 기술입니다. 여기서는 train_mean과 train_std가 x_train의 각 행에 적용됩니다. 더 자세한 내용은 ml-ko.kr/homl2/tools_numpy.html 에서 브로드캐스팅 절을 참고하세요. 감사합니다.

  • @domincel6778
    @domincel6778 Год назад

    15장 신경망 이미지 분류는 아직 안나온건가요?

    • @haesun_park
      @haesun_park Год назад

      네 아직 영상을 다 만들지 못했습니다.

    • @SuperYoohooo
      @SuperYoohooo 10 месяцев назад

      @@haesun_park ㅠㅠ 13장부터 강의가 없어서 아쉽습니다. 좋은 강의 감사드립니다.

  • @jeongyoonkang959
    @jeongyoonkang959 Год назад

    선생님 복습 중 넘파이 문법 관련하여 질문 드립니다. 저는 p.52에 diabetes.data[ : , 2] 라는 코드를 2번 열(3번째 특성)에 대해서 시작 행부터 끝 행까지 모든 행을 슬라이싱해라. 라고 이해했는데요, 그렇다면 책에는 이런 식의 코드가 나와 있지는 않지만 예를들어 diabetes.data[ : , 2 : 4] <-- 이런 코드도 넘파이 문법에서 가능한 코드인가요? 제가 이해한 바에 따르면 이 코드는 2번 열부터 3번 열까지에 대하여 시작 행부터 끝 행까지 슬라이싱해라. 라고 해석할 수 있을 것 같습니다.

    • @haesun_park
      @haesun_park Год назад

      안녕하세요. 가능합니다. 직접 테스트해 보시면 금방 확인하실 수 있습니다. 감사합니다.

  • @jeongyoonkang959
    @jeongyoonkang959 Год назад

    선생님 35-6분 경에 우리가 구현한 다중분류 클래스는 1차원 배열만 기대하니 입력을 1차원으로 펼쳐야 한다고 하셨는데, fit 메서드 내부에서 init_weights 메서드를 호출할 때 입력한 아규먼트만 봐도 입력과 타깃이 2차원 배열임을 알 수 있는데요, 샘플 차원(배치 차원)은 배제한 표현이라서 1차원 배열만 기대한다고 하는 것인가요? 앞으로 이 분야를 공부하면서 기본적으로 샘플을 나타내는 배치 차원은 차원 수를 셀 때 항상 배제하는 것이 관례인가요? 혼공머신을 공부할 때에도 종종 헷갈렸던 문제라 질문 드립니다.

    • @haesun_park
      @haesun_park Год назад

      안녕하세요. 가중치 크기는 입력에 있는 배치 차원과 관련이 없습니다. 혼동하지 않으시길 바랍니다. 배치 차원을 언급하는데 관례가 있는 것 같지는 않습니다. 맥락에 따라 구분하셔야 할 것 같아요. 감사합니다.

    • @jeongyoonkang959
      @jeongyoonkang959 Год назад

      @@haesun_park 아뇨 가중치 크기를 보고 말씀 드린 것이 아니라 self.init_weights(x.shape[1],y.shape[1]) 에서 .shape[1]을 한 것 자체가 2차원 이상이기 때문에 가능한 것이 아닌가 싶어서 질문을 드린 것 입니다!

  • @jeongyoonkang959
    @jeongyoonkang959 Год назад

    선생님 안녕하세요. 덕분에 공부 잘 하고 있습니다. 감사합니다. 질문 있어 댓글 남깁니다. p.176 아래에서 5째줄 즈음에 파셜Z2 파셜W2 = A1 식이 있는데요, 이 A1 행렬식이 왜 (m,2)의 2차원 행렬인지 궁금합니다. 그 위의 -(Y-A) 행렬의 경우에는 최종 출력층에서 타깃에서 예측확률을 뺀 값이기에 1차원 배열인 것이 납득이 되지만, A1 행렬식이 2차원 행렬인 것이 이해가 어렵습니다. 또한, 시그모이드 출력인 A1 행렬식의 원소들이 어떻게 0-1 이외의 값을 가지는 지도 궁금합니다.

    • @jeongyoonkang959
      @jeongyoonkang959 Год назад

      아 첫 번째 질문 (왜 2차원 행렬인지)는 다음 페이지에서 납득이 되었습니다. 그런데 p177에서 수식 제외하고 아래에서 9번째 줄에 '샘플의 오차와 곱하면 두 번째 뉴런에 대한 그레이디언트의 총 합이 됩니다' 보다 '샘플의 오차와 곱하고 모두 더하면 두 번째 뉴런에 대한 그레이디언트의 총 합이 됩니다' 이 더 이해에 매끄러울 것 같습니다ㅎㅎ

  • @jeongyoonkang959
    @jeongyoonkang959 Год назад

    선생님 사이킷런의 SGDClassifier 의 loss 매개변수에 'log' 로지스틱 손실함수가 1.3버전에서 deprecated된다고 loss='loss_log'로 사용하라고 코랩에서 문구가 뜨던데 앞으로는 log 를 loss_log로 써야 하나요?

  • @jeongyoonkang959
    @jeongyoonkang959 Год назад

    선생님 질문 있습니다. p110 에 score 메서드 선언하는 부분에서 True와 False로 이루어진 배열인 predict()메서드의 리턴값을 0과 1로 이루어진 타깃 배열인 y 배열과 불리언 비교연산 할 수 있는 이유는 파이썬이 비교 연산에서 True와 False를 1과 0 으로 변환하기 때문인가요?

  • @jeongyoonkang959
    @jeongyoonkang959 Год назад

    선생님 안녕하세요, 선생님의 혼공머딥을 잘 학습하여 딥러닝 입문도 시작합니다. 본격적인 공부 전에 딥러닝 입문 책을 오늘 처음부터 끝까지 쭉 스키밍 해봤습니다. 전반적으로 수식도 크게 어렵지 않고 공대 학부 2학년 이상 수준이면 충분히 학습이 가능한 것 같고, 내용 구성도 혼공머딥의 비지도 학습과 트리만 뺀 느낌이라 딥러닝을 배우기 오히려 좋아 보여서 학습의 열정이 생깁니다. 그런데 코드 실습 부분에서 약간 어려움이 느껴졌습니다. 중간중간 클래스 구현 과정에서 설명을 위해 코드를 생략하고 틀만 보여주는 경우도 많았고(...으로 중략 표시 등), 전체적으로 코랩에서 실습할 때 '어떤 코드가 입력해서 실습을 해야 하는 코드이고, 어떤 코드가 그냥 눈으로만 보고 입력하지는 않고 넘어가는 코드인지'가 조금 명확하지 않은 느낌이었습니다. 혼공머딥에서는 매 장의 절별로 코랩에 새 노트를 생성해서 실습을 진행해도 문제가 없었는데요,(책 초반에 그렇게 하라는 가이드도 있었고요) 이 책에서는 그런 가이드가 없고 내용의 구성이 직접 class를 구현하는 코드가 많아서 코랩에서의 실습을 어떻게 진행해야 할지 살짝 혼란스럽습니다. 기본적으로 코랩은 짤막하게 스크립트별로 코드를 입력하는 시스템이라고 알고 있는데 혼공머신 책은 이에 맞게 책의 코드가 편집되어 설명이 되어 있었는데 이 책은 그렇지는 않은 것 같아서요. 코랩으로 딥러닝 입문은 어떤 식으로 코드 실습을 하면 좋을지 조언 부탁드립니다..!

    • @haesun_park
      @haesun_park Год назад

      안녕하세요. 박해선입니다. 이 책은 알고리즘을 구현하면서 이해하는 스타일로 구성되어 있습니다. 그러다 보니 클래스 구현이 필수적이고 혼공 머신처럼 짧은 코드로 내용을 이어가기 어렵네요. 이 코드를 모두 작성할 수 있는 능력을 기르는 것이 목적이 아니라 코드를 보고 작동원리를 이해하는 것이 중요합니다. 책을 보실 때 깃허브에 있는 주피터 노트북을 참고하시면 도움이 될 것 같습니다. 감사합니다.

  • @AYoungKim-fz6ym
    @AYoungKim-fz6ym Год назад

    슬라이드 링크 들어가니 찾을수없음이라고 뜹니다 ㅠ

    • @haesun_park
      @haesun_park Год назад

      이 영상의 슬라이드는 유실되었습니다. 양해 부탁드립니다. 감사합니다.

    • @AYoungKim-fz6ym
      @AYoungKim-fz6ym Год назад

      @@haesun_park 감사합니다 ! 꼭 완강할게욥 !!

  • @killer9907
    @killer9907 Год назад

    다음영상은 혹시 언제 올라오나요?

    • @haesun_park
      @haesun_park Год назад

      안녕하세요. 여러 일들이 겹치다보니 영상이 늦어져서 죄송합니다. 이번 달 말부터 다시 만들기 시작할 예정입니다. 감사합니다.

    • @killer9907
      @killer9907 Год назад

      @@haesun_park 그러셨군요. 강의 잘 듣고 있습니다! 항상 감사합니다.

  • @justv1ewer
    @justv1ewer Год назад

    안녕하세요? 양질의 강의 제공해주신 덕에 한결 편하게 공부하고 있는 것 같습니다. 감사드립니다. 공부하던 중 test_set_check()함수에 관련해 질문이 생겨서 질문을 드리게 되었습니다. crc32() 수의 출력값은 체크섬이면서 동시에 해쉬값인 것으로 이해했고, split_train_test_by_id() 함수에서 이 함수를 간접적으로 여러번 호출하게 되는 것까지는 알겠는데, 어떻게 출력값(데이터셋)이 test_set_ratio의 비율로 출력될 수 있는지 잘 이해가 가지 않습니다. crc32()의 출력 해시값은 0xffffffff와 & 연산을 하여 최소 0부터 (2^32-1)까지 범위를 가질 수 있고, 입력값이 2^32개가 들어오지 않는 이상 비율이 유지되는 것이 불가능할 것 같은데, 해당 부분에 대해 설명해주실 수 있을지 여쭤봅니다.

  • @liz-uc3yx
    @liz-uc3yx Год назад

    16:41

  • @오브젝
    @오브젝 Год назад

    좋은 강의 감사합니다. 혹시 설명된 분산 비율이 0.8, 0.1인 두 주성분을 가지고 투영을 진행했을때 결과의 분산 비율이 최대 0.9인가요? 투영 결과의 분산 비율이 가장 큰 경우가 두 주성분의 상관관계가 없고 독립적일때 두 분산비율을 더해가지고 구한다고 이해했습니다.

  • @killer9907
    @killer9907 Год назад

    안녕하세요! 파이썬 기초문법을 익히고 두잇 딥러닝입문의 완독을 최근에 끝내, 현재는 라시카의 머신러닝 교과서를 읽고있는 독자입니다.좋은책을 내주신 덕분에 기초지식을 다지는데 큰 도움이 되었습니다! 현재 수의사일을 하고있고 아직은 걸음마 단계이지만 의료데이터를 다루는 진단보조 프로그램을 만드는 프로젝트를 진행해보고 싶어서 이렇게 질문드립니다. 현재 대학동물병원의 환자진료데이터를 가지고있는데 이를 딥러닝용 데이터로 전처리하고 딥러닝 학습의 예제로 삼고싶은데, 혹시 딥러닝용 데이터의 전처리과정에 대해 다룬 책이 있는지 궁금합니다. ! 영상에서 말씀하신 내용을 바탕으로 머신러닝파워드 어플리케이션을 주문햇고, 두잇에서 케라스의 파워를 강하게 느껴서 ^^ 케라스 창시자에게 배우는 딥러닝책을 주문하려고 합니다. 혹시 추가로 추천해주실만한 책이 있으신지 궁금합니다. 의사결정나무에 대해 자세히 배울수 있는 책도 있는지 여쭙습니다. 질문이 너무 많아 죄송합니다.

    • @haesun_park
      @haesun_park Год назад

      안녕하세요. 박해선입니다. 딥러닝에 관한 전처리만 다룬 책은 아직 없습니다. 전처리는 각 책에 저마다 다른 스타일로 녹여져 있습니다. 케라스 창시자에게 배우는 딥러닝과 머신러닝 파워드 애플리케이션은 모두 좋은 책이라 만족하시리라 생각합니다. 결정트리는 머신러닝 교과서, 핸즈온 머신러닝, 파이썬 라이브러리를 활용한 머신러닝 등에 자세히 나와 있습니다. 감사합니다!

    • @killer9907
      @killer9907 Год назад

      @@haesun_park 답변 감사합니다! 영상 잘 보고있습니다.

  • @DouglasKang1113
    @DouglasKang1113 Год назад

    혼자공부하는 머신러닝 딥러닝 책에 강추표시가 되어있어서 사서 구매했는데 너무 책이 좋았습니다. 그런데 저희 연구실이 파이토치를 주로 사용해서 파이토치를 공부해야하는데 파이토치는 강추표시되어있는 책이 없네요 파이토치 교재 추천해주실 수 있나요?

    • @jjk7564
      @jjk7564 5 месяцев назад

      늦었지만 딥러닝 텐서플로 교과서 추천드립니다

  • @starwngus
    @starwngus Год назад

    안녕하세요! 데이터 분석에 관심이 생겨 이것저것 시도해보려는 비전공자 대학생입니다 ㅎㅎ 쓰신 책을 보고 이거다 싶어 공부를 시작하려했지만 무엇부터 손을 대야할지 몰라 고민하고 있었는데 이렇게 정리해주셔서 감사합니다!!

    • @haesun_park
      @haesun_park Год назад

      도움이 되시길 바라겠습니다! :)

  • @김미온-v9y
    @김미온-v9y Год назад

    10장 413p에서 y_std = sc_y.fit_transform().flatten 명령을 하면 에러가 다음과 같이 빌생합니다. Found arrY with dim 3. Standardscalar expected <= 2. 어떻게 해야 할지 이야기 부탁드립니다

  • @acrdf5513
    @acrdf5513 Год назад

    안녕하세요 선생님 혹시 그래프를 그리기 위해서 스케일 조정한 것을 다시 복구 시키는 과정에서 가중치를 표준편차로 나누어서 복구 시키는데 왜 이런 과정이 도출되는지 이해가 안됩니다. 항상 좋은 강의 감사드립니다!

  • @원태정-q5j
    @원태정-q5j Год назад

    안녕하세요 박해선님 공부하는 중에 궁금한 점이 생겨 질문드립니다. 17:20 X에 왜 1을 1열에 전부 다 추가하는 건가요? , 이해가 안되요

    • @haesun_park
      @haesun_park Год назад

      안녕하세요. 편향을 위한 특성입니다. 159페이지 주석을 참고하세요!

    • @원태정-q5j
      @원태정-q5j Год назад

      @@haesun_park 답변감사합니다. 만약에 22:27 에 직선이 아니라 곡선(2차방정식)으로 만들려면 어떻게 해야하나요?

  • @alwaysmarine2091
    @alwaysmarine2091 Год назад

    안녕하세요? 슬라이드 접속 링크가 에러가 나는 것 같습니다. 번거로우시겠지만 확인해 주시면 고맙겠습니다. 늘 감사드립니다.

    • @haesun_park
      @haesun_park Год назад

      안녕하세요. 슬라이드가 없어졌네요. 슬라이드 내용은 대부분 책이나 주피터 노트북의 스크린샷입니다. 감사합니다.

    • @alwaysmarine2091
      @alwaysmarine2091 Год назад

      @@haesun_park 네 고맙습니다.

  • @오브젝
    @오브젝 Год назад

    안녕하세요 박해선님! 강의 정말 잘 듣고 있습니다. 영상이 아닌 깃허브에 있는 oob평가 코드에 대해서 보고 있는데 궁금증이 생겨 여쭤봅니다. 배깅 모델에서 생성된 앙상블은 개별 모델에 따라 oob가 다르다고 책에 나와있습니다. 그래서 깃허브 코드에 .oob_decision_function_ 함수를 사용하면, 각 개별모댈들의 oob가 모여 엄청 많은 결정 함수 값이 나올 줄 알았는데 생각보다 엄청 적은 oob만 출력 되더군요. 이유를 알 수 있을까요? 그리고 배깅을 사용하면 중복된 샘플들을 사용한다하는데 혹시 간단한 예시로 들어서 설명을 들을 수 있을까요? 제가 이해한 예시는 이렇습니다. ex) 샘플 : 1 2 3 4 5 배깅 : 모델1 > 1 2 | 모델2 > 1 2 모델3 > 1 3(배깅은 다른 모델과 겹치는 샘플이 있어도 된다라고 이해) 페이스팅 : 모델1 > 1 2 | 모델2 > 3 4 (페이스팅은 다른 모델과 겹치는 샘플이 있으면 안된다라고 이해)

    • @haesun_park
      @haesun_park Год назад

      안녕하세요. 깃허브 노트북의 출력 결과를 보시면 개별 모델마다 oob 점수가 출력된 것을 확인할 수 있습니다. github.com/rickiepark/handson-ml2/blob/master/07_ensemble_learning_and_random_forests.ipynb 중복을 허용한 샘플링은 하나의 모델을 만들 때 동일한 샘플을 여러 번 사용할 수 있다는 의미입니다. 배깅, 페이스팅 모두 하나의 샘플을 여러 모델에서 사용할 수 있습니다. 책 249페이지 설명을 참고하세요. 감사합니다.