[Easy! 딥러닝] 3-2강. 확률적 경사 하강법 (SGD: Stochastic Gradient Descent) 주머니 예시로 쉽게 설명해 드려요

Поделиться
HTML-код
  • Опубликовано: 25 дек 2024

Комментарии • 12

  • @hyukppen
    @hyukppen  8 месяцев назад

    📢 이 책으로 나왔습니다!! 🎉
    ❗ 구매 링크
    👉 교보문고: product.kyobobook.co.kr/detail/S000214848175
    👉 yes24: www.yes24.com/Product/Goods/139734696
    👉 알라딘: www.aladin.co.kr/shop/wproduct.aspx?ItemId=352995281
    👉 출판사 자사몰: shorturl.at/yqZpW
    (오직 북엔드몰에서만 그립톡 굿즈를 함께 드립니다!)
    (회원가입시 2,000원 선할인 적립금까지!)
    📖 이 책의 특별한 점
    ✅ 유튜브에 공개된 내용 + CNN + RNN + Attention까지 완벽 정리
    ✅ LEVEL 2 강의 의 CNN 파트 수록 (챕터 7)
    ✅ LEVEL 2 강의 의 RNN~Attention 파트 수록 (챕터 8)
    ✅ 수학이 걱정되시는 분들을 위한 수록
    ✅ 완벽한 이해를 돕는, 무려 282개의 삽화
    ✅ 수십 번의 정제를 거친, 총 351페이지를 꽉 채운 내용
    🎯 이런 분들께 추천드립니다!
    ✅ 인공지능에 관심 있는 대학생
    ✅ AI 연구를 하고 있거나 준비 중인 대학원생
    ✅ AI를 활용하는 현업 개발자
    ✅ 본인의 분야에 딥러닝을 접목하고 싶은 분
    ✅ AI 업계로 이직을 준비하시는 분
    ✅ 딥러닝 강의를 준비하시는 교수님
    👉 한마디로, 딥러닝 기초 이론을 완벽하게 다지고 싶은 분!
    💡 왜 이 책을 봐야 하나요?
    이 책에는 3년의 세월이 담겨있습니다.
    수많은 강의 경험을 통해 다듬고 정제한 내용을 녹여냈습니다.
    (박사학위논문 쓰는 것보다도 힘들었어요.. 😭)
    그만큼 온 정성을 다했고 정말 자신 있게 추천드립니다!
    단순한 개념 설명을 넘어, 보다 깊은 이해를 돕는 책을 만들고자 했습니다.
    그래서 하나의 주제에 대해 굉장히 디테일하게 파고들며
    ✅ 용어의 유래
    ✅ 동작 방식 및 원리
    ✅ 꼼꼼한 수식 전개
    ✅ 직관적 이해를 돕는 참신한 실험 결과들
    ✅ 개념 간의 연결성과 깔끔한 요약 정리
    ✅ "왜 이 개념을 알아야 하는지?"에 대한 설명까지
    차근차근 제시합니다.
    🎨 완성도에 대한 고집
    내용도 내용이지만, 디자인에도 공을 많이 들였습니다.
    ☝ 282개의 삽화 하나하나 수차례 수정을 거쳐 완성도를 높였습니다.
    ✌ 표지부터 내지까지, 보기만 해도 소장하고 싶게끔 만들었습니다.
    저조차도 "갖고 싶다"는 생각이 들게 하는 책입니다. ㅎㅎ
    그만큼 핵심 내용을 보기 좋게 잘 정리했다고 자부합니다!
    서점에 갔는데 이 책이 보이면 꼭 한번 펼쳐봐 주세요.
    제가 자신 있게 추천드리는 이유를 직접 확인하실 수 있을 겁니다!

    • @hyukppen
      @hyukppen  26 дней назад

      🔥 혁펜하임과 딥러닝 마스터하기!
      LEVEL 1 - Easy! 딥러닝
      hyukppen.modoo.at/?link=2n1a6p7t
      LEVEL 1 - 인스톨! 파이토치
      hyukppen.modoo.at/?link=131k3k7g
      LEVEL 2 - Legend 13
      hyukppen.modoo.at/?link=5db82s6p
      LEVEL 2 - TTT: To The Transformer
      hyukppen.modoo.at/?link=21c4dj8y
      LEVEL 3 - ATT: After The Transformer
      hyukppen.modoo.at/?link=2mcbufeg
      ‼ 강의 모집 공지 가장 빠르게 받아볼 수 있는 곳!
      혁펜하임 딥러닝 공부방 2호점
      👉 open.kakao.com/o/gcArsq1g
      (참여코드: 3300)
      (⭐ 곧 정원에 도달합니다. 이후 입장 불가!)
      (⭐ 대학생부터 대학원생, 개발자, 교수, 의사 등 딥러닝에 정말 진심인 분들이 모여 있는 대한민국 최고의 딥러닝 공부방)

  • @danny04278
    @danny04278 8 месяцев назад

    미니배치 하강법이나 리그레션같은것도 다뤄주시나요?

    • @hyukppen
      @hyukppen  8 месяцев назад +2

      선형 회귀 2-3강에 준비되어 있습니다 ㅎㅎ 영상 뒷부분에서 재생목록타고 들어가실 수 있습니다!
      미니배치는 마침 담주 월요일에 올라길 예정입니다!

  • @nova0302
    @nova0302 Месяц назад +1

    역으로 global minimum 으로부터 탈출의 기회가 되기도...😢

  • @park4905
    @park4905 7 месяцев назад

    혁펜하임님! 강의 잘 듣고 있습니다 :) 이렇게 좋은 강의 해주셔서 감사드립니다.. 강의 중 표현하신 좋은 local minimum의 기준이 있을까요? 어떤 것을 좋은 local minumum이라 생각할 수 있을지 궁금합니다.

    • @hyukppen
      @hyukppen  7 месяцев назад

      값이 낮은 local minimum 일수록 좋습니다!
      물론 여기서 나아가서 training loss 뿐만 아니고 val loss까지 봐야겠지만요~

  • @윤진영-b2q
    @윤진영-b2q 7 месяцев назад

    등고선이 원형이라는 건 각각의 feature vector의 모양이 같기 때문이라고 생각 해도 될까요?
    원형이라면 즉, global minimum에 대해 대칭이라는 의미 인거 같고 그렇게 되려면 각 축에 대해서 그래프의 모양이 일치해야 되지 않을까 싶어서요..

    • @hyukppen
      @hyukppen  7 месяцев назад +1

      일단 이 그림은 loss를 그리는 것이므로 feature vector가 축이 되는 것은 아닙니다. parameter를 축으로 봐야하는데, 파라미터가 a, b 두 개라고 했을 때 Loss=a^2+b^2 와 같이 표현되면 원형이 나옵니다 ㅎㅎ 좀더 일반적인 표현으론 2*(a-1)^2 + 2*(b-3)^2 + 5 얘도 원형이 나오겠죠? 원의 방정식을 떠올리시면 될 것 같습니다!

  • @a-r4k
    @a-r4k 4 месяца назад

    2024-08-12 월

  • @a24349663
    @a24349663 8 месяцев назад +3

    떴다 내 야동

    • @hyukppen
      @hyukppen  8 месяцев назад +3

      즐감 ㅎ