[Easy! 딥러닝] 8-1강. Vanishing Gradient (기울기 소실) 와 ReLU [[ 실험 영상 포함! ]]

Поделиться
HTML-код
  • Опубликовано: 24 дек 2024

Комментарии • 5

  • @hyukppen
    @hyukppen  4 месяца назад +2

    누가 더 Vanishing Gradient에 취약한가요??
    10개 층에 모두 한 개 노드 쓸 때
    Sigmoid vs ReLU
    Sigmoid라구요? 확실한가요?
    여러 번의 강의를 진행하면서 여쭤보면
    열에 아홉은 외운듯이 답변을 하시더라구요..
    정답은 영상를 통해 확인해보시죠!
    📢 이 책으로 나왔습니다!! 🎉
    ❗ 구매 링크
    👉 교보문고: product.kyobobook.co.kr/detail/S000214848175
    👉 yes24: www.yes24.com/Product/Goods/139734696
    👉 알라딘: www.aladin.co.kr/shop/wproduct.aspx?ItemId=352995281
    👉 출판사 자사몰: shorturl.at/yqZpW
    (오직 북엔드몰에서만 그립톡 굿즈를 함께 드립니다!)
    (회원가입시 2,000원 선할인 적립금까지!)
    📖 이 책의 특별한 점
    ✅ 유튜브에 공개된 내용 + CNN + RNN + Attention까지 완벽 정리
    ✅ LEVEL 2 강의 의 CNN 파트 수록 (챕터 7)
    ✅ LEVEL 2 강의 의 RNN~Attention 파트 수록 (챕터 8)
    ✅ 수학이 걱정되시는 분들을 위한 수록
    ✅ 완벽한 이해를 돕는, 무려 282개의 삽화
    ✅ 수십 번의 정제를 거친, 총 351페이지를 꽉 채운 내용
    🎯 이런 분들께 추천드립니다!
    ✅ 인공지능에 관심 있는 대학생
    ✅ AI 연구를 하고 있거나 준비 중인 대학원생
    ✅ AI를 활용하는 현업 개발자
    ✅ 본인의 분야에 딥러닝을 접목하고 싶은 분
    ✅ AI 업계로 이직을 준비하시는 분
    ✅ 딥러닝 강의를 준비하시는 교수님
    👉 한마디로, 딥러닝 기초 이론을 완벽하게 다지고 싶은 분!
    💡 왜 이 책을 봐야 하나요?
    이 책에는 3년의 세월이 담겨있습니다.
    수많은 강의 경험을 통해 다듬고 정제한 내용을 녹여냈습니다.
    (박사학위논문 쓰는 것보다도 힘들었어요.. 😭)
    그만큼 온 정성을 다했고 정말 자신 있게 추천드립니다!
    단순한 개념 설명을 넘어, 보다 깊은 이해를 돕는 책을 만들고자 했습니다.
    그래서 하나의 주제에 대해 굉장히 디테일하게 파고들며
    ✅ 용어의 유래
    ✅ 동작 방식 및 원리
    ✅ 꼼꼼한 수식 전개
    ✅ 직관적 이해를 돕는 참신한 실험 결과들
    ✅ 개념 간의 연결성과 깔끔한 요약 정리
    ✅ "왜 이 개념을 알아야 하는지?"에 대한 설명까지
    차근차근 제시합니다.
    🎨 완성도에 대한 고집
    내용도 내용이지만, 디자인에도 공을 많이 들였습니다.
    ☝ 282개의 삽화 하나하나 수차례 수정을 거쳐 완성도를 높였습니다.
    ✌ 표지부터 내지까지, 보기만 해도 소장하고 싶게끔 만들었습니다.
    저조차도 "갖고 싶다"는 생각이 들게 하는 책입니다. ㅎㅎ
    그만큼 핵심 내용을 보기 좋게 잘 정리했다고 자부합니다!
    서점에 갔는데 이 책이 보이면 꼭 한번 펼쳐봐 주세요.
    제가 자신 있게 추천드리는 이유를 직접 확인하실 수 있을 겁니다!

    • @hyukppen
      @hyukppen  25 дней назад

      🔥 혁펜하임과 딥러닝 마스터하기!
      LEVEL 1 - Easy! 딥러닝
      hyukppen.modoo.at/?link=2n1a6p7t
      LEVEL 1 - 인스톨! 파이토치
      hyukppen.modoo.at/?link=131k3k7g
      LEVEL 2 - Legend 13
      hyukppen.modoo.at/?link=5db82s6p
      LEVEL 2 - TTT: To The Transformer
      hyukppen.modoo.at/?link=21c4dj8y
      LEVEL 3 - ATT: After The Transformer
      hyukppen.modoo.at/?link=2mcbufeg
      ‼ 강의 모집 공지 가장 빠르게 받아볼 수 있는 곳!
      혁펜하임 딥러닝 공부방 2호점
      👉 open.kakao.com/o/gcArsq1g
      (참여코드: 3300)
      (⭐ 곧 정원에 도달합니다. 이후 입장 불가!)
      (⭐ 대학생부터 대학원생, 개발자, 교수, 의사 등 딥러닝에 정말 진심인 분들이 모여 있는 대한민국 최고의 딥러닝 공부방)

  • @음악역휴게소
    @음악역휴게소 8 дней назад

    안녕하세요 혁펜하임님
    방금 강의 보면서 궁금한 점이 생겼는데요.
    인공신경망 깊이가 깊어졌을때 기울기 소실이 일어나 사원이 학습이 안되서 전체적인 성능을 망칠 수 있다라고 하신 말씀이 차라리 히든레이어 하나의 층만을 가질때보다 성능이 안좋아질 수 있다라는 의미로 말씀하신건 아니신거죠?!!
    그것보다는 그냥 입력층의 가까운 애들이 의미가 떨어진다로 해석하는게 더 맞을까요? 아니면 정말로 오히려 안좋아 질 수 있다로 이해해야 할까요?

    • @hyukppen
      @hyukppen  8 дней назад

      @@음악역휴게소 처음에 맞게 이해하셨습니다. 기울기 소실이 일어나면 깊은 것이 얕은 것보다 성능이 오히려 더 떨어질겁니다 ㅎㅎ
      영상의 설명처럼 앞에서 이미 정보를 망가뜨려놓기 때문이죠!
      실제로 실험을 해보시면 직접 확인해보실 수 있습니다 ㅎㅎ

  • @seminkwak
    @seminkwak 4 месяца назад

    very good