누가 더 Vanishing Gradient에 취약한가요?? 10개 층에 모두 한 개 노드 쓸 때 Sigmoid vs ReLU Sigmoid라구요? 확실한가요? 여러 번의 강의를 진행하면서 여쭤보면 열에 아홉은 외운듯이 답변을 하시더라구요.. 정답은 영상를 통해 확인해보시죠! 📢 이 책으로 나왔습니다!! 🎉 ❗ 구매 링크 👉 교보문고: product.kyobobook.co.kr/detail/S000214848175 👉 yes24: www.yes24.com/Product/Goods/139734696 👉 알라딘: www.aladin.co.kr/shop/wproduct.aspx?ItemId=352995281 👉 출판사 자사몰: shorturl.at/yqZpW (오직 북엔드몰에서만 그립톡 굿즈를 함께 드립니다!) (회원가입시 2,000원 선할인 적립금까지!) 📖 이 책의 특별한 점 ✅ 유튜브에 공개된 내용 + CNN + RNN + Attention까지 완벽 정리 ✅ LEVEL 2 강의 의 CNN 파트 수록 (챕터 7) ✅ LEVEL 2 강의 의 RNN~Attention 파트 수록 (챕터 8) ✅ 수학이 걱정되시는 분들을 위한 수록 ✅ 완벽한 이해를 돕는, 무려 282개의 삽화 ✅ 수십 번의 정제를 거친, 총 351페이지를 꽉 채운 내용 🎯 이런 분들께 추천드립니다! ✅ 인공지능에 관심 있는 대학생 ✅ AI 연구를 하고 있거나 준비 중인 대학원생 ✅ AI를 활용하는 현업 개발자 ✅ 본인의 분야에 딥러닝을 접목하고 싶은 분 ✅ AI 업계로 이직을 준비하시는 분 ✅ 딥러닝 강의를 준비하시는 교수님 👉 한마디로, 딥러닝 기초 이론을 완벽하게 다지고 싶은 분! 💡 왜 이 책을 봐야 하나요? 이 책에는 3년의 세월이 담겨있습니다. 수많은 강의 경험을 통해 다듬고 정제한 내용을 녹여냈습니다. (박사학위논문 쓰는 것보다도 힘들었어요.. 😭) 그만큼 온 정성을 다했고 정말 자신 있게 추천드립니다! 단순한 개념 설명을 넘어, 보다 깊은 이해를 돕는 책을 만들고자 했습니다. 그래서 하나의 주제에 대해 굉장히 디테일하게 파고들며 ✅ 용어의 유래 ✅ 동작 방식 및 원리 ✅ 꼼꼼한 수식 전개 ✅ 직관적 이해를 돕는 참신한 실험 결과들 ✅ 개념 간의 연결성과 깔끔한 요약 정리 ✅ "왜 이 개념을 알아야 하는지?"에 대한 설명까지 차근차근 제시합니다. 🎨 완성도에 대한 고집 내용도 내용이지만, 디자인에도 공을 많이 들였습니다. ☝ 282개의 삽화 하나하나 수차례 수정을 거쳐 완성도를 높였습니다. ✌ 표지부터 내지까지, 보기만 해도 소장하고 싶게끔 만들었습니다. 저조차도 "갖고 싶다"는 생각이 들게 하는 책입니다. ㅎㅎ 그만큼 핵심 내용을 보기 좋게 잘 정리했다고 자부합니다! 서점에 갔는데 이 책이 보이면 꼭 한번 펼쳐봐 주세요. 제가 자신 있게 추천드리는 이유를 직접 확인하실 수 있을 겁니다!
🔥 혁펜하임과 딥러닝 마스터하기! LEVEL 1 - Easy! 딥러닝 hyukppen.modoo.at/?link=2n1a6p7t LEVEL 1 - 인스톨! 파이토치 hyukppen.modoo.at/?link=131k3k7g LEVEL 2 - Legend 13 hyukppen.modoo.at/?link=5db82s6p LEVEL 2 - TTT: To The Transformer hyukppen.modoo.at/?link=21c4dj8y LEVEL 3 - ATT: After The Transformer hyukppen.modoo.at/?link=2mcbufeg ‼ 강의 모집 공지 가장 빠르게 받아볼 수 있는 곳! 혁펜하임 딥러닝 공부방 2호점 👉 open.kakao.com/o/gcArsq1g (참여코드: 3300) (⭐ 곧 정원에 도달합니다. 이후 입장 불가!) (⭐ 대학생부터 대학원생, 개발자, 교수, 의사 등 딥러닝에 정말 진심인 분들이 모여 있는 대한민국 최고의 딥러닝 공부방)
안녕하세요 혁펜하임님 방금 강의 보면서 궁금한 점이 생겼는데요. 인공신경망 깊이가 깊어졌을때 기울기 소실이 일어나 사원이 학습이 안되서 전체적인 성능을 망칠 수 있다라고 하신 말씀이 차라리 히든레이어 하나의 층만을 가질때보다 성능이 안좋아질 수 있다라는 의미로 말씀하신건 아니신거죠?!! 그것보다는 그냥 입력층의 가까운 애들이 의미가 떨어진다로 해석하는게 더 맞을까요? 아니면 정말로 오히려 안좋아 질 수 있다로 이해해야 할까요?
누가 더 Vanishing Gradient에 취약한가요??
10개 층에 모두 한 개 노드 쓸 때
Sigmoid vs ReLU
Sigmoid라구요? 확실한가요?
여러 번의 강의를 진행하면서 여쭤보면
열에 아홉은 외운듯이 답변을 하시더라구요..
정답은 영상를 통해 확인해보시죠!
📢 이 책으로 나왔습니다!! 🎉
❗ 구매 링크
👉 교보문고: product.kyobobook.co.kr/detail/S000214848175
👉 yes24: www.yes24.com/Product/Goods/139734696
👉 알라딘: www.aladin.co.kr/shop/wproduct.aspx?ItemId=352995281
👉 출판사 자사몰: shorturl.at/yqZpW
(오직 북엔드몰에서만 그립톡 굿즈를 함께 드립니다!)
(회원가입시 2,000원 선할인 적립금까지!)
📖 이 책의 특별한 점
✅ 유튜브에 공개된 내용 + CNN + RNN + Attention까지 완벽 정리
✅ LEVEL 2 강의 의 CNN 파트 수록 (챕터 7)
✅ LEVEL 2 강의 의 RNN~Attention 파트 수록 (챕터 8)
✅ 수학이 걱정되시는 분들을 위한 수록
✅ 완벽한 이해를 돕는, 무려 282개의 삽화
✅ 수십 번의 정제를 거친, 총 351페이지를 꽉 채운 내용
🎯 이런 분들께 추천드립니다!
✅ 인공지능에 관심 있는 대학생
✅ AI 연구를 하고 있거나 준비 중인 대학원생
✅ AI를 활용하는 현업 개발자
✅ 본인의 분야에 딥러닝을 접목하고 싶은 분
✅ AI 업계로 이직을 준비하시는 분
✅ 딥러닝 강의를 준비하시는 교수님
👉 한마디로, 딥러닝 기초 이론을 완벽하게 다지고 싶은 분!
💡 왜 이 책을 봐야 하나요?
이 책에는 3년의 세월이 담겨있습니다.
수많은 강의 경험을 통해 다듬고 정제한 내용을 녹여냈습니다.
(박사학위논문 쓰는 것보다도 힘들었어요.. 😭)
그만큼 온 정성을 다했고 정말 자신 있게 추천드립니다!
단순한 개념 설명을 넘어, 보다 깊은 이해를 돕는 책을 만들고자 했습니다.
그래서 하나의 주제에 대해 굉장히 디테일하게 파고들며
✅ 용어의 유래
✅ 동작 방식 및 원리
✅ 꼼꼼한 수식 전개
✅ 직관적 이해를 돕는 참신한 실험 결과들
✅ 개념 간의 연결성과 깔끔한 요약 정리
✅ "왜 이 개념을 알아야 하는지?"에 대한 설명까지
차근차근 제시합니다.
🎨 완성도에 대한 고집
내용도 내용이지만, 디자인에도 공을 많이 들였습니다.
☝ 282개의 삽화 하나하나 수차례 수정을 거쳐 완성도를 높였습니다.
✌ 표지부터 내지까지, 보기만 해도 소장하고 싶게끔 만들었습니다.
저조차도 "갖고 싶다"는 생각이 들게 하는 책입니다. ㅎㅎ
그만큼 핵심 내용을 보기 좋게 잘 정리했다고 자부합니다!
서점에 갔는데 이 책이 보이면 꼭 한번 펼쳐봐 주세요.
제가 자신 있게 추천드리는 이유를 직접 확인하실 수 있을 겁니다!
🔥 혁펜하임과 딥러닝 마스터하기!
LEVEL 1 - Easy! 딥러닝
hyukppen.modoo.at/?link=2n1a6p7t
LEVEL 1 - 인스톨! 파이토치
hyukppen.modoo.at/?link=131k3k7g
LEVEL 2 - Legend 13
hyukppen.modoo.at/?link=5db82s6p
LEVEL 2 - TTT: To The Transformer
hyukppen.modoo.at/?link=21c4dj8y
LEVEL 3 - ATT: After The Transformer
hyukppen.modoo.at/?link=2mcbufeg
‼ 강의 모집 공지 가장 빠르게 받아볼 수 있는 곳!
혁펜하임 딥러닝 공부방 2호점
👉 open.kakao.com/o/gcArsq1g
(참여코드: 3300)
(⭐ 곧 정원에 도달합니다. 이후 입장 불가!)
(⭐ 대학생부터 대학원생, 개발자, 교수, 의사 등 딥러닝에 정말 진심인 분들이 모여 있는 대한민국 최고의 딥러닝 공부방)
안녕하세요 혁펜하임님
방금 강의 보면서 궁금한 점이 생겼는데요.
인공신경망 깊이가 깊어졌을때 기울기 소실이 일어나 사원이 학습이 안되서 전체적인 성능을 망칠 수 있다라고 하신 말씀이 차라리 히든레이어 하나의 층만을 가질때보다 성능이 안좋아질 수 있다라는 의미로 말씀하신건 아니신거죠?!!
그것보다는 그냥 입력층의 가까운 애들이 의미가 떨어진다로 해석하는게 더 맞을까요? 아니면 정말로 오히려 안좋아 질 수 있다로 이해해야 할까요?
@@음악역휴게소 처음에 맞게 이해하셨습니다. 기울기 소실이 일어나면 깊은 것이 얕은 것보다 성능이 오히려 더 떨어질겁니다 ㅎㅎ
영상의 설명처럼 앞에서 이미 정보를 망가뜨려놓기 때문이죠!
실제로 실험을 해보시면 직접 확인해보실 수 있습니다 ㅎㅎ
very good