📢 이 책으로 나왔습니다!! 🎉 ❗ 구매 링크 👉 교보문고: product.kyobobook.co.kr/detail/S000214848175 👉 yes24: www.yes24.com/Product/Goods/139734696 👉 알라딘: www.aladin.co.kr/shop/wproduct.aspx?ItemId=352995281 👉 출판사 자사몰: shorturl.at/yqZpW (오직 북엔드몰에서만 그립톡 굿즈를 함께 드립니다!) (회원가입시 2,000원 선할인 적립금까지!) 📖 이 책의 특별한 점 ✅ 유튜브에 공개된 내용 + CNN + RNN + Attention까지 완벽 정리 ✅ LEVEL 2 강의 의 CNN 파트 수록 (챕터 7) ✅ LEVEL 2 강의 의 RNN~Attention 파트 수록 (챕터 8) ✅ 수학이 걱정되시는 분들을 위한 수록 ✅ 완벽한 이해를 돕는, 무려 282개의 삽화 ✅ 수십 번의 정제를 거친, 총 351페이지를 꽉 채운 내용 🎯 이런 분들께 추천드립니다! ✅ 인공지능에 관심 있는 대학생 ✅ AI 연구를 하고 있거나 준비 중인 대학원생 ✅ AI를 활용하는 현업 개발자 ✅ 본인의 분야에 딥러닝을 접목하고 싶은 분 ✅ AI 업계로 이직을 준비하시는 분 ✅ 딥러닝 강의를 준비하시는 교수님 👉 한마디로, 딥러닝 기초 이론을 완벽하게 다지고 싶은 분! 💡 왜 이 책을 봐야 하나요? 이 책에는 3년의 세월이 담겨있습니다. 수많은 강의 경험을 통해 다듬고 정제한 내용을 녹여냈습니다. (박사학위논문 쓰는 것보다도 힘들었어요.. 😭) 그만큼 온 정성을 다했고 정말 자신 있게 추천드립니다! 단순한 개념 설명을 넘어, 보다 깊은 이해를 돕는 책을 만들고자 했습니다. 그래서 하나의 주제에 대해 굉장히 디테일하게 파고들며 ✅ 용어의 유래 ✅ 동작 방식 및 원리 ✅ 꼼꼼한 수식 전개 ✅ 직관적 이해를 돕는 참신한 실험 결과들 ✅ 개념 간의 연결성과 깔끔한 요약 정리 ✅ "왜 이 개념을 알아야 하는지?"에 대한 설명까지 차근차근 제시합니다. 🎨 완성도에 대한 고집 내용도 내용이지만, 디자인에도 공을 많이 들였습니다. ☝ 282개의 삽화 하나하나 수차례 수정을 거쳐 완성도를 높였습니다. ✌ 표지부터 내지까지, 보기만 해도 소장하고 싶게끔 만들었습니다. 저조차도 "갖고 싶다"는 생각이 들게 하는 책입니다. ㅎㅎ 그만큼 핵심 내용을 보기 좋게 잘 정리했다고 자부합니다! 서점에 갔는데 이 책이 보이면 꼭 한번 펼쳐봐 주세요. 제가 자신 있게 추천드리는 이유를 직접 확인하실 수 있을 겁니다!
🔥 혁펜하임과 딥러닝 마스터하기! LEVEL 1 - Easy! 딥러닝 hyukppen.modoo.at/?link=2n1a6p7t LEVEL 1 - 인스톨! 파이토치 hyukppen.modoo.at/?link=131k3k7g LEVEL 2 - Legend 13 hyukppen.modoo.at/?link=5db82s6p LEVEL 2 - TTT: To The Transformer hyukppen.modoo.at/?link=21c4dj8y LEVEL 3 - ATT: After The Transformer hyukppen.modoo.at/?link=2mcbufeg ‼ 강의 모집 공지 가장 빠르게 받아볼 수 있는 곳! 혁펜하임 딥러닝 공부방 2호점 👉 open.kakao.com/o/gcArsq1g (참여코드: 3300) (⭐ 곧 정원에 도달합니다. 이후 입장 불가!) (⭐ 대학생부터 대학원생, 개발자, 교수, 의사 등 딥러닝에 정말 진심인 분들이 모여 있는 대한민국 최고의 딥러닝 공부방)
일단 이 그림은 loss를 그리는 것이므로 feature vector가 축이 되는 것은 아닙니다. parameter를 축으로 봐야하는데, 파라미터가 a, b 두 개라고 했을 때 Loss=a^2+b^2 와 같이 표현되면 원형이 나옵니다 ㅎㅎ 좀더 일반적인 표현으론 2*(a-1)^2 + 2*(b-3)^2 + 5 얘도 원형이 나오겠죠? 원의 방정식을 떠올리시면 될 것 같습니다!
📢 이 책으로 나왔습니다!! 🎉
❗ 구매 링크
👉 교보문고: product.kyobobook.co.kr/detail/S000214848175
👉 yes24: www.yes24.com/Product/Goods/139734696
👉 알라딘: www.aladin.co.kr/shop/wproduct.aspx?ItemId=352995281
👉 출판사 자사몰: shorturl.at/yqZpW
(오직 북엔드몰에서만 그립톡 굿즈를 함께 드립니다!)
(회원가입시 2,000원 선할인 적립금까지!)
📖 이 책의 특별한 점
✅ 유튜브에 공개된 내용 + CNN + RNN + Attention까지 완벽 정리
✅ LEVEL 2 강의 의 CNN 파트 수록 (챕터 7)
✅ LEVEL 2 강의 의 RNN~Attention 파트 수록 (챕터 8)
✅ 수학이 걱정되시는 분들을 위한 수록
✅ 완벽한 이해를 돕는, 무려 282개의 삽화
✅ 수십 번의 정제를 거친, 총 351페이지를 꽉 채운 내용
🎯 이런 분들께 추천드립니다!
✅ 인공지능에 관심 있는 대학생
✅ AI 연구를 하고 있거나 준비 중인 대학원생
✅ AI를 활용하는 현업 개발자
✅ 본인의 분야에 딥러닝을 접목하고 싶은 분
✅ AI 업계로 이직을 준비하시는 분
✅ 딥러닝 강의를 준비하시는 교수님
👉 한마디로, 딥러닝 기초 이론을 완벽하게 다지고 싶은 분!
💡 왜 이 책을 봐야 하나요?
이 책에는 3년의 세월이 담겨있습니다.
수많은 강의 경험을 통해 다듬고 정제한 내용을 녹여냈습니다.
(박사학위논문 쓰는 것보다도 힘들었어요.. 😭)
그만큼 온 정성을 다했고 정말 자신 있게 추천드립니다!
단순한 개념 설명을 넘어, 보다 깊은 이해를 돕는 책을 만들고자 했습니다.
그래서 하나의 주제에 대해 굉장히 디테일하게 파고들며
✅ 용어의 유래
✅ 동작 방식 및 원리
✅ 꼼꼼한 수식 전개
✅ 직관적 이해를 돕는 참신한 실험 결과들
✅ 개념 간의 연결성과 깔끔한 요약 정리
✅ "왜 이 개념을 알아야 하는지?"에 대한 설명까지
차근차근 제시합니다.
🎨 완성도에 대한 고집
내용도 내용이지만, 디자인에도 공을 많이 들였습니다.
☝ 282개의 삽화 하나하나 수차례 수정을 거쳐 완성도를 높였습니다.
✌ 표지부터 내지까지, 보기만 해도 소장하고 싶게끔 만들었습니다.
저조차도 "갖고 싶다"는 생각이 들게 하는 책입니다. ㅎㅎ
그만큼 핵심 내용을 보기 좋게 잘 정리했다고 자부합니다!
서점에 갔는데 이 책이 보이면 꼭 한번 펼쳐봐 주세요.
제가 자신 있게 추천드리는 이유를 직접 확인하실 수 있을 겁니다!
🔥 혁펜하임과 딥러닝 마스터하기!
LEVEL 1 - Easy! 딥러닝
hyukppen.modoo.at/?link=2n1a6p7t
LEVEL 1 - 인스톨! 파이토치
hyukppen.modoo.at/?link=131k3k7g
LEVEL 2 - Legend 13
hyukppen.modoo.at/?link=5db82s6p
LEVEL 2 - TTT: To The Transformer
hyukppen.modoo.at/?link=21c4dj8y
LEVEL 3 - ATT: After The Transformer
hyukppen.modoo.at/?link=2mcbufeg
‼ 강의 모집 공지 가장 빠르게 받아볼 수 있는 곳!
혁펜하임 딥러닝 공부방 2호점
👉 open.kakao.com/o/gcArsq1g
(참여코드: 3300)
(⭐ 곧 정원에 도달합니다. 이후 입장 불가!)
(⭐ 대학생부터 대학원생, 개발자, 교수, 의사 등 딥러닝에 정말 진심인 분들이 모여 있는 대한민국 최고의 딥러닝 공부방)
미니배치 하강법이나 리그레션같은것도 다뤄주시나요?
선형 회귀 2-3강에 준비되어 있습니다 ㅎㅎ 영상 뒷부분에서 재생목록타고 들어가실 수 있습니다!
미니배치는 마침 담주 월요일에 올라길 예정입니다!
역으로 global minimum 으로부터 탈출의 기회가 되기도...😢
혁펜하임님! 강의 잘 듣고 있습니다 :) 이렇게 좋은 강의 해주셔서 감사드립니다.. 강의 중 표현하신 좋은 local minimum의 기준이 있을까요? 어떤 것을 좋은 local minumum이라 생각할 수 있을지 궁금합니다.
값이 낮은 local minimum 일수록 좋습니다!
물론 여기서 나아가서 training loss 뿐만 아니고 val loss까지 봐야겠지만요~
등고선이 원형이라는 건 각각의 feature vector의 모양이 같기 때문이라고 생각 해도 될까요?
원형이라면 즉, global minimum에 대해 대칭이라는 의미 인거 같고 그렇게 되려면 각 축에 대해서 그래프의 모양이 일치해야 되지 않을까 싶어서요..
일단 이 그림은 loss를 그리는 것이므로 feature vector가 축이 되는 것은 아닙니다. parameter를 축으로 봐야하는데, 파라미터가 a, b 두 개라고 했을 때 Loss=a^2+b^2 와 같이 표현되면 원형이 나옵니다 ㅎㅎ 좀더 일반적인 표현으론 2*(a-1)^2 + 2*(b-3)^2 + 5 얘도 원형이 나오겠죠? 원의 방정식을 떠올리시면 될 것 같습니다!
2024-08-12 월
떴다 내 야동
즐감 ㅎ