[공지] 강의에 사용된 소스 코드 및 학습 자료의 링크입니다 😍 : nadocoding.tistory.com/92 모두 꼭 완강하시길 응원하겠습니다. ^^ 아자아자!! 🔴실습 에러 관련 안내🔴 K-평균에서 최적의 K값 찾기(엘보우 방법, 3:35:30 근처)를 실습하는 과정에서 다음과 같이 threadpoolctl 관련 오류가 발생하시는 분은 File ~\AppData\Roaming\Python\Python39\site-packages\sklearn\utils\fixes.py:162, in threadpool_info() 160 return controller.info() 161 else: --> 162 return threadpoolctl.threadpool_info() 터미널에서 아래 명령을 통해 threadpoolctl 을 3.x 버전으로 올려서 해결되는 경우가 있다고 하니 참고 바랍니다. pip install threadpoolctl --upgrade 제보해주신 yumyum 님께 감사드립니다. 🙆♂🙇♂
몇주전부터 매일 이 영상 보면서 따라해보고 공부하고 있습니다. 정말 감사합니다. 도움이 정말 많이 되고 있어요. 박사과정 시작하면서 연구에 적용하기 위해 갑작스럽게 머신러닝을 시작해야해서 너무 혼란스러웠는데 이 영상으로 기초부터 알 수 있어서 도움을 많이 받고 있습니다. 정말 감사드리고 앞으로도 좋은 강의 영상 많이 부탁드립니다.
방금 전에 이번 강의 정주행을 마쳤습니다. 유튜브 동영상을 이용한 코딩 교육이 좋은 점은 이해안되는 부분이나 어떠한 이유로든 막히는 부분이 있으면 동영상을 멈추고 긴 시간 동안 사색 또는 검색을 시도한 다음 다시 진도를 나갈 수 있다는 것입니다. 코딩 교육에 이보다 더 좋은 방법이 있을까 의문입니다. 정말 감사하다는 말씀을 드리고 싶고, 다른 동영상 올려주신 것도 학습하면서 열심히 배우겠습니다. 오늘이 추석인데 지금 보름달을 보면서 나도코딩님 대박나시기를 기원할 것입니다. 꾸벅!
수고 많으셨습니다. 선형회귀의 경사하강법 설명하실 때 마치 최소제곱법이 값이 큰 이산값에 취약하기 때문에 경사하강법이 나온 것 처럼 설명하셨는데, 경사하강법은 비용함수를 최소로하는 W 값을 찾기 위한 알고리즘의 하나인 것이고 경사하강법을 쓴다고 해서 이산값에 영향을 안받는것은 아니지 않나요? linear regression 자체가 데이타의 분포를 선형이라고 가정하고 최적의 w 값을 찾는 것인데, 경사하강법이든 최소제곱법이든 선형에서 벗어난 이산값에는 당연히 취약한 모델이 아닌가 하여 문의 드립니다.
그냥 경사하강법 설명하실 때, epoch 라는 것이 모든 데이터를 한번씩 사용해서 경사하강을 하는 것처럼 말씀해주셨는데, Ramdom 으로 정한 W, b의 초기값인 한 지점에서 접선의 기울기만큼 일정 learning rate으로 epoch만큼 반복하여 내려오는 것이 epoch의 개념이 아닌지요? 또 모든 데이터를 다 사용하는 것이 컴퓨터 자원을 많이 쓰기 때문에 확률적 경사하강법을 사용한다고 하셨는데 정확히 어떤 차이점인지 잘 이해가 안되었습니다. 감사합니다.
3:37:16 이 부분에서 경고 메시지가 FutureWarning: The default value of `n_init` will change from 10 to 'auto' in 1.4. Set the value of `n_init` explicitly to suppress the warning warnings.warn( 이렇게 나오시는 분들은 kmeans 값 지정하는 부분에 n_init=10 추가하시면 해결됩니다.
로지스틱이라 k평균 관련 이론들 설명은 진짜 대단히 쉽게 설명해주셨네요 ㅜㅜㅜ 혼자 책보면서 힘들게 공부하다가 나도코딩님 머신러닝 영상이나 보면서 따라해야겠다 싶었는데 이론설명까지 있을줄이야.... 진작에 이것부터 볼 걸 그랬어요... 너무 감사합니다 덕분에 세미나 준비가 수월해졌습니다 ㅜㅜㅜㅜ
컨텐츠 기반 영화 추천의 get_recommendation 함수를 아래와 같이 심플하게 만들어 봤습니다. def get_recommendation(title, cosine_sim=cosine_sim): return pd.DataFrame(cosine_sim, index=df1['title'], columns=df1['title']).loc[title, :].rank(method='min', ascending=False).sort_values()[:11] df1의 영화 제목(title)을 cosine_sim 의 인덱스와 컬럼으로 하는 데이타 프레임 만들어서 영화제목으로 인덱싱해서 rank 함수의 11등까지만 출력하는 것이 핵심입니다.
@@nadocoding 이제 이번 강의 프로젝트도 거의 다 들어가구 업무자동화 편만 보면 다 보는건데..!! 혹시...FastAPI나 Flask, Django 쪽은... 강의 계획이... 있으실까요 흐흐... 😏 너무 재밌게 잘 가르치셔서.... 더 ... 더.. 주세요...
나도코딩님 덕분에 코딩을 진짜 제대로 배우고 있는 것 같아요. 친절하고 자세한 설명 너무나도 감사합니다.!!❤ 영상보다가,, 질문이 한가지 있는데요, 다중, 다항회귀의 경우에는, 어떻게 모델을 만들 수 있나요?? 예를 들어, y = m1*x1 + m2*x2 + m3*x2^2 +b 같이, 다항회귀이면서,, 다중회귀인 경우에요!
교수님 안녕하세요, 확률적 경사하강법에 질문이 있습니다. 확률적 경사하강법은 매 step에서 딱 한개의 샘플을 무작위로 선택하고, 그 하나의 샘플에 대한 기울기를 계산하기 떄문에 모든 데이터를 계산하지 않아도 되서 그냥 경사하강법보다 효율적이라고 하는데요. 에포크의 정의를 보면 훈련세트를 모두 한번 사용하는 것을 말한다고 해서 조금 헷갈립니다. 확률적 경사하강법은 확률적으로 선별적으로 데이터를 사용하여 극소값을 찾아내는 것 아닌가요?
2:41:55 에서 min(X), max(X)에 들어갈 X는 그냥 전체 데이터 X가 아니라 X_train이 되어야 하는 것 아닌가요? 전체 데이터를 통해서 모델을 만드는 것인가요? train 모델을 통해서 모델을 만들고 그것을 test 모델에 적용해서 정확도를 평가하는 것인가요?
제가 학교 세특에 이 프로젝트를 넣으면 너무 좋을 것 같아서 영상을 보며 학습하려 하는데 고3이어서 다 보기에는 시간이 많이 부족해서요 ㅠㅠ 다 중요한 개념인 건 알지만 시간상 추천 시스템 만들때 꼭 필요한 최소한의 개념만 들으려면 어디어디를 들어야 할까요...? ( 파이썬 6시간 강의도 잘보고 있어요! 항상 감사해요)
[공지] 강의에 사용된 소스 코드 및 학습 자료의 링크입니다 😍
: nadocoding.tistory.com/92
모두 꼭 완강하시길 응원하겠습니다. ^^ 아자아자!!
🔴실습 에러 관련 안내🔴
K-평균에서 최적의 K값 찾기(엘보우 방법, 3:35:30 근처)를 실습하는 과정에서 다음과 같이 threadpoolctl 관련 오류가 발생하시는 분은
File ~\AppData\Roaming\Python\Python39\site-packages\sklearn\utils\fixes.py:162, in threadpool_info()
160 return controller.info()
161 else:
--> 162 return threadpoolctl.threadpool_info()
터미널에서 아래 명령을 통해 threadpoolctl 을 3.x 버전으로 올려서 해결되는 경우가 있다고 하니 참고 바랍니다.
pip install threadpoolctl --upgrade
제보해주신 yumyum 님께 감사드립니다. 🙆♂🙇♂
여기서 파이썬 배우기 시작해서 사무실에서 쓰는 자동화 프로그램도 만들고 데이터분석도 공부해서 이번에 빅데이터 분석기사도 땄습니다 감사합니다
컥.. 저보다 훨 나으시네요.. ㅎㅎㅎ 대단하십니다
@@nadocoding 형은 위대합니다
빅데이터 분석기사 어렵나요?? ㄷㄷ 준비하는데 대단하시네..
@@DanielYoonify 코딩실력 유무나 통계지식에 따라 좀 갈립니다
자동화 프로그램 어떤 걸 만드셨는지 궁금하네요.
전공자인데도 강의를 듣다보면 정말 새로 배우는듯 감탄사가 절로 나옵니다.
감사합니다.
멋집니다. 많은 분들에게 큰 도움이 될 것 같아요. 저도 소개 많이 하겠습니다!
우아아!! 생활코딩님 방문 감사드립니다. ^^ 큰 영광이에요 ㅎㅎ 오랜 기간 꾸준히 많은 분들께 좋은 에너지, 좋은 지식 나눠주셔서 늘 감사한 마음을 가지고 있습니다. 저도 작게나마 동참할 수 있도록 노력하겠습니다 :)
진짜들의 만남
하늘 아래에 두개의 태양이 모얐드아
코딩 강의 유투버 중에서 단연 최고라고 생각합니다. 정성까지 느껴지고, 내용도 탄탄해서 강추 합니다! 머신러닝 막막했는데 알게해주셔서 감사합니다! 최고!!
아이코 ㅎㅎ 감사합니다!!
좋은 강의 감사합니다.
10년차 웹 개발자 입니다. 현재 새로운 공부를 위해 머신러닝, 딥러닝 공부중인데, 책도 보고, 이해해 배로겨 노력했지만,
이해가 안되는 부분이 많았는데, 덕분에 많이 이해했습니다.
커피한잔 맛있게 드시고, 좋은 하루 되세요
안녕하세요 ^^ 인공지능은 공부할 내용도 꽤 많은데 책으로만 보면 너무 어렵게 느껴지더라구요. 시청각 자료와 쉬운 예제로 실습을 하면 조금 나을 것 같았는데, 작게나마 도움을 드린 것 같아 정말 기쁩니다. 커피 맛있게 잘 마실게요! 앞으로의 여정도 응원하겠습니다.
수강 시작했습니다.
머신러닝 혼자 공부하기 어려웠는데 나도코딩님 강의 보면서 파이썬 기초부터 데이터 분석까지 배워서 실무에서 사용하고 있었습니다.
이번엔 머신러닝도 공부해서 커리어 점프 해보겠습니다!!
22.08.04 42:22
22.08.06 1:16:46
22.08.07 1:52:10
22.08.08 2:41:07
22.08.09 3:54:40
22.08.10 4:14:22
22.08.11 4:43:03
22.08.12 5:14:44
22.08.16 5:53:23
22.08.17 6:02:46
22.08.18 6:43:28 드디어 완강 했습니다. 좋은 수업 올려주셔서 감사합니다.
나도코딩님 영상으로 파이썬을 시작했습니다. 머신러닝도 나도코딩님 영상으로 시작합니다. 감사합니다.
드디어 강의 끝까지 봤습니다. 까먹기 전에 복습해야겠습니다.
무척 덥습니다. 건강 조심하시고 시원한 커피라도 한잔하세요~ 감사합니다.😀
😍 꺅....감사합니다 ㅠㅠ 시원한 커피 감사히 잘 마시겠습니다 ㅎㅎㅎ
공부하는데 처음 보는 용어들이 많아서 한번에 안 되겠네요. 잘 모르면 반복 학습이지요. 계속 감사드립니다.
정말 이정도 퀄리티 강의를 무료로 공개해주시다니... 정말 정말 대단하시고 감사합니다ㅜㅜ
선생님 강의는 항상 귀에 쏙쏙 들어오는군요... 귀한 지식 공유해주셔서 감사드립니다.
선생님
좋은 강의 정말 감사드립니다.
파이썬 기본편과 활용편(웹스크래핑, 사무자동화, 데이터분석, 머신러닝)을 들었고
실무에 자주 활용하면서 도움을 많이 받았습니다.
정말 감사드립니다. 앞으로도 번창하십시오. (꾸벅)
회귀모델평가 다른 강의에서 공부했을때는 이해가 하나도 안됬는데 이 강의에선 그림으로 친절하게 설명해주니 너무 좋네요..ㅠ 최고의 강의...^^
파이썬 강의는 빠짐없이 다 보고 배우고 있습니다. 직장 생활하는데 많이 활용하고 있어요. 머신러닝도 책사서 공부 조금 하다가 잠시 던져놨는데 강의 보면서 다시 시작해야겠습니닷~
좋은 강의 감사드립니다.
8시만 되길 기다렸습니다. 바로 봅니다. 감사합니다.
감사합니다 ^^ 도움되길 바라겠습니다
혼자 인공지능 공부하다가 모르거나 이해 안가는 개념있으면 이영상에서 찾아서 해결합니다. 정말 감사드립니다. 새해복 많이 받으십쇼🙏
저의 꿈을 이룰 수 있도록 섬세한 가르침을 무료로 주심에 깊은 감사드려요.
존경합니다. 이 은혜 반드시 갚고 싶어요~
1:13:25
너무 너무 너무 너무 너무 너무 감사합니다
좋은 일 가득하시길 바랍니다!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
몇주전부터 매일 이 영상 보면서 따라해보고 공부하고 있습니다. 정말 감사합니다. 도움이 정말 많이 되고 있어요. 박사과정 시작하면서 연구에 적용하기 위해 갑작스럽게 머신러닝을 시작해야해서 너무 혼란스러웠는데 이 영상으로 기초부터 알 수 있어서 도움을 많이 받고 있습니다. 정말 감사드리고 앞으로도 좋은 강의 영상 많이 부탁드립니다.
도움드릴 수 있어서 정말 뿌듯합니다 ^^ 하시는 연구 잘 마치시고 학업도 잘 마무리지으시길 응원하겠습니다 박사님!! 댓글 진심으로 감사드립니다.
최근에 데이터 과학 공부하기 시작해서 여러가지 유료,무료 강의나 서적들 보고 있는데 입문자한테는 이 이상의 컨텐츠가 없다고 생각합니다. 정말 감사합니다. 앞으로도 데이터 과학 관련 영상들 많이 올려주시면 감사하겠습니다.
오랜 기다림끝에,,! 선좋아요 후 달립니다ㅎㅎ 늘 감사합니다 나도코딩님👍🏻👍🏻
준비기간이 꽤 길었네요, 기다려주셔서 감사합니다 ^^
최고의 머신러닝 강의네요.
잘 배웠습니다~
딥러닝이랑 요즘 유행하는 LLM 도 배워보고 싶네요 ㅎㅎ
방금 전에 이번 강의 정주행을 마쳤습니다. 유튜브 동영상을 이용한 코딩 교육이 좋은 점은 이해안되는 부분이나 어떠한 이유로든 막히는 부분이 있으면 동영상을 멈추고 긴 시간 동안 사색 또는 검색을 시도한 다음 다시 진도를 나갈 수 있다는 것입니다. 코딩 교육에 이보다 더 좋은 방법이 있을까 의문입니다. 정말 감사하다는 말씀을 드리고 싶고, 다른 동영상 올려주신 것도 학습하면서 열심히 배우겠습니다. 오늘이 추석인데 지금 보름달을 보면서 나도코딩님 대박나시기를 기원할 것입니다. 꾸벅!
긴 강의인데 시청해주셔서 감사합니다. 도움드릴 수 있어서 기쁘네요 ^^ 보름달을 보면서 대박 기원이라니 ㅎㅎㅎ 말씀만으로도 감사합니다. 다른 강의도 잘 부탁드립니다!
혼자 책을 보면서 이해가 되지 않아서 마음 고생이 심했습니다. 나도 코딩님께서 설명을 너무 잘해주셔서 한번 전체 강의를 듣고, 그 다음에는 노트정리를 하려고 합니다. 매우 매우 감사합니다.
^^ 도움드릴 수 있어서 뿌듯합니다!! 따뜻한 피드백 너무나 감사드려요. 큰 힘이 됩니다 ㅎㅎ
우와 드디어 떴네요 ~~^^ 기다리고 있었습니다. 반복해서 열심히 또 공부해보겠습니다. 감사합니다.
잘 부탁드립니다 ^^
이런 양질의 좋은 강의를 무료로 올려주시다니 너무너무 감사합니다
훗날 사회에 큰 변화를 이끌어내는 일을 하게 되었을 때 꼭 감사함을 표하겠습니다
진짜 최고의 강의 최고의 유튜버!!
코딩 공부하는 17살입니다! 나도코딩님 덕분에 얻어가는게 정말 많습니다. 이번 영상만큼 기다리던게 없는데 방학 동안 맛있게 듣겠습니다!!
인생의 황금기에 제 강의를 들어주신다니, 영광입니다. 보람찬 방학 되기를 바랄게요 ^^
@@nadocoding*^^*
드디어 기다리고 기다린 강의예요!!! 6시간동안 꼭꼭 씹어 맛있게 잘먹을게용 항상 감사해요😄😄
잘 지내셨지요? ^^ 꼭 완강하시길 바라겠습니다!
어제부터 영상 보고 따라하기 시작해서 벌써 '36.인구 통계학적 필터링 #1' 앞두고 있습니다. 다소 어려운 용어들도 이해하기 쉽게 그림으로 설명해주셔서 감사합니다. 완강하더라도 한번 더 돌려보겠습니다!
수고 많으셨습니다. 선형회귀의 경사하강법 설명하실 때 마치 최소제곱법이 값이 큰 이산값에 취약하기 때문에 경사하강법이 나온 것 처럼 설명하셨는데, 경사하강법은 비용함수를 최소로하는 W 값을 찾기 위한 알고리즘의 하나인 것이고 경사하강법을 쓴다고 해서 이산값에 영향을 안받는것은 아니지 않나요? linear regression 자체가 데이타의 분포를 선형이라고 가정하고 최적의 w 값을 찾는 것인데, 경사하강법이든 최소제곱법이든 선형에서 벗어난 이산값에는 당연히 취약한 모델이 아닌가 하여 문의 드립니다.
처음 댓글 씁니다. 귀에 쏙쏙 박히게 잘 설명주시네요..ㅎ 머신러닝 공부하려고 막막했는데 너무 좋네요.
이번에도 멋진 강의 선물주셔서 감사합니다^^
와.... 드디어! 어마어마 한!! 7월 은 이 영상 하나로 보내겠내요! 정말 감사하고 고생 많으셨습니다 사부님!
^^ 늘 감사합니다! 도움되길 바래요!!
한국파이선강좌원탑
^^;; 감사합니다
수고 많으셨습니다. 따라한다고 다 따라해봤는데 ㅎㅎ 복습을 꼭 해봐야 기억을 할 수 있겠네요.
업무나 개인공부에 정말 많이 도움이 됩니다. 감사합니다.
하루만에 다 보기 성공!
좋은 강의 감사합니다 ㅎㅎ 특히 회귀모델 평가지표 진짜 이해하기 쉽게 설명해주셔서 좋았습니다.
안까먹게 몇번 다시 봐야겠어요 01:35:13~01:47:32
이런 강의를 무료로 들을 수 있다니 ... 너무 감사합니다!!!
머신러닝을 다른 강의,책도 들어봤지만 전체적으로 이해하기 쉽지 않았는데 나도코딩님 덕분에 정말 빛을 본 느낌입니다. ㅠ_ㅠ 감사합니다. 정말, 다른 영상도 열심히 볼게요 ㅠㅠ
머신러닝에 대한 기본개념을 알게 되었습니다.
감사합니다.
배워보고 싶었는데 혼자서는 엄두를 내지 못했었어요. 정말 감사히 보겠습니다!
잘 오셨습니다 ^^ 내용이 그리 부담스럽지 않도록 구성했으니 어렵지 않게 학습하실 수 있을거에요!
머신러닝이 뭔지 생소했는데 알고 보니 기본적 원리는 통계학이나 계량경제학 시간에 다 배웠던 거였다니 그러면 한번 공부해볼 만 할 것 같네요
로봇 전공하고 있는 학생이지만 졸업 전에 머신러닝을 접하고 이쪽으로 도전해보고 싶었는데어떻게 공부할지 막막하던 차에 이 영상을 보게 되었습니다. 공부할 수 있게 영상 올려주셔서 감사합니다!
깔끔하게 정리된 강의 감사합니다.
회사에서 제공하는 머신러닝 강의를 듣고는 다른나라 내용인 줄 알았는데, 나도코딩님 강의는 단박에 이해가 됩니다. 나도코딩님 파이썬 강의는 모두 듣고 있는데, 강의를 너무 잘하십니다. 강의관련 책을 출판하시거나 세미나를 하셔도 완전 좋을 듯 합니다. 감사합니다!
아이코오... 감사합니다 ^^;;; 머신러닝이 조금만 깊게 들어가도 많이 어려워지는데 어쩌면 가벼운 부분만 다뤄서 그렇게 여겨질 수도 있을것 같습니다 ㅋㅋ 강의 봐주셔서 감사하고, 이런 힘나는 격려댓글 남겨주셔서 또 감사합니다! ^^
미친 수준의 정성이 들어간 영상 항상 감사합니다.
양질의 강의 올려 주셔서 감사합니다! 최고예요!!
기다리고 기다리던 영상...
정말 감사합니다. 몇번이고 완강 하겠습니다.
기다려주셔서 감사합니다 ^^ 도움되길 바래요!!
😄 기초강의부터 정말 감사히 잘 듣고 있어요! 열심히 듣겠습니다~
^^ 감사합니다!!
드디어 기다렸던 강의가 !!!! 바로 보겠습니다!!!! 나도코딩님 감사합니다.
감사합니다 해원님 ^^
아니 대학교때 들었는데 교수보다 잘가르치냐 어떻게 ㄷㄷ
나도코딩 선생님 덕분에 재밌는거 하나더 알아갑니다 감사합니다
와우 이런 강의를 무료로 볼수 있다니 넘 행복합니다. ^^
그냥 경사하강법 설명하실 때, epoch 라는 것이 모든 데이터를 한번씩 사용해서 경사하강을 하는 것처럼 말씀해주셨는데, Ramdom 으로 정한 W, b의 초기값인 한 지점에서 접선의 기울기만큼 일정 learning rate으로 epoch만큼 반복하여 내려오는 것이 epoch의 개념이 아닌지요? 또 모든 데이터를 다 사용하는 것이 컴퓨터 자원을 많이 쓰기 때문에 확률적 경사하강법을 사용한다고 하셨는데 정확히 어떤 차이점인지 잘 이해가 안되었습니다. 감사합니다.
오호..훌륭하다. 교수들보다 훨 낫네...ㅋㅋㅋㅋ 반성해라. 교수님들아....
대학 수업보다 더 머리에 잘 들어오네요... ㅎㅎ 감사합니다.
지난번 5차 실기시험보고 절망 했는데, 다시 시작 입니다. 감사 합니다. 진작에 알았으면
좋은 결과를 얻었을 지도,,,, ^^ 나도 코딩님, 저도 할 수 있겠죠??!! 나이는 숫자 아자 아자,,,,
그럼요!! 반드시 하실 수 있을거에요 ^^ 응원하겠습니다!!
기다리고 있었슴다.. 너무 감사해요. 열심히 학습하겠습니다!
드디어 나왔다!! 선댓글후 완강하겠습니다
^^ 기다려주셔서 감사합니다. 즐공하세요!!
와우 목차만 봐도 얼마나 정성을 들이셨을지 느껴져요! 더운 여름에 고생 많으셨어요~ 감사히 열공하겠습니다! ^^
잘 지내셨죠? 소영님은 왠지 다 아시는 내용일 것 같지만 ㅎㅎ 즐공하셔요~~ ^^
@@nadocoding 제가 통계 전공이긴 하지만, 공부를 해도 해도 새로워요 ㅎㅎ 영상 올리셨으니 나코님은 휴식을 만끽하셔요~~ ^^
3:37:16 이 부분에서 경고 메시지가
FutureWarning: The default value of `n_init` will change from 10 to 'auto' in 1.4. Set the value of `n_init` explicitly to suppress the warning
warnings.warn(
이렇게 나오시는 분들은
kmeans 값 지정하는 부분에 n_init=10 추가하시면 해결됩니다.
혹시나 해서 넣어봤는데 맞았군요. 감사합니다
강의 내용 중에 질문이 있어서 댓글로 남깁니다. 9.데이터 세트 분리 내용 중 마지막 부분에서 훈련 세트와 테스트 세트로 모델을 평가하는 것이 나오는데 왜 테스트 세트로 평가한 모델의 성능이 조금 도 높게 나오는지 알고 싶습니다.
많이 기다렸는데 드디어 나왔네요. 감사합니다.
기다려주셔서 감사합니다 ^^
와~~머신 러닝까지... 너무 너무 감사합니다.~~~!!
로지스틱이라 k평균 관련 이론들 설명은 진짜 대단히 쉽게 설명해주셨네요 ㅜㅜㅜ 혼자 책보면서 힘들게 공부하다가 나도코딩님 머신러닝 영상이나 보면서 따라해야겠다 싶었는데 이론설명까지 있을줄이야.... 진작에 이것부터 볼 걸 그랬어요... 너무 감사합니다 덕분에 세미나 준비가 수월해졌습니다 ㅜㅜㅜㅜ
멋진 세미나 기대하겠습니다 ^^
이 강의 너무 기다리고 있었어요 ㅠㅠ 감사합니다, 퇴근하고 조금씩 들어야 겠네요!!
귀한 영상 감사합니다~^^
정말 기다리고 기다리던 강의입니다! 역시 이번에도 너무 큰 도움이 되었습니다ㅜ 항상 좋은 강의 정말로 감사드립니다..!!
기다리고 있었습니다 ㅜㅜ 미리 매우 감사합니다.
제작에 생각보다 시간이 많이 걸렸네요 ^^; 기다려주셔서 감사하며, 꼭 도움되길 바라겠습니다!
파이썬 초보 강의들 책으로 만나볼 수 있으면 참 좋을 꺼 같네요
컨텐츠 기반 영화 추천의 get_recommendation 함수를 아래와 같이 심플하게 만들어 봤습니다.
def get_recommendation(title, cosine_sim=cosine_sim):
return pd.DataFrame(cosine_sim, index=df1['title'], columns=df1['title']).loc[title, :].rank(method='min', ascending=False).sort_values()[:11]
df1의 영화 제목(title)을 cosine_sim 의 인덱스와 컬럼으로 하는 데이타 프레임 만들어서 영화제목으로 인덱싱해서 rank 함수의 11등까지만 출력하는 것이 핵심입니다.
1시간전 영상은 못참죠
일단은 강의 부분까지 들었는데요! 전공이 통계학인데 그 때 배운 회귀분석들이랑 군집 분석 부분들이 이해하기 뭔가 어려웠는데 정말 이해하기 좋게 잘 설명해주시네요! 파이썬 강의들이랑 1분 파이썬 너무 잘 듣고 있습니다! 앞으로도 좋은 강의 기대하겠습니다! 감사합니다!
^^ 잘 이해가 되신다니 다행이네요! 도움드릴수 있어서 기쁩니다. 남은 강의도 꼭 완강하시길! 저도 부지런히 좋은 강의 만들도록 열심히 노력하겠습니다 ㅎㅎ
@@nadocoding 이제 이번 강의 프로젝트도 거의 다 들어가구 업무자동화 편만 보면 다 보는건데..!! 혹시...FastAPI나 Flask, Django 쪽은... 강의 계획이... 있으실까요 흐흐... 😏 너무 재밌게 잘 가르치셔서.... 더 ... 더.. 주세요...
Fast API 를 고려중이긴 한데, 그 전에 할 것들이 많아서 언제라고 말씀을 못드리겠습니다 ^^;; 댓글 진심 감사드립니다 ㅎㅎㅎ
@@nadocoding 고려 중이시라니!!! 언제가 됐든 기다리겠습니다😆 항상 건강하시구요! 좋은 강의 다시 한번 감사드립니다!!
@@dlcks17 "언제라고 말씀을 못드리.." 를 재차 강조드리며 ㅋㅋㅋㅋㅋㅋㅋㅋㅋ 언젠간 만들게요 ^^ 편안한 저녁되세요~
항상 감사드립니다.
우와 무료로 머신러닝 강의를 듣다니...
영상 잘 보겠습니다 ^^
감사합니다 ^^ 도움되면 좋겠어요!!
꼭 완주하겠습니다!! 강의 너무 감사해요!
정말 정말 감사합니다
와 책 몇권으로도 이해가 안되던 개념이었는데..
선형대수학 까지 공부했었는데..
인사이트가 대단하십니다. 선생님 ㅋ~
^^ 감사합니다. 도움되는 것 같아서 저도 기쁘네요!!
나도코딩님 덕분에 코딩을 진짜 제대로 배우고 있는 것 같아요. 친절하고 자세한 설명 너무나도 감사합니다.!!❤
영상보다가,, 질문이 한가지 있는데요, 다중, 다항회귀의 경우에는, 어떻게 모델을 만들 수 있나요??
예를 들어, y = m1*x1 + m2*x2 + m3*x2^2 +b 같이, 다항회귀이면서,, 다중회귀인 경우에요!
저장해놓ㄱ 주말에 다 본다!!!
핫 ㅋㅋ 파이팅!!
바로 봅니다ㅎㅎ 감사해요!!👍👍
파이팅입니다!! ^^
영상 정말 감사합니다~~~
아.. 요즘 너무 즐겁습니다. 게임보다 코딩이 더 재밌네요. 혹시 나중에 딥 러닝도 다루시나요? ㅎㅎ
ㅎㅎ 학습의욕이 대단하시네요. 저도 덩달아 기분이 좋아집니다. 딥러닝도 다루려고는 하고 있습니다. 그런데 그 전에 만들 예정인 강의들이 몇 가지 있고, 각 분량이 모두 수시간짜리라서, 딥러닝 강의는 언제가 될지 장담을 못 하겠네요 ^^;
@@nadocoding 여기서 더 다룰 기능들이 또 있나요 ㅎㅎㅎ 기대하겠습니다
다룰 내용은 아직 어마어마하게 많아요, 머신러닝 강의에도 더 추가했으면 하는 주제들이 많았는데 시간이 너무 길어져서 그러지 못했답니다 ㅠㅠ
너무 감사하고 수고 많으셨습니다!!!
감사합니다 ^^
감사합니다.
교수님 안녕하세요, 확률적 경사하강법에 질문이 있습니다. 확률적 경사하강법은 매 step에서 딱 한개의 샘플을 무작위로 선택하고, 그 하나의 샘플에 대한 기울기를 계산하기 떄문에 모든 데이터를 계산하지 않아도 되서 그냥 경사하강법보다 효율적이라고 하는데요. 에포크의 정의를 보면 훈련세트를 모두 한번 사용하는 것을 말한다고 해서 조금 헷갈립니다. 확률적 경사하강법은 확률적으로 선별적으로 데이터를 사용하여 극소값을 찾아내는 것 아닌가요?
2:41:55 에서 min(X), max(X)에 들어갈 X는 그냥 전체 데이터 X가 아니라 X_train이 되어야 하는 것 아닌가요?
전체 데이터를 통해서 모델을 만드는 것인가요? train 모델을 통해서 모델을 만들고 그것을 test 모델에 적용해서 정확도를 평가하는 것인가요?
꼭 수강하겠습니다~ 너무 감사드려요!! ㅠㅠ
^^ 감사합니다
너무 감사합니다
딥러닝 강의도 만들어주시면 안될까요....😢😢😢
vs code 대신 파이참으로도 실행 가능한가요?
와 설명 완전 잘한다
사랑합니다.....나도코딩님
ㅋㅋㅋ아저씨 이러심 안돼요
딥러닝 강의도 만들어주세요!!
이것만 기달렸다!
감사합니다
감독으로 추천은 Linear kernel 을 그외 스태프,배우 등을 통한 추천은 Cosine similarity 을 사용한 이유가 뭔가요?
제가 학교 세특에 이 프로젝트를 넣으면 너무 좋을 것 같아서 영상을 보며 학습하려 하는데 고3이어서 다 보기에는 시간이 많이 부족해서요 ㅠㅠ 다 중요한 개념인 건 알지만 시간상 추천 시스템 만들때 꼭 필요한 최소한의 개념만 들으려면 어디어디를 들어야 할까요...? ( 파이썬 6시간 강의도 잘보고 있어요! 항상 감사해요)