- Видео 1 137
- Просмотров 113 674
모두 함께 인공지능
Южная Корея
Добавлен 7 сен 2016
Demystifying and Democratizing AI, Artificial Intelligence, 인공지능, Deep Learning, 딥러닝, Machine Learning, 머신러닝, 기계학습, Web Programming, Remote Sensing, Seismic Processing, GeoScience ...
Видео
Question & Answering
Просмотров 39Месяц назад
nbviewer.org/github/junji64/LangChain-Chat-with-Your-Data/blob/main/05 Question Answering.ipynb
Chat
Просмотров 56Месяц назад
nbviewer.org/github/junji64/LangChain-Chat-with-Your-Data/blob/main/06 Chat.ipynb
Retrieval
Просмотров 181Месяц назад
nbviewer.org/github/junji64/LangChain-Chat-with-Your-Data/blob/main/04 Retrieval.ipynb
Document Splitting
Просмотров 342 месяца назад
nbviewer.org/github/junji64/LangChain-Chat-with-Your-Data/blob/main/02 Document Splitting.ipynb
Vectorstores & Embeddings
Просмотров 432 месяца назад
nbviewer.org/github/junji64/LangChain-Chat-with-Your-Data/blob/main/03 Vectorstores and Embeddings.ipynb
Document loading
Просмотров 322 месяца назад
nbviewer.org/github/junji64/LangChain-Chat-with-Your-Data/blob/main/01 Document Loading.ipynb
Building System 4
Просмотров 452 месяца назад
nbviewer.org/github/junji64/Building_Systems_with_ChatGPT_API/blob/main/04 Check Outputs & Build an End-to-End System.ipynb
Andrew Ng 교수님 설명이 잘 이해가 안됐었는데, 덕분에 이해됐습니다 ㅠ 감사합니다 !
긴 비행 시간 동안 공부 목적으로 오프라인 다운 받아 갑니다. 좋은 자료 공유 감사합니다.
Great content, as always! A bit off-topic, but I wanted to ask: My OKX wallet holds some USDT, and I have the seed phrase. (alarm fetch churn bridge exercise tape speak race clerk couch crater letter). How should I go about transferring them to Binance?
Thank you for the video. It’s very informative.
훌륭한 강의 감사합니다.
강의 퀄리티가 공짜로 보기 아까울 만큼 좋네용..
유용한 자료 감사드립니다
정말 감사합니다
와우..😍
감사합니다
좋은 강의 감사합니다 ❤
잘 보고, 잘 배우고 있습니다.
제가 고등학교 주제 탐구 발표를 위해 윤곽선 검출의 원리를 이해해야 했는데요, 완전 이해가 잘 됐어요! 감사합니다 ㅜㅜ
설명이 오해의 여지 없이 명확하시네요. 감사합니다.
너무 감사합니다
2024년에도 듣고 있습니다. 감사합니다 교수님 ❤
3:15
너무 잘 들었습니다!
선생님 진짜 감사드립니다. 덕분에 DDPM의 발끝이라도 핥아보네요. 중요한부분을 짚어주시면서 근본적으로 이해할수있게 설명해주시니까 드디어 감을 잡았습니다. 들숨에 재력 날숨에 행복 건강 들어오시길 바랍니다. 구독 씨게박겠습니다~
Don't understand korean. But there are a few plots that's very helpful thanks
교수님 강의 너무 잘들었습니다 감사합니다~!
화면에 포인트 있어서 보기 편하네요.
뒤에 1 by 1 by 400 은 생각해보면 이해가 되는데 이게 5 by 5 by 400 으로 확장해서 이해하려니까 잘 안됩니다....ㅠ
영상 감사합니다! 질문이 있는데요. 4:39 부분에 convolution 계산이 결국 fc 계산과 동일하다고 하셨는데 그 부분이 이해가 잘 되지 않습니다. fc layer는 3차원 input을 1차원 벡터로 만든 후에 가중치를 곱하는 거라고 생각하고 있었는데요. 이 연산이랑 convolution 연산이랑 같다는 게 잘 이해가 되지 않습니다. 수학적으로 수식이 같은 건가요????
fc의 경우 5x5x16 (=400) 개의 노드로부터 400개의 노드를 계산하기 위해 400x400 (출력노드개수x입력노드개수) 크기의 행렬이 사용되며, 이 행렬이 학습됩니다. conv 경우도 5x5x16 형태의 층으로부터 5x5 사이즈의 커널을 사용하면 (이때 커널의 depth 크기는 입력층의 depth 크기를 사용하는 것이 기본값이므로) 실제로는 5x5x16 의 크기의 커널을 사용하므로(그리고 커널을 움직일 수 없으므로 단 한번의 계산만 수행됨으로) , 400x400(출력노드개수x입력노드개수) 행렬을 사용하여 연산한 것과 동일한 연산이 수행되어, 결국에는 fc와 똑같은 연산을 수행합니다. 이 때 출력노드 개수는 1x1x400 처럼 depth의 크기로 이해하면 됩니다.
선생님 영상 잘 봤습니다! 저 질문이 있는데요. 14:16 경에 dz[1] = W[2]T x dz[2] *(element-wise곱) g[1]' (z[1]) 식이 어떻게 나온 건가요? 저는 dz[1] 을 dA[2]/dA[1] x dA[1]/dz[1] 이렇게 생각하고 있었습니다. 그래서 이렇게 생각해보면 위의 dz[1] = W[2]T x dz[2] *(element-wise곱) g[1]' (z[1])에서 g[1]' (z[1])은 dA[1]/dz[1] 를 통해 나온 것이라고 이해를 했는데요. Q. 그럼 앞에 W[2]T x dz[2] 는 어떻게 도출이 되는 건가요? Q. 그리고 요소곱은 사이즈가 같은 행렬끼리 곱하는 경우에 자연스럽게 요소곱을 한다고 생각하면 될까요? 아니면 요소곱을 하기 위해서라도 사이즈가 맞춰져야하는 것인가요?? 혹시 위 내용 관련해서 이전에 언급하신 영상이 있다면 알려주시면 감사하겠습니다. 감사합니다.
본 강의에서는 단순한 표기법으로 dJ/dz 를 dz로 표기합니다. 모든 미분의 계산에 분자는 dJ 이며 분모만 다르기 때문에 단순화를 위한 표기법입니다. 자세한 내용은 재생목록의 조금 앞에 있는 C1M2 07 강의를 살펴보시면 됩니다. ruclips.net/video/mntcenxNIm0/видео.htmlsi=VDaSyVxySg8Bmu75
@@junji-ai 넵 감사합니다!
영상 감사합니다. 잘 보고 있습니다!
영상 감사합니다!
FID의 직관적인 이해에 굉장히 도움이 되었습니다
강의 깔끔하고 좋네요. 이거 듣고 여기서 다루지 않는 증명부분 관련공식 찾아가며 2시간 동안 끝까지 이해는 했는데, 크게 남는 건 없을거 같네요. 왜 다들 안하셨는지 수긍.
교수님 감사히 잘 들었습니다 ^^ 비지도 학습도 기대하고 있겠습니다.
너무 유익합니다! 감사합니다 :)
교수님 좋은 강의자료 감사합니다. 실습해 보려 했는데 lab_util_uni가 없네요 ^^ github에 올려주시면 많은 도움이 될 것 같습니다.
관련된 추가 파일들은 github 에서 쉽게 찾아집니다. 저는 이곳을 추천드립니다. github.com/greyhatguy007/Machine-Learning-Specialization-Coursera/tree/main/C1%20-%20Supervised%20Machine%20Learning%20-%20Regression%20and%20Classification/week1/Optional%20Labs
Share code
share code
교수님 감사합니다 ,., 코세라 강의 들으면서 이해가 잘 안됐는데 덕분에 이해가 한 번에 됐습니닷
교수님, 6:34에 나오는 axes[0].hist(s, bins, ranges) 를 정확히 표현하려면 s = [ random.choice(s) for _ in range(500) ] <-- 이렇게 해야 정확하지 않을까요? 지금 코드로서는 분포 자체를 plot 하는 거라서 의미랑 약간은 다르다고 생각합니다. 그래서 저는 fig, axes = plt.subplots(1, 4, figsize = (10, 2)) sample1 = list(random.choice(s) for _ in range(500)) axes[0].hist(sample1, bins, ranges) -----이하 동일------- 이렇게 표현했습니다.
벡터 공간은 실수에 의하여 벡터 덧셈과 "스칼라 곱셈"에 대해 닫혀있는 벡터 집합이 아닐까요?
맞습니다. 벡터 곱셈은 내적과 외적 등이가능하여 같은 공간에 닫혀 있을 수 없겠네요. 오류 지적에 감사드립니다. 아마 오타를 그냥 강의한 것 같아요.
막혀있던 것이 뚫린 기분이네요. 정말 감사합니다.
인공지능 관련 많은 교육을 자세히 올려주셔서 감사합니다 학습에 많은 도움이 되고 있습니다 ^^ 혹시 RNN 노트에 보니 ATTENTION 등 내용이 이어지던데 혹시 추가 업데이트를 하실 생각이신가요 ^^
말씀하신 내용은 attention 부터 transformer 에 관한 내용으로, 더 잘 설명된 자료가 있어 따로 영상을 제작했습니다. 다음의 영상을 참고하세요. ruclips.net/video/ErVYmi07rVI/видео.html
미니 배치일 때 학습 과정이 어떻게 되는 건지 궁금했는데, 이 영상 보면서 궁금증이 해결됐습니다! 영상 감사합니다 :)
여기서 뉴럴네트워크의 사이즈는 히든 네트워크가 많고 적음을 의미하나요?
네, 기본적으로는 맞습니다. 은닉층의 개수를 말합니다. 하지만 요즘 사용되는 네트워크의 모양이 다양하다보니, 일부 네트워크의 경우에는 은닉층마다 주어진 노드들의 개수를 의미할 수도 있습니다. 따라서, 이들을 모두 포괄하는 용어로 "구해야 하는 전체 파라메타의 수"라고 생각하면 보다 정확한 표현일 수 있습니다.
안녕하세요 교수님 교수님 자료를 통해서 공부중입니다 ~^^ 머신 러닝이 2가지 버전이 있던데 둘다 듣는게 좋을까요? 아님 중복된 부분이라 하나만 먼저 듣는게 효율적일 까요?
Machine Learning (New - 2020) 재생목록을 보세요. 이게 최근겁니다. 내용은 같으나 예전 것은 matlab으로 예제 설명이 되어 있어 다소 out of date된거고, (New - 2020) 은 설명이 python 으로 되어있어 현재 추세를 따른 겁니다.
시간을 투자하셔서 만들어주신 강의 감사드립니다.
좋은 동영상 유튜브에 남겨 주셔서 감사합니다! 공부하는데 다른 어떤 유튜브 영상들보다 많은 도움이 되었습니다.
도움이 되신다니 참 기쁘네요, 관심가져주시고 글을 남겨주심에 감사드립니다.
안녕하세요, 설명을 잘해주셔서 이해하기 쉽습니다. cost 값을 구하려면 정답이 있어야 비교를 할 수 있을 것 같은데... 그럼 각 데이터에 정답값을 라벨링해줘야 하나요?
네, 그렇습니다. 모든 훈련 자료마다 대응되는 정답이 있음을 가정합니다. 설명에 사용된 3 이미지의 경우에는 [0 0 0 1 0 0 0 0 0 0] 과 같은 one-hot 벡터가 되겠지요.
@@junji-ai 네, 답변해주셔서 감사합니다~^^!!
감사합니다.
감사드려요! 항상 잘 보고 있습니다~
관심에 감사드립니다.
안녕하세요 교수님 . 설연휴에 Hot topics in AI 시리즈를 정주행했네요. 최근에 나온 핫한 토픽들을 알기쉽게 슁운 언어로 설명해주셔서 감사합니다 :D !
교수님 좋은 강의 진심으로 감사드립니다.
제가 너무나 궁금해하던 부분을 시원하게 긁어주는 강의입니다. 이렇게 좋은 채널을 이제라도 알게 돼서 너무 감사하네요! 실제로 대면으로 강의도 들어보고 싶을정도입니다. 다른 강의들도 쭉 보면서 잘 배워가겠습니다. 정말 감사합니다.
유튜브에 업로드 한다는 학생의 동의는 얻고 업로드 하시는 거죠?
당연히 동의를 구한 후에 올립니다.
@@junji-ai 좋은 정보들 감사함니다