모두 함께 인공지능
모두 함께 인공지능
  • Видео 1 137
  • Просмотров 113 674
LLM의 원리 및 활용 - 마르시스 강연
bit.ly/gen_ai_now
Просмотров: 164

Видео

Question & Answering
Просмотров 39Месяц назад
nbviewer.org/github/junji64/LangChain-Chat-with-Your-Data/blob/main/05 Question Answering.ipynb
Chat
Просмотров 56Месяц назад
nbviewer.org/github/junji64/LangChain-Chat-with-Your-Data/blob/main/06 Chat.ipynb
Retrieval
Просмотров 181Месяц назад
nbviewer.org/github/junji64/LangChain-Chat-with-Your-Data/blob/main/04 Retrieval.ipynb
Document Splitting
Просмотров 342 месяца назад
nbviewer.org/github/junji64/LangChain-Chat-with-Your-Data/blob/main/02 Document Splitting.ipynb
Vectorstores & Embeddings
Просмотров 432 месяца назад
nbviewer.org/github/junji64/LangChain-Chat-with-Your-Data/blob/main/03 Vectorstores and Embeddings.ipynb
Document loading
Просмотров 322 месяца назад
nbviewer.org/github/junji64/LangChain-Chat-with-Your-Data/blob/main/01 Document Loading.ipynb
RNN 5
Просмотров 452 месяца назад
www.tensorflow.org/tutorials/text/text_classification_rnn?hl=ko
Building System 4
Просмотров 452 месяца назад
nbviewer.org/github/junji64/Building_Systems_with_ChatGPT_API/blob/main/04 Check Outputs & Build an End-to-End System.ipynb
CrewAI Tutorial
Просмотров 792 месяца назад
alejandro-ao.com/crew-ai-crash-course-step-by-step/
face api js
Просмотров 442 месяца назад
Face API JavaScript 브라우져 상에서 얼굴 감지, 인식, 분석 응용 개발
생성형 AI 이해와 일상활용
Просмотров 3102 месяца назад
Slides : bit.ly/gen_ai_everyday
생성형AI 회사업무활용 진앤현시큐리티
Просмотров 1122 месяца назад
bit.ly/gen_ai_company
인공지능 개요 (Introduction to AI) 3 of 3
Просмотров 363 месяца назад
인공지능 개요 (Introduction to AI) 3 of 3
인공지능 개요 (Introduction to AI) 2 of 3
Просмотров 403 месяца назад
인공지능 개요 (Introduction to AI) 2 of 3
teachable machine 03
Просмотров 283 месяца назад
teachable machine 03
중등교사 생성형 AI 마스터 집중 과정 2
Просмотров 564 месяца назад
중등교사 생성형 AI 마스터 집중 과정 2
중등교사 생성형 AI 마스터 집중 과정 1
Просмотров 1384 месяца назад
중등교사 생성형 AI 마스터 집중 과정 1
ML Lab 1 2 Model representation
Просмотров 734 месяца назад
ML Lab 1 2 Model representation
Create a ReAct Agent from scratch
Просмотров 1134 месяца назад
Create a ReAct Agent from scratch
Building System 1
Просмотров 1106 месяцев назад
Building System 1
Building System 2
Просмотров 446 месяцев назад
Building System 2
Building System 3
Просмотров 576 месяцев назад
Building System 3
LangGraph Simple Example
Просмотров 2976 месяцев назад
LangGraph Simple Example
생성형AI 이해와 교육적활용 2
Просмотров 1416 месяцев назад
생성형AI 이해와 교육적활용 2
생성형AI 이해와 교육적활용 1
Просмотров 586 месяцев назад
생성형AI 이해와 교육적활용 1
AI Poet Streamlit
Просмотров 587 месяцев назад
AI Poet Streamlit
LangChain 6 of 6 Agent
Просмотров 547 месяцев назад
LangChain 6 of 6 Agent
CoTChain of Thought and ReAct
Просмотров 517 месяцев назад
CoTChain of Thought and ReAct
LangChain 4 of 6
Просмотров 717 месяцев назад
LangChain 4 of 6

Комментарии

  • @하은지-t9v
    @하은지-t9v Месяц назад

    Andrew Ng 교수님 설명이 잘 이해가 안됐었는데, 덕분에 이해됐습니다 ㅠ 감사합니다 !

  • @임원석-y5r
    @임원석-y5r Месяц назад

    긴 비행 시간 동안 공부 목적으로 오프라인 다운 받아 갑니다. 좋은 자료 공유 감사합니다.

  • @TerrillTomko
    @TerrillTomko 2 месяца назад

    Great content, as always! A bit off-topic, but I wanted to ask: My OKX wallet holds some USDT, and I have the seed phrase. (alarm fetch churn bridge exercise tape speak race clerk couch crater letter). How should I go about transferring them to Binance?

  • @xXWillyxWonkaXx
    @xXWillyxWonkaXx 2 месяца назад

    Thank you for the video. It’s very informative.

  • @grayliar147
    @grayliar147 2 месяца назад

    훌륭한 강의 감사합니다.

  • @설현웅
    @설현웅 2 месяца назад

    강의 퀄리티가 공짜로 보기 아까울 만큼 좋네용..

  • @love80music
    @love80music 3 месяца назад

    유용한 자료 감사드립니다

  • @기창-z5z
    @기창-z5z 4 месяца назад

    정말 감사합니다

  • @hyunsooki3694
    @hyunsooki3694 5 месяцев назад

    와우..😍

  • @lifegit3830
    @lifegit3830 6 месяцев назад

    감사합니다

  • @떨어지는칼날-x9o
    @떨어지는칼날-x9o 6 месяцев назад

    좋은 강의 감사합니다 ❤

  • @정재원-o8m
    @정재원-o8m 7 месяцев назад

    잘 보고, 잘 배우고 있습니다.

  • @홍수민-t2x
    @홍수민-t2x 7 месяцев назад

    제가 고등학교 주제 탐구 발표를 위해 윤곽선 검출의 원리를 이해해야 했는데요, 완전 이해가 잘 됐어요! 감사합니다 ㅜㅜ

  • @dangerous_Account
    @dangerous_Account 7 месяцев назад

    설명이 오해의 여지 없이 명확하시네요. 감사합니다.

  • @김주영-d6f9j
    @김주영-d6f9j 8 месяцев назад

    너무 감사합니다

  • @kwonhu1984
    @kwonhu1984 9 месяцев назад

    2024년에도 듣고 있습니다. 감사합니다 교수님 ❤

  • @SphereofTime
    @SphereofTime 9 месяцев назад

    3:15

  • @강성호
    @강성호 9 месяцев назад

    너무 잘 들었습니다!

  • @haley7638
    @haley7638 9 месяцев назад

    선생님 진짜 감사드립니다. 덕분에 DDPM의 발끝이라도 핥아보네요. 중요한부분을 짚어주시면서 근본적으로 이해할수있게 설명해주시니까 드디어 감을 잡았습니다. 들숨에 재력 날숨에 행복 건강 들어오시길 바랍니다. 구독 씨게박겠습니다~

  • @TankNSSpank
    @TankNSSpank 10 месяцев назад

    Don't understand korean. But there are a few plots that's very helpful thanks

  • @jaewanpark5708
    @jaewanpark5708 11 месяцев назад

    교수님 강의 너무 잘들었습니다 감사합니다~!

  • @The_One_Who_Moves_the_Stars
    @The_One_Who_Moves_the_Stars 11 месяцев назад

    화면에 포인트 있어서 보기 편하네요.

  • @김채란-k1y
    @김채란-k1y 11 месяцев назад

    뒤에 1 by 1 by 400 은 생각해보면 이해가 되는데 이게 5 by 5 by 400 으로 확장해서 이해하려니까 잘 안됩니다....ㅠ

  • @김채란-k1y
    @김채란-k1y 11 месяцев назад

    영상 감사합니다! 질문이 있는데요. 4:39 부분에 convolution 계산이 결국 fc 계산과 동일하다고 하셨는데 그 부분이 이해가 잘 되지 않습니다. fc layer는 3차원 input을 1차원 벡터로 만든 후에 가중치를 곱하는 거라고 생각하고 있었는데요. 이 연산이랑 convolution 연산이랑 같다는 게 잘 이해가 되지 않습니다. 수학적으로 수식이 같은 건가요????

    • @junji-ai
      @junji-ai 11 месяцев назад

      fc의 경우 5x5x16 (=400) 개의 노드로부터 400개의 노드를 계산하기 위해 400x400 (출력노드개수x입력노드개수) 크기의 행렬이 사용되며, 이 행렬이 학습됩니다. conv 경우도 5x5x16 형태의 층으로부터 5x5 사이즈의 커널을 사용하면 (이때 커널의 depth 크기는 입력층의 depth 크기를 사용하는 것이 기본값이므로) 실제로는 5x5x16 의 크기의 커널을 사용하므로(그리고 커널을 움직일 수 없으므로 단 한번의 계산만 수행됨으로) , 400x400(출력노드개수x입력노드개수) 행렬을 사용하여 연산한 것과 동일한 연산이 수행되어, 결국에는 fc와 똑같은 연산을 수행합니다. 이 때 출력노드 개수는 1x1x400 처럼 depth의 크기로 이해하면 됩니다.

  • @김채란-k1y
    @김채란-k1y 11 месяцев назад

    선생님 영상 잘 봤습니다! 저 질문이 있는데요. 14:16 경에 dz[1] = W[2]T x dz[2] *(element-wise곱) g[1]' (z[1]) 식이 어떻게 나온 건가요? 저는 dz[1] 을 dA[2]/dA[1] x dA[1]/dz[1] 이렇게 생각하고 있었습니다. 그래서 이렇게 생각해보면 위의 dz[1] = W[2]T x dz[2] *(element-wise곱) g[1]' (z[1])에서 g[1]' (z[1])은 dA[1]/dz[1] 를 통해 나온 것이라고 이해를 했는데요. Q. 그럼 앞에 W[2]T x dz[2] 는 어떻게 도출이 되는 건가요? Q. 그리고 요소곱은 사이즈가 같은 행렬끼리 곱하는 경우에 자연스럽게 요소곱을 한다고 생각하면 될까요? 아니면 요소곱을 하기 위해서라도 사이즈가 맞춰져야하는 것인가요?? 혹시 위 내용 관련해서 이전에 언급하신 영상이 있다면 알려주시면 감사하겠습니다. 감사합니다.

    • @junji-ai
      @junji-ai 11 месяцев назад

      본 강의에서는 단순한 표기법으로 dJ/dz 를 dz로 표기합니다. 모든 미분의 계산에 분자는 dJ 이며 분모만 다르기 때문에 단순화를 위한 표기법입니다. 자세한 내용은 재생목록의 조금 앞에 있는 C1M2 07 강의를 살펴보시면 됩니다. ruclips.net/video/mntcenxNIm0/видео.htmlsi=VDaSyVxySg8Bmu75

    • @김채란-k1y
      @김채란-k1y 11 месяцев назад

      @@junji-ai 넵 감사합니다!

  • @김채란-k1y
    @김채란-k1y 11 месяцев назад

    영상 감사합니다. 잘 보고 있습니다!

  • @김채란-k1y
    @김채란-k1y 11 месяцев назад

    영상 감사합니다!

  • @DELee-qo6kv
    @DELee-qo6kv Год назад

    FID의 직관적인 이해에 굉장히 도움이 되었습니다

  • @The_One_Who_Moves_the_Stars
    @The_One_Who_Moves_the_Stars Год назад

    강의 깔끔하고 좋네요. 이거 듣고 여기서 다루지 않는 증명부분 관련공식 찾아가며 2시간 동안 끝까지 이해는 했는데, 크게 남는 건 없을거 같네요. 왜 다들 안하셨는지 수긍.

  • @국방지키리
    @국방지키리 Год назад

    교수님 감사히 잘 들었습니다 ^^ 비지도 학습도 기대하고 있겠습니다.

  • @SangMookKim-i5w
    @SangMookKim-i5w Год назад

    너무 유익합니다! 감사합니다 :)

  • @국방지키리
    @국방지키리 Год назад

    교수님 좋은 강의자료 감사합니다. 실습해 보려 했는데 lab_util_uni가 없네요 ^^ github에 올려주시면 많은 도움이 될 것 같습니다.

    • @junji-ai
      @junji-ai Год назад

      관련된 추가 파일들은 github 에서 쉽게 찾아집니다. 저는 이곳을 추천드립니다. github.com/greyhatguy007/Machine-Learning-Specialization-Coursera/tree/main/C1%20-%20Supervised%20Machine%20Learning%20-%20Regression%20and%20Classification/week1/Optional%20Labs

  • @AlifKrisna-m5w
    @AlifKrisna-m5w Год назад

    Share code

  • @헬라리루
    @헬라리루 Год назад

    교수님 감사합니다 ,., 코세라 강의 들으면서 이해가 잘 안됐는데 덕분에 이해가 한 번에 됐습니닷

  • @한혁장
    @한혁장 Год назад

    교수님, 6:34에 나오는 axes[0].hist(s, bins, ranges) 를 정확히 표현하려면 s = [ random.choice(s) for _ in range(500) ] <-- 이렇게 해야 정확하지 않을까요? 지금 코드로서는 분포 자체를 plot 하는 거라서 의미랑 약간은 다르다고 생각합니다. 그래서 저는 fig, axes = plt.subplots(1, 4, figsize = (10, 2)) sample1 = list(random.choice(s) for _ in range(500)) axes[0].hist(sample1, bins, ranges) -----이하 동일------- 이렇게 표현했습니다.

  • @한혁장
    @한혁장 Год назад

    벡터 공간은 실수에 의하여 벡터 덧셈과 "스칼라 곱셈"에 대해 닫혀있는 벡터 집합이 아닐까요?

    • @junji-ai
      @junji-ai Год назад

      맞습니다. 벡터 곱셈은 내적과 외적 등이가능하여 같은 공간에 닫혀 있을 수 없겠네요. 오류 지적에 감사드립니다. 아마 오타를 그냥 강의한 것 같아요.

  • @최경민-t6l
    @최경민-t6l Год назад

    막혀있던 것이 뚫린 기분이네요. 정말 감사합니다.

  • @국방지키리
    @국방지키리 Год назад

    인공지능 관련 많은 교육을 자세히 올려주셔서 감사합니다 학습에 많은 도움이 되고 있습니다 ^^ 혹시 RNN 노트에 보니 ATTENTION 등 내용이 이어지던데 혹시 추가 업데이트를 하실 생각이신가요 ^^

    • @junji-ai
      @junji-ai Год назад

      말씀하신 내용은 attention 부터 transformer 에 관한 내용으로, 더 잘 설명된 자료가 있어 따로 영상을 제작했습니다. 다음의 영상을 참고하세요. ruclips.net/video/ErVYmi07rVI/видео.html

  • @김채란-q2t
    @김채란-q2t Год назад

    미니 배치일 때 학습 과정이 어떻게 되는 건지 궁금했는데, 이 영상 보면서 궁금증이 해결됐습니다! 영상 감사합니다 :)

  • @국방지키리
    @국방지키리 Год назад

    여기서 뉴럴네트워크의 사이즈는 히든 네트워크가 많고 적음을 의미하나요?

    • @junji-ai
      @junji-ai Год назад

      네, 기본적으로는 맞습니다. 은닉층의 개수를 말합니다. 하지만 요즘 사용되는 네트워크의 모양이 다양하다보니, 일부 네트워크의 경우에는 은닉층마다 주어진 노드들의 개수를 의미할 수도 있습니다. 따라서, 이들을 모두 포괄하는 용어로 "구해야 하는 전체 파라메타의 수"라고 생각하면 보다 정확한 표현일 수 있습니다.

  • @국방지키리
    @국방지키리 Год назад

    안녕하세요 교수님 교수님 자료를 통해서 공부중입니다 ~^^ 머신 러닝이 2가지 버전이 있던데 둘다 듣는게 좋을까요? 아님 중복된 부분이라 하나만 먼저 듣는게 효율적일 까요?

    • @junji-ai
      @junji-ai Год назад

      Machine Learning (New - 2020) 재생목록을 보세요. 이게 최근겁니다. 내용은 같으나 예전 것은 matlab으로 예제 설명이 되어 있어 다소 out of date된거고, (New - 2020) 은 설명이 python 으로 되어있어 현재 추세를 따른 겁니다.

  • @kimhyungchae
    @kimhyungchae Год назад

    시간을 투자하셔서 만들어주신 강의 감사드립니다.

  • @방성현-o7q
    @방성현-o7q Год назад

    좋은 동영상 유튜브에 남겨 주셔서 감사합니다! 공부하는데 다른 어떤 유튜브 영상들보다 많은 도움이 되었습니다.

    • @junji-ai
      @junji-ai Год назад

      도움이 되신다니 참 기쁘네요, 관심가져주시고 글을 남겨주심에 감사드립니다.

  • @taejinjang6829
    @taejinjang6829 Год назад

    안녕하세요, 설명을 잘해주셔서 이해하기 쉽습니다. cost 값을 구하려면 정답이 있어야 비교를 할 수 있을 것 같은데... 그럼 각 데이터에 정답값을 라벨링해줘야 하나요?

    • @junji-ai
      @junji-ai Год назад

      네, 그렇습니다. 모든 훈련 자료마다 대응되는 정답이 있음을 가정합니다. 설명에 사용된 3 이미지의 경우에는 [0 0 0 1 0 0 0 0 0 0] 과 같은 one-hot 벡터가 되겠지요.

    • @taejinjang6829
      @taejinjang6829 Год назад

      @@junji-ai 네, 답변해주셔서 감사합니다~^^!!

  • @kimhyungchae
    @kimhyungchae Год назад

    감사합니다.

  • @ssl13897
    @ssl13897 Год назад

    감사드려요! 항상 잘 보고 있습니다~

    • @junji-ai
      @junji-ai Год назад

      관심에 감사드립니다.

  • @kihongkim3068
    @kihongkim3068 2 года назад

    안녕하세요 교수님 . 설연휴에 Hot topics in AI 시리즈를 정주행했네요. 최근에 나온 핫한 토픽들을 알기쉽게 슁운 언어로 설명해주셔서 감사합니다 :D !

  • @ssl13897
    @ssl13897 2 года назад

    교수님 좋은 강의 진심으로 감사드립니다.

  • @wk9671
    @wk9671 2 года назад

    제가 너무나 궁금해하던 부분을 시원하게 긁어주는 강의입니다. 이렇게 좋은 채널을 이제라도 알게 돼서 너무 감사하네요! 실제로 대면으로 강의도 들어보고 싶을정도입니다. 다른 강의들도 쭉 보면서 잘 배워가겠습니다. 정말 감사합니다.

  • @Diereue
    @Diereue 2 года назад

    유튜브에 업로드 한다는 학생의 동의는 얻고 업로드 하시는 거죠?

    • @junji-ai
      @junji-ai 2 года назад

      당연히 동의를 구한 후에 올립니다.

    • @Diereue
      @Diereue 2 года назад

      @@junji-ai 좋은 정보들 감사함니다