🔥

Поделиться
HTML-код
  • Опубликовано: 3 май 2024
  • 코드
    1번
    github.com/teddylee777/langch...
    2번
    github.com/teddylee777/langch...
    3번
    github.com/teddylee777/langch...
    🙏Sionic-ai llama3 70B
    github.com/sionic-ai/xionic-k...
    🤖 디스코드 채널
    / discord
    📘 랭체인 튜토리얼 무료 전자책(wikidocs)
    wikidocs.net/book/14314
    ✅ 랭체인 한국어 튜토리얼 코드저장소(GitHub)
    github.com/teddylee777/langch...
    ⭐️ 강의 홍보 ⭐️
    LangChain + ChatGPT + Streamlit 강의(VOD 강의)
    아래에 사전 등록을 하시면 강의 오픈 후 알림을 발송해 드릴 예정이며, 할인 쿠폰도 같이 제공해 드립니다.
    📍 LangChain + ChatGPT + Streamlit 강의 사전알림 신청 🙏🙏
    링크: forms.gle/buoXoiey7YHrVXVq9
    #langchain
    ---
    📘 랭체인 한국어 튜토리얼(무료 전자책): wikidocs.net/book/14314
    📝 테디노트(깃헙 블로그) : teddylee777.github.io
    💻 GitHub 소스코드 저장소: github.com/teddylee777
    🍿 LLM 프로젝트: llm.teddynote.com

Комментарии • 103

  • @kangsinuk3399
    @kangsinuk3399 22 дня назад +3

    딕션, 컨텐츠, 무료 공유까지 이게 힙합이지

  • @metube7555
    @metube7555 25 дней назад +1

    항상 감사합니다 🙏🙏

    • @teddynote
      @teddynote  25 дней назад

      감사합니당🙏🙏

  • @ot7141
    @ot7141 25 дней назад +1

    너무 감사합니다! 항상 감사해요🙏

    • @teddynote
      @teddynote  25 дней назад

      시청해 주셔서 감사해요👍👍

  • @reri5275
    @reri5275 24 дня назад +1

    오 감사합니다 ! 최고최고 !🥰

  • @inkyungil
    @inkyungil 23 дня назад +1

    멋진 강의 감사합니다.

    • @teddynote
      @teddynote  23 дня назад

      시청해 주셔서 감사해요👍

  • @Sam_Jang
    @Sam_Jang 25 дней назад +1

    너무 잘봤습니다 :)
    큰 도움되었습니다!!

    • @teddynote
      @teddynote  25 дней назад

      감사합니다🙏🫡

  • @imuroo
    @imuroo 23 дня назад +1

    항상 잘 보고, 배우고 있습니다.
    감사합니다.

  • @chowpal9810
    @chowpal9810 25 дней назад +3

    귀한 정보 감사합니다. 공개해 주셔서 정말 감사

    • @teddynote
      @teddynote  25 дней назад

      앞으로도 재밌는 콘텐츠 공유 많이 드릴께요~ 자주 오세요~ ㅎ

  • @creativian5552
    @creativian5552 25 дней назад +1

    항상 감사해요 !!!

    • @teddynote
      @teddynote  25 дней назад

      시청해 주셔서 감사합니다👍👍

  • @user-pc1dx9td3d
    @user-pc1dx9td3d 25 дней назад +5

    감사합니다. 올리신 영상 모두 잘 보고있어요. 덕분에 항상 많이알아갑니다. ❤

    • @teddynote
      @teddynote  25 дней назад

      좋게 봐주셔서 감사합니다🫰🫰

  • @careerhackeralex
    @careerhackeralex 25 дней назад +4

    너무 잘 봤습니다!!ㅎㅎ
    앞으로도 좋은 영상 많이 올려주세요! :)

    • @teddynote
      @teddynote  25 дней назад

      아이코오.. 후원 감사합니다😭😭 맛있는 거 사먹겠습니다. 유명하신 분께서 좋게 봐주셔서 영광입니다🥹 앞으로도 재밌는 콘텐츠 많이 만들겠습니다~!! 알렉스 채널도 자주 놀러갈께요! 감사합니다🙏

  • @user-pj5ln5lv8v
    @user-pj5ln5lv8v 22 дня назад +1

    멤버십 있는거 오늘 알았네요 바로 가입했습니다
    항상 좋은 정보 공유해주셔서 감사합니다~

    • @teddynote
      @teddynote  22 дня назад

      가입 감사합니다~🙏 앞으로도 열심히 콘텐츠 제작해 보겠습니다🫡

  • @user-vj6bu9qy6h
    @user-vj6bu9qy6h 25 дней назад +1

    고급자료 설명 감사합니다 ^^/

    • @teddynote
      @teddynote  25 дней назад

      도움이 되셨으면 좋겠습니다^^

  • @user-xp9ih7kv4o
    @user-xp9ih7kv4o 25 дней назад +2

    어떤 툴을 쓸 것인지와 실제 액션을 하는 LLM을 나눠서 체인을 엮으신 아이디어가 대단하신 것 같습니다. 너무 좋은 강의네요. 감사합니다!

    • @teddynote
      @teddynote  25 дней назад +1

      아이쿠 극찬 감사합니다~ 저도 처음 시도해 보는데 실험하는 과정에서 많이 배웠던 것 같습니다~^^ 감사합니다🙏

  • @ai.sam_hottman
    @ai.sam_hottman 24 дня назад +2

    강의 만드시느라 엄청 고생하셨겠군요...! 노고가 느껴집니다. 좋은 내용 감사합니다!
    (판교 몽중헌은 꼭 가봐야겠군요..)

    • @teddynote
      @teddynote  24 дня назад +1

      ㅎㅎ 저도 이게 될까? 하면서 해봤는데..하다보니 재밌어서 어떻게단 되게끔 해야겠다 하면서 만들었어요 ㅎㅎ 과정이 재밌었습니다^^
      (판교 몽중헌 딤섬이 맛나요😉)

  • @nbright3700
    @nbright3700 22 дня назад +1

    감사합니다. 기대하던 영상이 올라와서 기쁜 마음으로 보았습니다. 코드 없이 따라 갈지 해봐야겠습니다.

    • @teddynote
      @teddynote  22 дня назад

      내용이 많아서요~ 차근차근 해보십쇼~ 뽜이팅입니다~

  • @keonwookim8589
    @keonwookim8589 20 дней назад +1

    와우...감사합니다!

    • @teddynote
      @teddynote  20 дней назад

      감사합니다🙏

  • @u6tory
    @u6tory 25 дней назад +1

    와 투표결과를 그새 반영을 ㄷㄷ 소통갑이세요🎉

    • @teddynote
      @teddynote  25 дней назад

      투표 올렸다가 이번에 쬐끔 고생했습니다~ ㅎㅎ 그래도 너무너무 재밌게 만들어봤어요~ 앞으로도 좋은 아이디어 많이 던져 주세요~

  • @sdfasdfsdfds
    @sdfasdfsdfds 25 дней назад +1

    이건 일종의 멀티모달을 로컬로 구현거가 되겠네요 ㅎㅎ
    좋은 정보 받아갑니다!

    • @teddynote
      @teddynote  25 дней назад

      캄사합니다~ 🙏🙏🙏

  • @sangmunoh4638
    @sangmunoh4638 25 дней назад +1

    와우... 감사합니다.

    • @teddynote
      @teddynote  25 дней назад

      시청해 주셔서 감사합니다^^

  • @spdlqj011
    @spdlqj011 25 дней назад +1

    사내에서 LLM을 맡게되어서 복잡했는데 많은 도움 얻어갑니다
    작성해주신 위키독스도 정독하고있습니다 ㅎㅎ

    • @teddynote
      @teddynote  25 дней назад

      감사합니다 자주 놀러 오세요~👍

  • @hyungsungshim5714
    @hyungsungshim5714 23 дня назад +1

    감사합니닷!!!

  • @user-gz9gy8yw3x
    @user-gz9gy8yw3x 23 дня назад +1

    오 재밌는 프로젝트네요.

    • @teddynote
      @teddynote  23 дня назад

      구현하는 동안 재밌었습니다^^

  • @user-pu1gp7vz4g
    @user-pu1gp7vz4g 19 дней назад +1

    항상 잘 보고 있습니다. 감사합니다 ㅎㅎ
    혹시 LM Studio대신 Ollama이용해도 구현이 가능할까요?

    • @teddynote
      @teddynote  19 дней назад

      그럼요~ 메카니즘은 동일합니다~^^

  • @user-mi4zb2js1l
    @user-mi4zb2js1l 24 дня назад +1

    형님 사랑해요❤

    • @teddynote
      @teddynote  24 дня назад

      오퀘이 알럽유투🫰

  • @careerhackeralex
    @careerhackeralex 25 дней назад

    Thanks!

  • @user-jg3fh1qy3q
    @user-jg3fh1qy3q 20 дней назад +1

    감사합니다!! 그리고, xionic도 너무 고맙네요. 로컬에 설치해도 속도도 안나오고, lamma3 어떻게 해야 하나 고민중이였는데요. ㅜ.ㅜ

    • @teddynote
      @teddynote  20 дней назад

      사이오닉 너무 감사하죠 ㅜㅜ

  • @user-kj5ci9ro1p
    @user-kj5ci9ro1p 21 день назад +1

    테디님! 저도 테디님처럼 연구보다는 개발에 관심이 많습니다!
    혹시 기존 NLP 논문들을 많이 읽으셨나요??

    • @teddynote
      @teddynote  21 день назад

      필요할 때 골라서 읽었습니다. 때로는 논문 리뷰 영상이나 잘 정리된 글을 먼저 보는 것도 도움이 되었어요. 저는 그래도 code 이해하는 것이 더 편한 사람이라 paperswithcode.com 을 애용합니다~

    • @user-kj5ci9ro1p
      @user-kj5ci9ro1p 21 день назад +1

      @@teddynote 답변 감사합니다! 테디님께서 밋업에서 발표하셨던 것처럼 프로덕트를 만드는 일을 하는게 목표인데, NLP 관련 논문을 쭉 이해해보는게 얼마나 도움이 될지 궁금합니다..! 우선순위를 잘 모르곘습니다

    • @teddynote
      @teddynote  21 день назад +1

      @@user-kj5ci9ro1p LLM 쪽 개발은 제일 어려운 점이 개발 & 논문 & 수학 모두 다 잘해야되고, 게다가 돈(GPU) 도 많아야 된다는 점인 것 같아요 ㅎㅎ 그런데 저는 우선순위를 두고 공부해 나가기 보다 "프로젝트" 를 먼저 잡고 이를 해나갈때 필요한 개발 지식을 습득하고, 성능 개선을 위한 논문을 보고, 수학이 어려우면 수학 관련 질문도 하고 GPT 도 사용해 보고 해나가면서 앞으로 조금씩 전진하다보면 어느 새 한계단 올라와있는 느낌을 받았습니다. 이 과정을 10번 100번 반복하다보면 자연스럽게 balance 있게 성장하지 않을까합니다. 그치만 이건 저에게 가장 잘 맞는 방식이구요. 사람마다 본인에게 잘 맞는 방식과 견해가 다르기 때무에 여러 명의 의견을 한 번 들어보시고 결정하시는 것이 제일 좋습니다^^

    • @user-kj5ci9ro1p
      @user-kj5ci9ro1p 21 день назад +1

      @@teddynote 정성스런 답변 감사합니다!

  • @user-cc3fj9pi1h
    @user-cc3fj9pi1h 8 дней назад +1

    감사합니다 선생님👍👍 하나 궁금한게 있는데, LLM으로 의도파악(의도분류) 후에 각 의도에 따라 다른 종류의 문서를 검색(retreiver)하고 그 결과를 토대로 RAG를 하는 것을 만들고 있는데 langchain, langchain agents를 쓰지않더라도 문제없이 되긴 합니다. 이 경우에 langchain agents를 사용하는 방식으로 바꾼다면 코드와 프롬프트의 관리 및 확장에 용의하다는 점 외에 다른 장점이 있을까요?

    • @teddynote
      @teddynote  8 дней назад +1

      agent 의 가장 큰 장점은 도구 활용인데요. 순정 llm 보다 도구를 가진 agent 를 사용하게 되면 정보 검색에 더 유연해지게 됩니다. 예를 들어, 문서 검색에서 원하는 내용이 충족되지 않는 경우 search 도구로 찾아서 보완할 수도 있구요.
      하지만 지금의 RAG 에도 만족한다면 굳이 agent 로 변경하실 필요까지는 없습니다^^

    • @user-cc3fj9pi1h
      @user-cc3fj9pi1h 8 дней назад +1

      감사합니다 선생님!

  • @taekjinjun
    @taekjinjun 19 дней назад +3

    감사합니다. 소중한 내용 잘 보고 따라 해 보고 있는데.. 저는 이상하게 결과가 다르게 나오면서 돌핀 llm에서 멈추지 않고 툴을 실행해서 답변을 주네요.. 돌핀 llm 기동시에 설정 같은게 문제가 될까요?

    • @teddynote
      @teddynote  19 дней назад

      혹시 LM Studio 에서 모델의 temperature 값을 설정할 수 있는데요. 0 이나 0.1 로 설정 후 한 번 돌려보시고 안되시면 말씀해 주세요^^

    • @taekjinjun
      @taekjinjun 19 дней назад

      @@teddynote 답변 너무 감사합니다. LM Studio에서 temperature값을 0으로 해도 결과는 비슷한 것 같습니다 ^^;
      실행결과를 여기에 남기려 했더니.. 글자 제한에 걸리는 것 같네요..

  • @user-ji4mi1gi3z
    @user-ji4mi1gi3z 16 дней назад +1

    15:20 에 나오는 tool 이름이 어떻게 될까요..? 랭체인 로고가 있는걸봐서 랭체인 내장 기능 일까요?
    커피값 조금 후원했습니다 ㅎㅎ

    • @teddynote
      @teddynote  15 дней назад +1

      아이코... 후원 감사합니다... 큰 금액을 해주셨네요...감사한 마음으로 맛있는 것 사먹겠습니다!
      tool 은 랭체인에 통합된 내장 툴이고요 영상에서는 인터넷 검색 도구인 tavily search 와 문석 검색 도구인 retrieval 도구를 사용했습니다^^

  • @JeongJaeWoo
    @JeongJaeWoo 25 дней назад +2

    Task툴만 붙이면 AGI 되는 건가요?ㅋㅋ

    • @teddynote
      @teddynote  25 дней назад

      ㅎㅎ 궁극적인 목표입니다

  • @Dr.Ahn.
    @Dr.Ahn. 17 дней назад +4

    안녕하세요~ 좀 다른 질문인데.. groq 아시죠? 저세상 속도로 답변을 뱉어내는.. 라마3 70B를 돌려도 한글을 초당 300토큰 이상 뱉어내는데요. 영어는 두배정도 더 빠르고요. 우리 챗봇 서비스를 라마3 + groq를 사용해서 초스피드로 서비스 할수도 있는건가요?? 제가 잘못생각하고 있는건지.. groq이 무슨 개념이고 챗봇RAG을 개발하고 배포하는 어느단계에 무엇을 대체해서 들어오는건지 궁금합니다ㅠ

    • @teddynote
      @teddynote  17 дней назад

      groq은 LPU 라는 LLM을 위하여 특화된 칩셋 입니다. 즉 반도체인거죠. CPU -> GPU -> LPU
      순서로 추론 속도가 빨라질 것이고요. 기존의 GPU를 대체할 수 있다고 말할 수 있겠네요~ 자세한 내용은 구글링 하시면 관련 블로그글이 많이 나와 있습니다. 한 번 참고해 보세요~^^

    • @Dr.Ahn.
      @Dr.Ahn. 17 дней назад +2

      @@teddynote 아.. API처럼 사용하는게 아니라.. LPU 개발한 업체에서 지금은 단순히 체험할 수 있게 해놓은거군요. 결국은 LPU 하드웨어를 장착해야되는것이고..

    • @teddynote
      @teddynote  17 дней назад +1

      @@Dr.Ahn. 네 마치 예전에 그래픽카드(GPU) 달아 놓고 게임 얼만큼 부드럽게 돌아가는지 비교 데모 보여주듯이요^^

  • @sayhouu
    @sayhouu 22 дня назад +1

    정말 많은 도움이 되고 있습니다. 그런데 오늘은 말이 너무 빠르네요 속도를 0.9정도로 줄여서 들으니 들을만한데 속도를 줄이니 소리가 끊겨서 좀 아쉬워요. 항상 감사합니다!

    • @teddynote
      @teddynote  22 дня назад

      다음부터는 말을 좀 더 천천히 해보겠습니다🙏 설명하다보니 자꾸 말이 빨라지네요 ㅜ🥹

  • @sw-ln1hh
    @sw-ln1hh 22 дня назад

    dolphin~~

  • @user-ny2qv7zq2b
    @user-ny2qv7zq2b 5 дней назад +1

    안녕하세요 !! 영상 너무 감사합니다!!
    혹시 GGUF파일 변환은 어떻게 할 수 있을지 알 수 있을까요? FINE TUNING한 후에 llama.cpp로 처리하려 하면 이미 양자화 되어있어서 처리할 수 없는걸로 나옵니다 ㅠ

    • @teddynote
      @teddynote  5 дней назад

      convert hf to gguf 로 변환하실 수 있어요!

    • @user-ny2qv7zq2b
      @user-ny2qv7zq2b 5 дней назад

      @@teddynote 답변 감사합니다! 해당 colab 환경에서 llama3를 qlora로 fine tuning한 후, model.save_pretrained(경로), tokenizer.save_pretrained(경로) 후에 아래와 같이 작성했는데, ''PreTrainedTokenizerFast' object has no attribute 'added_tokens_decoder''오류가 발생합니다..ㅠ 혹시 로컬에서 진행하신 방법이 있으신지 궁금합니다!!
      (tokenizer.model이 없다고도 뜨네요...!!)
      !python /convert-hf-to-gguf.py Llama-pdf-Ko-3-8B \
      --outfile llama3-custom-Q8-v1.gguf \
      --outtype q8_0

    • @teddynote
      @teddynote  5 дней назад

      @@user-ny2qv7zq2b finetuning 하신 다음에 merge 해서 huggingface repo 에 먼저 업로드를 해주시고요. 그 다음에 해당 파일을 convert hf to gguf 로 변환하실 수 있어요~ (아 물론 꼭 huggingface 에 업로드를 해야 하는 것은 아니고요. 일단 백업 차원에서 업로드 해놓고 진행해 보시는 것을 추천 드립니다)

  • @meca_p
    @meca_p 13 дней назад +1

    xionic-ko-llama-3-70b를 사용하는게 아닌 llama3-70B 모델을 바로 사용해서 진행하는 방법은 없을까요..?
    API키로 공개된 모델이라 직접 서비스를 만들거나 할 때는 사용할 수 없다보니 아쉽게 느껴져서 여쭤봅니다.

    • @teddynote
      @teddynote  13 дней назад

      바로 사용하실려면 GPU가 여러장 있어야 원활한 추론이 가능해요(양자화가 아니라는 기준) GPU 가 있다면 70B 모델을 다운로드 받아서 파인튜닝하여 사용하실 수 있습니다^^

    • @meca_p
      @meca_p 13 дней назад +1

      @@teddynote quantized 모델을 ollama로 서빙해서 ChatOpenAI json형식으로 받아서 해보고있는데 json parsing문제 떄문에 Modelfile template을 건드려야하더라구요..
      로컬에서 구현해보려다보니 생각보다 막히는 부분이 많네요

    • @teddynote
      @teddynote  13 дней назад +1

      @@meca_p json parsing 문제는 아쉽게도 로컬 모델에 흔히 발생하는 문제에요. 정말 프롬프트 정교하게 튜닝해야 해결 되는 사례가 있고, 또는 모델의 인텔리젼스 높으면 유리한데, 70B 양자화 한 모델은 정보 loss 가 커서 최대한 양자화가 덜 되거나 혹은 아예 안한 모델로 돌려야 하는 것이 권장됩니다.
      그런데 그런 GPU 자원이 보통 개인이 없기 때문에 힘든것이 현실이죠.
      따라서 가장 현실적인 방안은 json parsing 을 잘 하도록 파인튜닝을 하는 것이 그나마 현실적으로 우리 노트북에서 돌릴 수 있는 방법 같아요.
      앞으로 이 부분은 저도 주시하면서 새로운 내용 있으면 공유 드릴께요^^

  • @cccccccccccccccccc
    @cccccccccccccccccc День назад +1

    돌핀이 6번예제에서 스탑이 안걸리고 계속 혼자 무한루프 돌아서 4번예제에 xionic대신에 돌핀으로 바꾸니까 잘 동작합니다!

    • @teddynote
      @teddynote  День назад +1

      와우 꿀정보 감사합니다!!

    • @cccccccccccccccccc
      @cccccccccccccccccc День назад +1

      @@teddynote 지금 계속 해보고 있는데 agent_scratchpad를 사용할 줄 모르는 것 같습니다..ㅠㅠ

    • @teddynote
      @teddynote  День назад +1

      @@cccccccccccccccccc 돌핀이 문제라는거죠? 혹시 돌핀 양자화 버전 뭐 쓰세요?

    • @cccccccccccccccccc
      @cccccccccccccccccc День назад +1

      @@teddynote Q6_K쓰고 있습니다. 제 생각에도 아마 버전에 따라 동작이 달라지는 듯 합니다.

    • @cccccccccccccccccc
      @cccccccccccccccccc День назад

      질문을 한번에 여러개 던지면 모든 결과가 나올 때까지 여러번 탐색안하고 툴 한번만 사용해서 결론을 내리네요.

  • @elfinxx
    @elfinxx 25 дней назад +1

    디스코드 초대장 만료되었습니다 ㅠ😢

    • @teddynote
      @teddynote  25 дней назад

      죄송합니다 초대장 링크 업데이트 해놓았어요!!🙌

  • @elfinxx
    @elfinxx 25 дней назад +2

    몽중헌에서 광고비 받으셔도 될듯요.

    • @teddynote
      @teddynote  25 дней назад

      아무래도 그래야겠죠? ㅎㅎ

  • @no-jv9eb
    @no-jv9eb 23 дня назад +1

    따라할수있을지 ㅋ😂

    • @teddynote
      @teddynote  23 дня назад

      어우 그럼요 스텝바이스텝으로 찬찬히~~