Ready-To-Use Tech
Ready-To-Use Tech
  • Видео 10
  • Просмотров 30 592

Видео

210519 컴퓨터는 어떻게 이미지를 인식할까 2강 + MLOps (이동혁 강사님)
Просмотров 3763 года назад
제목: 컴퓨터는 어떻게 이미지를 인식할까? MLOps 강사: 이동혁
210512 컴퓨터는 어떻게 이미지를 인식할까 1강 (이동혁 강사님)
Просмотров 5163 года назад
데이터 마이닝의 개념과 CNN의 원리를 실제 활용과 연관지어 잘 설명해 주셨습니다. 제목: 컴퓨터는 어떻게 이미지를 인식할까? 그리고 우리는 이것을 통해 무엇을 할수 있을까? 강사: 이동혁
210421_음성인식에서 딥러닝은 어떻게 사용될까? 2강 (심규홍 강사님)
Просмотров 2,1 тыс.3 года назад
인공지능 스피커 내부 원리로 시작해서 wav2vec까지 소개합니다. 제목: 음성인식에서 딥러닝은 어떻게 사용될까? 영문제목: How Deep Learning is Used for Speech Recognition
210421_음성인식에서 딥러닝은 어떻게 사용될까? 1강 (심규홍 강사님)
Просмотров 3,2 тыс.3 года назад
마이크 설정관리를 잘 못해서 중간중간 잡음도 있고 울림도 있습니다(울림은 초반 이후 사라집니다). 다음부터는 주의하겠습니다. 심규홍 강사께서 음성인식에 사용되는 기본 개념과 CTC, LAS에 대해 설명 해주셨습니다. 제목: 음성인식에서 딥러닝은 어떻게 사용될까? 영문제목: How Deep Learning is Used for Speech Recognition
210407 자연어처리 4차강의: huggingface 라이브러리
Просмотров 8 тыс.3 года назад
LMkor: github.com/kiyoungkim1/LMkor Ready-to-use AI: github.com/kiyoungkim1/ReadyToUseAI code: github.com/kiyoungkim1/ReadyToUseAI/blob/main/notebooks/usage_transformers.ipynb
210331 자연어처리 3차 강의 transformers
Просмотров 3,9 тыс.3 года назад
Transformer 모델 소개, Transfer learning(pre-training, fine-tuning, seq2seq) Pretrained models: github.com/kiyoungkim1/LMkor Codes: github.com/kiyoungkim1/ReadyToUseAI
210324 자연어처리 2차 word2vec, fasttext와 doc2vec
Просмотров 5 тыс.3 года назад
코드: github.com/kiyoungkim1/ReadyToUseAI
210224 자연어 처리 3차
Просмотров 6523 года назад
서울대학교 학생들을 대상으로 한 자연어 처리 3차 수업입니다.

Комментарии

  • @라비라비다
    @라비라비다 2 месяца назад

    잘봤습니다 감사합니다!!!

  • @stellakim5871
    @stellakim5871 2 месяца назад

    우와.. 최근 트렌드까지 하면 좋을것같아요. 너무 좋네요

  • @lifegit3830
    @lifegit3830 4 месяца назад

    너무나 좋은 영상 감사드립니다, 박사님

  • @ggadsc
    @ggadsc 9 месяцев назад

    정말 많은 도움이 되었습니다. 감사합니다!

  • @무쌍이요
    @무쌍이요 11 месяцев назад

    뉴스요약모델을 관심가지고 제대로 만들어 보려고하는데 그거에 관해서 여쭤보고싶습니다.. 어디로 여쭤보면 될까요..?

  • @jh7529
    @jh7529 11 месяцев назад

    진심으로 좋은강의 감사합니다

  • @theangkko
    @theangkko Год назад

    먼저 좋은 강의 감사합니다. 이런저런 영상. 책도 2~3권 봤지만 어렴풋한 개념만 들어오고 실제 허깅페이스를 어떻게 써야할지 갈피를 못 잡았습니다. 이렇게 개념정리와 과정을 쭉~ 보여주시니 !! 이 영상을 왜 이제서야 봤나 싶네요. 제목에 허깅페이스 사용법 이렇게 키워드가 들어가면 저처럼 처음 사용자 유입이 훨씬 많을 듯 합니다~!

  • @잼-x9m
    @잼-x9m Год назад

    강의 정말 잘 들었습니다 감사합니다 :)

  • @msfelix5458
    @msfelix5458 Год назад

    안녕하세요. 좋은 강의 감사드립니다. 영상을 보다가 궁금한 점이 있어서 문의 드립니다. 1:02:58 부분부터 나오는 한 문장에 대한 전체 평점을 기준으로 "AI로 리뷰 항목별 평가를 자동화"한 작업의 경우 어떤 모델을 어떻게 적용하신 것인지 궁금합니다. 아주 자세한 사항까지 말씀해주실 수 없으시더라도 문장 분류 모델 중 어떤 모델을 적용했는지, 학습을 위해 어떤 데이터를 얼마나 활용했는지 등을 알려주시면 감사하겠습니다. 다시 한 번 감사 드립니다.

    • @ready-to-usetech8892
      @ready-to-usetech8892 Год назад

      당시 데이터 만들어서 electra로 했었던것 같습니다!

    • @msfelix5458
      @msfelix5458 Год назад

      @@ready-to-usetech8892 앗! 회신 감사드립니다. 추가로 문의 드리고 싶은 것은... electra 모델을 적용하실 때 한국어 1개 문장에 대해 여러 출력 값(밀착력, 발색, 저작극 등)을 생성하는 모델은 어떤 것을 적용하셨는지 궁금합니다~ 감사합니다~

  • @hyunsukko5627
    @hyunsukko5627 Год назад

    안녕하세요, doc2vec 활용 시에 각 문장을 tokenize하고 cleaning한 뒤에 인풋값을 넣게되면, 의미 유사도 찾는 데에 문제가 되나요?

    • @ready-to-usetech8892
      @ready-to-usetech8892 Год назад

      보통 cleaning하고 토크나이징 하는데, 말씀 주신대로 하셔도 문제 없습니다!

  • @aesr.
    @aesr. Год назад

    정말 유익해요

  • @kukwonhyung6286
    @kukwonhyung6286 Год назад

    강의중에 전이학습에는 transformer encoder로 사전학습을 진행한다고 하셨는데, 그렇다면 transformer decoder로만 이루어진 gpt같은 경우에는 언어를 이해하는 부분이 없는데 어떻게 사전학습을 시킨건가요?

  • @kukwonhyung6286
    @kukwonhyung6286 Год назад

    4번에 걸친 강의 정말 잘 들었습니다~! 듣다보니 딥러닝과 자연언어처리에 궁금한점이 생겨서 댓글 남겨드립니다. 1. 현재 자연언어처리의 한계점이라고 하면 어떤것들이 있나요? 2. 딥러닝에는 은닉층이 존재하여 인공지능의 특정 학습결과가 왜 그렇게 나왔는지 개발자도 정확하게 알지 못하는 경우도 있다고 들었습니다. 그렇다면 딥러닝을 활용한 현재의 챗봇이나 기계번역과정에서 편향(bias)이 발생하였을 경우에는 어떻게 수정하나요? 3. 자연언어처리에는 요약, 질의응답, 자동번역 등 여러 분야가 포함되어 있는것으로 알고있는데요, 최근 가장 활발하게 연구되고있는 자연언어처리 분야에는 어떤것들이 있나요? 쓰다보니 질문이 상당히 길어졌지만..짧게나마라도 전문가분의 의견을 듣고싶습니다! 바쁘신 와중에 항상 감사드립니다.

    • @ready-to-usetech8892
      @ready-to-usetech8892 Год назад

      1. 현재 자연언어처리의 한계점이라고 하면 어떤것들이 있나요? --> 결과값이 통계적 확률에 기반한 것이기에 넣어주는 data의 의존도가 높습니다. 또한 특정 목적에 맞는 제품은 어느정도 만들수 있지만 범용성을 가진 제품을 만들기는 힘들며, 확률 기반이라 (아무리 높아도 95% 정확도도 되기 힘듭니다) 거의 100% 정확도가 필요한 사업성이 부족합니다. 2. 딥러닝에는 은닉층이 존재하여 인공지능의 특정 학습결과가 왜 그렇게 나왔는지 개발자도 정확하게 알지 못하는 경우도 있다고 들었습니다. 그렇다면 딥러닝을 활용한 현재의 챗봇이나 기계번역과정에서 편향(bias)이 발생하였을 경우에는 어떻게 수정하나요? --> 일반적으로 모델에 들어가는 데이터에 편항을 없애는 쪽으로 진행이 됩니다. 최근의 chatGPT모델 같은 경우 강화학습을 사용하여 모델이 결과값을 도출할 때 원하지 않는 내용에 penalty(원하는 내용에는 보상)을 주는 식으로 하는 것도 큰 성공을 이룬 것으로 알고 있습니다. 3. 자연언어처리에는 요약, 질의응답, 자동번역 등 여러 분야가 포함되어 있는것으로 알고있는데요, 최근 가장 활발하게 연구되고있는 자연언어처리 분야에는 어떤것들이 있나요? --> 저도 제 주변밖에 보지 못하기 때문에 답변 드리기는 힘든데, 연구의 측면에서는 '생성'이 활발합니다. 나머지 분야는 기술이 어느정도 saturate 되었다고 생각합니다.

    • @kukwonhyung6286
      @kukwonhyung6286 Год назад

      @@ready-to-usetech8892 상세한 답변 정말감사드립니다~!!!

  • @kukwonhyung6286
    @kukwonhyung6286 Год назад

    실습때 사용한 영화리뷰의 긍,부정 라벨링은 어떤방식으로 하신건가요??

    • @ready-to-usetech8892
      @ready-to-usetech8892 Год назад

      제대로 하려면 사람이 직접 보고 해야겠지만 간단한 테스트를 위해서는 영화리뷰의 평점 6-10점은 긍정, 1-5점은 부정으로 생각 할 수 있습니다. 이렇게 한 대표적인 사례로 nsmc라는 데이터셋이 있습니다.

    • @kukwonhyung6286
      @kukwonhyung6286 Год назад

      @@ready-to-usetech8892 답변감사드립니다! 요즘 자연언어처리에 관심이 생겨서 알아보고 있었는데 큰 도움이 되었습니다~!^^

  • @conanssam
    @conanssam Год назад

    감사합니다 허깅페이스 한국어 자료를 찾고 있었는데 잘볼께요

  • @Hello_Leti
    @Hello_Leti Год назад

    강의 감사합니다~ 혹시 Fasttext에서 ERROR:gensim.models._fasttext_bin:failed to decode invalid unicode bytes b'\xed\xa1\x9c'; replacing invalid characters; replacing invalid characters, using '\\xed\\xa1\\x9c' 에러가 나는데 어떻게 해결할 수 있을까요..? 답글

  • @araviss9004
    @araviss9004 2 года назад

    안녕하세요! 좋은 강의 감사드립니다. 혹시 1:02:59 에 대한 추가 자료는 어디서 찾아볼 수 있나요?

    • @ready-to-usetech8892
      @ready-to-usetech8892 2 года назад

      안녕하세요. 과거에 B2B로 작업을 했던 부분이라 개인 공개 하고 있지는 않습니다. (현재 작업중인 부분은 아닙니다) 다만 해당 작업물을 하는데 사용했던 언어모델의 일부는 아래 주소에서 확인하실 수 있습니다: github.com/kiyoungkim1/LMkor

  • @sangseek
    @sangseek 2 года назад

    최고!

  • @DrByungjunKim
    @DrByungjunKim 2 года назад

    감사합니다. 영상까지 보고나니 더 이해가 쉽네요. 좋아요와 구독 눌렀습니다.

  • @iidtxbc
    @iidtxbc 2 года назад

    동영상에 나오는 Word2Vec에 사용된 알고리즘은 CBOW인가요?

    • @ready-to-usetech8892
      @ready-to-usetech8892 2 года назад

      skip-gram입니다.

    • @정현지-l8i
      @정현지-l8i 9 месяцев назад

      @@ready-to-usetech8892 안녕하세요 ! 강의 보고 너무 이해 잘됐습니다 ~ 그런데 이게 왜 skip-gram인지 의문이 생겨서 댓글 달았습니다 ! 주변 단어 n개가 들어가서 하나의 output을 내는 것 같은데 왜 저게 CBOW가 아닌가요?!

  • @princecherry6192
    @princecherry6192 2 года назад

    좋은 강의 감사합니다

  • @kingwangzzangkong
    @kingwangzzangkong 2 года назад

    강의 감사합니다!! word2vec을 잘 이해할 수 있었습니다 ^_^

  • @whyzzy2683
    @whyzzy2683 2 года назад

    최종 출력인 text-to-speech는 device에서 이뤄지나요? cloud에서 이뤄지나요?

    • @ready-to-usetech8892
      @ready-to-usetech8892 2 года назад

      cloud에서 만들어진 최종 출력을 device에서 받는 형식이 많을 것 같습니다.

  • @haneulkim4902
    @haneulkim4902 2 года назад

    좋은 강의 감사합니다!

  • @testingemailstestingemails4245
    @testingemailstestingemails4245 2 года назад

    how to do that trained huggingface model on my own dataset? how i can start ? i don't know the structure of the dataset? help.. very help how I store voice and how to lik with its text how to orgnize that I an looking for any one help me in this planet Should I look for the answer in Mars?

    • @ready-to-usetech8892
      @ready-to-usetech8892 2 года назад

      huggingface provicde well-organized document(huggingface.co/docs/transformers/index, huggingface.co/docs/datasets/) If you want to be a NLP engineer, you shoud know how to find the information you mentioned, right? If not, it would be better tofind engineer and pay money.

  • @phox8047
    @phox8047 2 года назад

    좋은 강의 감사합니다 hugging face 한국어로 설명해주는게 없었는데 ㅠㅠ 덕분에 잘 공부했습니다 흥하세요!

  • @Cupcakes77
    @Cupcakes77 3 года назад

    와 진짜 너무너무 친절한 강의 ㅠㅠ 감사합니다 !

  • @nute1597
    @nute1597 3 года назад

    좋은 강의 감사합니다!

  • @aflekben7713
    @aflekben7713 3 года назад

    좋은강의 잘들었습니다

  • @ysch8232
    @ysch8232 3 года назад

    좋은 강의 감사합니다~