210407 자연어처리 4차강의: huggingface 라이브러리

Поделиться
HTML-код
  • Опубликовано: 10 ноя 2024

Комментарии • 18

  • @라비라비다
    @라비라비다 2 месяца назад

    잘봤습니다 감사합니다!!!

  • @conanssam
    @conanssam Год назад +2

    감사합니다 허깅페이스 한국어 자료를 찾고 있었는데 잘볼께요

  • @phox8047
    @phox8047 2 года назад +5

    좋은 강의 감사합니다 hugging face 한국어로 설명해주는게 없었는데 ㅠㅠ 덕분에 잘 공부했습니다 흥하세요!

  • @jh7529
    @jh7529 11 месяцев назад

    진심으로 좋은강의 감사합니다

  • @theangkko
    @theangkko Год назад

    먼저 좋은 강의 감사합니다. 이런저런 영상. 책도 2~3권 봤지만 어렴풋한 개념만 들어오고 실제 허깅페이스를 어떻게 써야할지 갈피를 못 잡았습니다. 이렇게 개념정리와 과정을 쭉~ 보여주시니 !! 이 영상을 왜 이제서야 봤나 싶네요. 제목에 허깅페이스 사용법 이렇게 키워드가 들어가면 저처럼 처음 사용자 유입이 훨씬 많을 듯 합니다~!

  • @Cupcakes77
    @Cupcakes77 2 года назад +3

    와 진짜 너무너무 친절한 강의 ㅠㅠ 감사합니다 !

  • @잼-x9m
    @잼-x9m Год назад

    강의 정말 잘 들었습니다 감사합니다 :)

  • @aflekben7713
    @aflekben7713 3 года назад +1

    좋은강의 잘들었습니다

  • @kukwonhyung6286
    @kukwonhyung6286 Год назад +3

    4번에 걸친 강의 정말 잘 들었습니다~! 듣다보니 딥러닝과 자연언어처리에 궁금한점이 생겨서 댓글 남겨드립니다.
    1. 현재 자연언어처리의 한계점이라고 하면 어떤것들이 있나요?
    2. 딥러닝에는 은닉층이 존재하여 인공지능의 특정 학습결과가 왜 그렇게 나왔는지 개발자도 정확하게 알지 못하는 경우도 있다고 들었습니다. 그렇다면 딥러닝을 활용한 현재의 챗봇이나 기계번역과정에서 편향(bias)이 발생하였을 경우에는 어떻게 수정하나요?
    3. 자연언어처리에는 요약, 질의응답, 자동번역 등 여러 분야가 포함되어 있는것으로 알고있는데요, 최근 가장 활발하게 연구되고있는 자연언어처리 분야에는 어떤것들이 있나요?
    쓰다보니 질문이 상당히 길어졌지만..짧게나마라도 전문가분의 의견을 듣고싶습니다! 바쁘신 와중에 항상 감사드립니다.

    • @ready-to-usetech8892
      @ready-to-usetech8892  Год назад +4

      1. 현재 자연언어처리의 한계점이라고 하면 어떤것들이 있나요?
      --> 결과값이 통계적 확률에 기반한 것이기에 넣어주는 data의 의존도가 높습니다. 또한 특정 목적에 맞는 제품은 어느정도 만들수 있지만 범용성을 가진 제품을 만들기는 힘들며, 확률 기반이라 (아무리 높아도 95% 정확도도 되기 힘듭니다) 거의 100% 정확도가 필요한 사업성이 부족합니다.
      2. 딥러닝에는 은닉층이 존재하여 인공지능의 특정 학습결과가 왜 그렇게 나왔는지 개발자도 정확하게 알지 못하는 경우도 있다고 들었습니다. 그렇다면 딥러닝을 활용한 현재의 챗봇이나 기계번역과정에서 편향(bias)이 발생하였을 경우에는 어떻게 수정하나요?
      --> 일반적으로 모델에 들어가는 데이터에 편항을 없애는 쪽으로 진행이 됩니다. 최근의 chatGPT모델 같은 경우 강화학습을 사용하여 모델이 결과값을 도출할 때 원하지 않는 내용에 penalty(원하는 내용에는 보상)을 주는 식으로 하는 것도 큰 성공을 이룬 것으로 알고 있습니다.
      3. 자연언어처리에는 요약, 질의응답, 자동번역 등 여러 분야가 포함되어 있는것으로 알고있는데요, 최근 가장 활발하게 연구되고있는 자연언어처리 분야에는 어떤것들이 있나요?
      --> 저도 제 주변밖에 보지 못하기 때문에 답변 드리기는 힘든데, 연구의 측면에서는 '생성'이 활발합니다. 나머지 분야는 기술이 어느정도 saturate 되었다고 생각합니다.

    • @kukwonhyung6286
      @kukwonhyung6286 Год назад

      @@ready-to-usetech8892 상세한 답변 정말감사드립니다~!!!

  • @msfelix5458
    @msfelix5458 Год назад

    안녕하세요. 좋은 강의 감사드립니다. 영상을 보다가 궁금한 점이 있어서 문의 드립니다. 1:02:58 부분부터 나오는 한 문장에 대한 전체 평점을 기준으로 "AI로 리뷰 항목별 평가를 자동화"한 작업의 경우 어떤 모델을 어떻게 적용하신 것인지 궁금합니다. 아주 자세한 사항까지 말씀해주실 수 없으시더라도 문장 분류 모델 중 어떤 모델을 적용했는지, 학습을 위해 어떤 데이터를 얼마나 활용했는지 등을 알려주시면 감사하겠습니다. 다시 한 번 감사 드립니다.

    • @ready-to-usetech8892
      @ready-to-usetech8892  Год назад

      당시 데이터 만들어서 electra로 했었던것 같습니다!

    • @msfelix5458
      @msfelix5458 Год назад

      @@ready-to-usetech8892 앗! 회신 감사드립니다. 추가로 문의 드리고 싶은 것은... electra 모델을 적용하실 때 한국어 1개 문장에 대해 여러 출력 값(밀착력, 발색, 저작극 등)을 생성하는 모델은 어떤 것을 적용하셨는지 궁금합니다~ 감사합니다~

  • @testingemailstestingemails4245
    @testingemailstestingemails4245 2 года назад +1

    how to do that trained huggingface model on my own dataset? how i can start ? i don't know the structure of the dataset? help.. very help
    how I store voice and how to lik with its text how to orgnize that
    I an looking for any one help me in this planet
    Should I look for the answer in Mars?

    • @ready-to-usetech8892
      @ready-to-usetech8892  2 года назад +1

      huggingface provicde well-organized document(huggingface.co/docs/transformers/index, huggingface.co/docs/datasets/)
      If you want to be a NLP engineer, you shoud know how to find the information you mentioned, right? If not, it would be better tofind engineer and pay money.

  • @araviss9004
    @araviss9004 2 года назад

    안녕하세요! 좋은 강의 감사드립니다. 혹시 1:02:59 에 대한 추가 자료는 어디서 찾아볼 수 있나요?

    • @ready-to-usetech8892
      @ready-to-usetech8892  2 года назад

      안녕하세요. 과거에 B2B로 작업을 했던 부분이라 개인 공개 하고 있지는 않습니다. (현재 작업중인 부분은 아닙니다)
      다만 해당 작업물을 하는데 사용했던 언어모델의 일부는 아래 주소에서 확인하실 수 있습니다: github.com/kiyoungkim1/LMkor