- Видео 10
- Просмотров 30 592
Ready-To-Use Tech
Южная Корея
Добавлен 23 фев 2021
기업에서 의사결정을 하는 투자자, CEO, 기획자들이 기술에 대해 잘 모르는 경우가 많습니다.
예를들어 인공지능을 알고 싶어도 구글에 검색해보면 모두 개발자를 위한 자료들 뿐입니다.
비개발자들을 대상으로 한 기술의 간단한 원리와 비즈니스 관점에서 활용도를 이야기 합니다.
예를들어 인공지능을 알고 싶어도 구글에 검색해보면 모두 개발자를 위한 자료들 뿐입니다.
비개발자들을 대상으로 한 기술의 간단한 원리와 비즈니스 관점에서 활용도를 이야기 합니다.
Видео
210519 컴퓨터는 어떻게 이미지를 인식할까 2강 + MLOps (이동혁 강사님)
Просмотров 3763 года назад
제목: 컴퓨터는 어떻게 이미지를 인식할까? MLOps 강사: 이동혁
210512 컴퓨터는 어떻게 이미지를 인식할까 1강 (이동혁 강사님)
Просмотров 5163 года назад
데이터 마이닝의 개념과 CNN의 원리를 실제 활용과 연관지어 잘 설명해 주셨습니다. 제목: 컴퓨터는 어떻게 이미지를 인식할까? 그리고 우리는 이것을 통해 무엇을 할수 있을까? 강사: 이동혁
210421_음성인식에서 딥러닝은 어떻게 사용될까? 2강 (심규홍 강사님)
Просмотров 2,1 тыс.3 года назад
인공지능 스피커 내부 원리로 시작해서 wav2vec까지 소개합니다. 제목: 음성인식에서 딥러닝은 어떻게 사용될까? 영문제목: How Deep Learning is Used for Speech Recognition
210421_음성인식에서 딥러닝은 어떻게 사용될까? 1강 (심규홍 강사님)
Просмотров 3,2 тыс.3 года назад
마이크 설정관리를 잘 못해서 중간중간 잡음도 있고 울림도 있습니다(울림은 초반 이후 사라집니다). 다음부터는 주의하겠습니다. 심규홍 강사께서 음성인식에 사용되는 기본 개념과 CTC, LAS에 대해 설명 해주셨습니다. 제목: 음성인식에서 딥러닝은 어떻게 사용될까? 영문제목: How Deep Learning is Used for Speech Recognition
210407 자연어처리 4차강의: huggingface 라이브러리
Просмотров 8 тыс.3 года назад
LMkor: github.com/kiyoungkim1/LMkor Ready-to-use AI: github.com/kiyoungkim1/ReadyToUseAI code: github.com/kiyoungkim1/ReadyToUseAI/blob/main/notebooks/usage_transformers.ipynb
210331 자연어처리 3차 강의 transformers
Просмотров 3,9 тыс.3 года назад
Transformer 모델 소개, Transfer learning(pre-training, fine-tuning, seq2seq) Pretrained models: github.com/kiyoungkim1/LMkor Codes: github.com/kiyoungkim1/ReadyToUseAI
210324 자연어처리 2차 word2vec, fasttext와 doc2vec
Просмотров 5 тыс.3 года назад
코드: github.com/kiyoungkim1/ReadyToUseAI
잘봤습니다 감사합니다!!!
우와.. 최근 트렌드까지 하면 좋을것같아요. 너무 좋네요
너무나 좋은 영상 감사드립니다, 박사님
정말 많은 도움이 되었습니다. 감사합니다!
뉴스요약모델을 관심가지고 제대로 만들어 보려고하는데 그거에 관해서 여쭤보고싶습니다.. 어디로 여쭤보면 될까요..?
진심으로 좋은강의 감사합니다
먼저 좋은 강의 감사합니다. 이런저런 영상. 책도 2~3권 봤지만 어렴풋한 개념만 들어오고 실제 허깅페이스를 어떻게 써야할지 갈피를 못 잡았습니다. 이렇게 개념정리와 과정을 쭉~ 보여주시니 !! 이 영상을 왜 이제서야 봤나 싶네요. 제목에 허깅페이스 사용법 이렇게 키워드가 들어가면 저처럼 처음 사용자 유입이 훨씬 많을 듯 합니다~!
강의 정말 잘 들었습니다 감사합니다 :)
안녕하세요. 좋은 강의 감사드립니다. 영상을 보다가 궁금한 점이 있어서 문의 드립니다. 1:02:58 부분부터 나오는 한 문장에 대한 전체 평점을 기준으로 "AI로 리뷰 항목별 평가를 자동화"한 작업의 경우 어떤 모델을 어떻게 적용하신 것인지 궁금합니다. 아주 자세한 사항까지 말씀해주실 수 없으시더라도 문장 분류 모델 중 어떤 모델을 적용했는지, 학습을 위해 어떤 데이터를 얼마나 활용했는지 등을 알려주시면 감사하겠습니다. 다시 한 번 감사 드립니다.
당시 데이터 만들어서 electra로 했었던것 같습니다!
@@ready-to-usetech8892 앗! 회신 감사드립니다. 추가로 문의 드리고 싶은 것은... electra 모델을 적용하실 때 한국어 1개 문장에 대해 여러 출력 값(밀착력, 발색, 저작극 등)을 생성하는 모델은 어떤 것을 적용하셨는지 궁금합니다~ 감사합니다~
안녕하세요, doc2vec 활용 시에 각 문장을 tokenize하고 cleaning한 뒤에 인풋값을 넣게되면, 의미 유사도 찾는 데에 문제가 되나요?
보통 cleaning하고 토크나이징 하는데, 말씀 주신대로 하셔도 문제 없습니다!
정말 유익해요
강의중에 전이학습에는 transformer encoder로 사전학습을 진행한다고 하셨는데, 그렇다면 transformer decoder로만 이루어진 gpt같은 경우에는 언어를 이해하는 부분이 없는데 어떻게 사전학습을 시킨건가요?
4번에 걸친 강의 정말 잘 들었습니다~! 듣다보니 딥러닝과 자연언어처리에 궁금한점이 생겨서 댓글 남겨드립니다. 1. 현재 자연언어처리의 한계점이라고 하면 어떤것들이 있나요? 2. 딥러닝에는 은닉층이 존재하여 인공지능의 특정 학습결과가 왜 그렇게 나왔는지 개발자도 정확하게 알지 못하는 경우도 있다고 들었습니다. 그렇다면 딥러닝을 활용한 현재의 챗봇이나 기계번역과정에서 편향(bias)이 발생하였을 경우에는 어떻게 수정하나요? 3. 자연언어처리에는 요약, 질의응답, 자동번역 등 여러 분야가 포함되어 있는것으로 알고있는데요, 최근 가장 활발하게 연구되고있는 자연언어처리 분야에는 어떤것들이 있나요? 쓰다보니 질문이 상당히 길어졌지만..짧게나마라도 전문가분의 의견을 듣고싶습니다! 바쁘신 와중에 항상 감사드립니다.
1. 현재 자연언어처리의 한계점이라고 하면 어떤것들이 있나요? --> 결과값이 통계적 확률에 기반한 것이기에 넣어주는 data의 의존도가 높습니다. 또한 특정 목적에 맞는 제품은 어느정도 만들수 있지만 범용성을 가진 제품을 만들기는 힘들며, 확률 기반이라 (아무리 높아도 95% 정확도도 되기 힘듭니다) 거의 100% 정확도가 필요한 사업성이 부족합니다. 2. 딥러닝에는 은닉층이 존재하여 인공지능의 특정 학습결과가 왜 그렇게 나왔는지 개발자도 정확하게 알지 못하는 경우도 있다고 들었습니다. 그렇다면 딥러닝을 활용한 현재의 챗봇이나 기계번역과정에서 편향(bias)이 발생하였을 경우에는 어떻게 수정하나요? --> 일반적으로 모델에 들어가는 데이터에 편항을 없애는 쪽으로 진행이 됩니다. 최근의 chatGPT모델 같은 경우 강화학습을 사용하여 모델이 결과값을 도출할 때 원하지 않는 내용에 penalty(원하는 내용에는 보상)을 주는 식으로 하는 것도 큰 성공을 이룬 것으로 알고 있습니다. 3. 자연언어처리에는 요약, 질의응답, 자동번역 등 여러 분야가 포함되어 있는것으로 알고있는데요, 최근 가장 활발하게 연구되고있는 자연언어처리 분야에는 어떤것들이 있나요? --> 저도 제 주변밖에 보지 못하기 때문에 답변 드리기는 힘든데, 연구의 측면에서는 '생성'이 활발합니다. 나머지 분야는 기술이 어느정도 saturate 되었다고 생각합니다.
@@ready-to-usetech8892 상세한 답변 정말감사드립니다~!!!
실습때 사용한 영화리뷰의 긍,부정 라벨링은 어떤방식으로 하신건가요??
제대로 하려면 사람이 직접 보고 해야겠지만 간단한 테스트를 위해서는 영화리뷰의 평점 6-10점은 긍정, 1-5점은 부정으로 생각 할 수 있습니다. 이렇게 한 대표적인 사례로 nsmc라는 데이터셋이 있습니다.
@@ready-to-usetech8892 답변감사드립니다! 요즘 자연언어처리에 관심이 생겨서 알아보고 있었는데 큰 도움이 되었습니다~!^^
감사합니다 허깅페이스 한국어 자료를 찾고 있었는데 잘볼께요
강의 감사합니다~ 혹시 Fasttext에서 ERROR:gensim.models._fasttext_bin:failed to decode invalid unicode bytes b'\xed\xa1\x9c'; replacing invalid characters; replacing invalid characters, using '\\xed\\xa1\\x9c' 에러가 나는데 어떻게 해결할 수 있을까요..? 답글
안녕하세요! 좋은 강의 감사드립니다. 혹시 1:02:59 에 대한 추가 자료는 어디서 찾아볼 수 있나요?
안녕하세요. 과거에 B2B로 작업을 했던 부분이라 개인 공개 하고 있지는 않습니다. (현재 작업중인 부분은 아닙니다) 다만 해당 작업물을 하는데 사용했던 언어모델의 일부는 아래 주소에서 확인하실 수 있습니다: github.com/kiyoungkim1/LMkor
최고!
감사합니다. 영상까지 보고나니 더 이해가 쉽네요. 좋아요와 구독 눌렀습니다.
동영상에 나오는 Word2Vec에 사용된 알고리즘은 CBOW인가요?
skip-gram입니다.
@@ready-to-usetech8892 안녕하세요 ! 강의 보고 너무 이해 잘됐습니다 ~ 그런데 이게 왜 skip-gram인지 의문이 생겨서 댓글 달았습니다 ! 주변 단어 n개가 들어가서 하나의 output을 내는 것 같은데 왜 저게 CBOW가 아닌가요?!
좋은 강의 감사합니다
강의 감사합니다!! word2vec을 잘 이해할 수 있었습니다 ^_^
최종 출력인 text-to-speech는 device에서 이뤄지나요? cloud에서 이뤄지나요?
cloud에서 만들어진 최종 출력을 device에서 받는 형식이 많을 것 같습니다.
좋은 강의 감사합니다!
how to do that trained huggingface model on my own dataset? how i can start ? i don't know the structure of the dataset? help.. very help how I store voice and how to lik with its text how to orgnize that I an looking for any one help me in this planet Should I look for the answer in Mars?
huggingface provicde well-organized document(huggingface.co/docs/transformers/index, huggingface.co/docs/datasets/) If you want to be a NLP engineer, you shoud know how to find the information you mentioned, right? If not, it would be better tofind engineer and pay money.
좋은 강의 감사합니다 hugging face 한국어로 설명해주는게 없었는데 ㅠㅠ 덕분에 잘 공부했습니다 흥하세요!
와 진짜 너무너무 친절한 강의 ㅠㅠ 감사합니다 !
좋은 강의 감사합니다!
좋은강의 잘들었습니다
좋은 강의 감사합니다~