Joonseok Lee
Joonseok Lee
  • Видео 271
  • Просмотров 263 687

Видео

[ML/DL] Lecture 20. Transformers II
Просмотров 752Месяц назад
[ML/DL] Lecture 20. Transformers II
[ML/DL] Lecture 17. Sequential Data & Recurrent Neural Networks I
Просмотров 4972 месяца назад
[ML/DL] Lecture 17. Sequential Data & Recurrent Neural Networks I
[ML/DL] Lecture 16. Training Neural Networks II
Просмотров 3482 месяца назад
[ML/DL] Lecture 16. Training Neural Networks II
[ML/DL] Lab 3. Introduction to PyTorch & Neural Networks Basics
Просмотров 3022 месяца назад
[ML/DL] Lab 3. Introduction to PyTorch & Neural Networks Basics
[ML/DL] Lecture 15. Training Neural Networks I
Просмотров 4212 месяца назад
[ML/DL] Lecture 15. Training Neural Networks I
[ML/DL] Lecture 14. Convolutional Neural Networks
Просмотров 4102 месяца назад
[ML/DL] Lecture 14. Convolutional Neural Networks
[ML/DL] Lecture 13. Neural Networks and Backpropagation
Просмотров 4252 месяца назад
[ML/DL] Lecture 13. Neural Networks and Backpropagation
[ML/DL] Lecture 12. Nearest Neighbors & Softmax Classifiers
Просмотров 3402 месяца назад
[ML/DL] Lecture 12. Nearest Neighbors & Softmax Classifiers
[NeurIPS 2024] Self-guided Masked Autoencoder
Просмотров 4432 месяца назад
Jeongwoo Shin, Inseo Lee, Junho Lee, Joonseok Lee. Self-Guided Masked Autoencoder, Proceedings of the 38th Conference on Neural Information Processing Systems (NeurIPS), 2024. www.joonseok.net/papers/selfmae.pdf
[BMVC 2024] Scalable Frame Sampling for Video Classification
Просмотров 2022 месяца назад
Junho Lee, Jeongwoo Shin, Seung Woo Ko, Seongsu Ha, Joonseok Lee. Scalable Frame Sampling for Video Classification: A Semi-Optimal Policy Approach with Reduced Search Space, Proceedings of the 35th British Machine Vision Conference (BMVC), 2024. www.joonseok.net/papers/bmvc24_sosampler.pdf
[BMVC 2024] A Revisit to the Decoder for Camouflaged Object Detection
Просмотров 1312 месяца назад
Seung Woo Ko, Joopyo Hong, Suyoung Kim, Seungjai Bang, Sungzoon Cho, Nojun Kwak, Hyung-Sin Kim, Joonseok Lee. A Revisit to the Decoder for Camouflaged Object Detection, Proceedings of the 35th British Machine Vision Conference (BMVC), 2024.
[ML/DL] Lab 2. Regularization, Trees, Ensembles, and Clustering
Просмотров 4233 месяца назад
[ML/DL] Lab 2. Regularization, Trees, Ensembles, and Clustering
[ML/DL] Lecture 11. Unsupervised Learning
Просмотров 5053 месяца назад
[ML/DL] Lecture 11. Unsupervised Learning
[ML/DL] Lecture 10. Support Vector Machines
Просмотров 5133 месяца назад
[ML/DL] Lecture 10. Support Vector Machines
[ML/DL] Lecture 9. Ensemble Models and Boosting
Просмотров 5323 месяца назад
[ML/DL] Lecture 9. Ensemble Models and Boosting
[ML/DL] Lecture 8. Decision Trees
Просмотров 4653 месяца назад
[ML/DL] Lecture 8. Decision Trees
[ML/DL] Lab 1. Machine Learning with Python
Просмотров 5773 месяца назад
[ML/DL] Lab 1. Machine Learning with Python
[ML/DL] Lecture 6. Classification II (Discriminant Analysis)
Просмотров 5333 месяца назад
[ML/DL] Lecture 6. Classification II (Discriminant Analysis)
[ML/DL] Lecture 5. Classification I (Logistic Regression)
Просмотров 5513 месяца назад
[ML/DL] Lecture 5. Classification I (Logistic Regression)
[ML/DL] Lecture 4. Linear Regression II
Просмотров 5973 месяца назад
[ML/DL] Lecture 4. Linear Regression II
[ML/DL] Lecture 3. Linear Regression I
Просмотров 8423 месяца назад
[ML/DL] Lecture 3. Linear Regression I
[ML/DL] Lecture 2. Introduction to Supervised Learning
Просмотров 1 тыс.3 месяца назад
[ML/DL] Lecture 2. Introduction to Supervised Learning
[ML/DL] Lecture 1. Course Introduction
Просмотров 2,8 тыс.3 месяца назад
[ML/DL] Lecture 1. Course Introduction
[ECCV 2024] Finding NeMo: Negative-mined Mosaic Augmentation for Referring Image Segmentation
Просмотров 4514 месяца назад
[ECCV 2024] Finding NeMo: Negative-mined Mosaic Augmentation for Referring Image Segmentation
[SIGIR 2024] Content-based Graph Reconstruction for Cold-start item recommendation
Просмотров 6556 месяцев назад
[SIGIR 2024] Content-based Graph Reconstruction for Cold-start item recommendation
[ICML 2024] Isometric Representation Learning for Disentangled Latent Space of Diffusion Models
Просмотров 1 тыс.7 месяцев назад
[ICML 2024] Isometric Representation Learning for Disentangled Latent Space of Diffusion Models
[2024 Team 13] Advancing Image Reconstruction: Evaluating BOLD & Beta Signals in fMRI Brain Decoding
Просмотров 3977 месяцев назад
[2024 Team 13] Advancing Image Reconstruction: Evaluating BOLD & Beta Signals in fMRI Brain Decoding
[2024 Team 12] Scene Text Detection in Rainy Day
Просмотров 1527 месяцев назад
[2024 Team 12] Scene Text Detection in Rainy Day
[2024 Team 11] Representing Dynamic Scenes using Physics-integrated Gaussian Splatting
Просмотров 1527 месяцев назад
[2024 Team 11] Representing Dynamic Scenes using Physics-integrated Gaussian Splatting

Комментарии

  • @ompang_health
    @ompang_health 6 дней назад

    서울대학교 대학원 학생인데 CV공부에 정말 도움이 많이 됐습니다 !! 기회가 되면 교수님 수업을 꼭 듣도록 하겠습니다 :)

  • @TICTAP
    @TICTAP 17 дней назад

    잘 듣겠습니다.

  • @Swimray525
    @Swimray525 23 дня назад

    좋은 강의 잘 듣고 있습니다. 공유 감사드립니다👍

  • @GoodDayCommander1247
    @GoodDayCommander1247 Месяц назад

    31:47

  • @shgdf-f6h
    @shgdf-f6h Месяц назад

    PE 쪽 설명은 ruclips.net/video/T3OT8kqoqjc/видео.html 참고하면 좋을거같네요

  • @stellakim5871
    @stellakim5871 Месяц назад

    와 지나가던 회사원인데 정말 감사합니다. 너무 좋네요.

  • @Hing535
    @Hing535 Месяц назад

    강의 정말 재밌습니다. 감사합니다!

  • @windy6894
    @windy6894 2 месяца назад

    우연히 알고리즘에 이끌려 벌써 6강까지 쭉 재밌게 봤는데... 강의력이나 전문성이나... 강의 깊이가 너무 좋네요. 동료 엔지니어들한테도 적극 추천하러갑니다..이해도를 확 이끌어 올려 주네요.

  • @gleekiju
    @gleekiju 2 месяца назад

    positioning이 동일단어의 위치에 따른 중의적 정의를 구분하기 위한 장치 아닌가요?

  • @gleekiju
    @gleekiju 2 месяца назад

    교수님 강의들으면서 혼동(@38:04)이 되는 것이 지금 설명하시는 과정이 학습이 모두 끝나고 실제 prediction을 하는 과정을 말씀하시는 것이지요? traning과정이 아닌, traning 과정중에는 todavia 와 still의 연관성이(내적값이 크다) 라는 것을 아직 결정할 수 없는 상태인 듯한데.... 모든 traning이 종결된 후에나 연관성이 큰 것을 알 수 가 있는 것이니 설명하는 단계가 모델의 훈련이 결정되고 prediction하는 과정인 듯하여 문의드립니다.

    • @LeeJoonseok
      @LeeJoonseok 2 месяца назад

      학습 도중에는 (특히 초기에는) 물론 "잘" 하지는 못하겠죠 :) 말씀하신 대로 학습 과정이 끝난 후에 이런 식으로 동작한다는 것이고, 그렇게 만들기 위해 ground truth data를 이용해서 backpropagation을 시켜 학습시켜 나가게 됩니다. 초반에 잘 못하는 과정에서도 모델은 자기 나름대로 잘 해보려고 예측을 하고, 그 예측이 틀린 만큼 다음에는 같은 문제에 대해 덜 틀리는 방향으로 update가 이루어지게 되는 것입니다.

    • @gleekiju
      @gleekiju 2 месяца назад

      @@LeeJoonseok 교수님 답변 감사합니다.

  • @gayoungson3806
    @gayoungson3806 2 месяца назад

    좋은 강의 공유해주셔서 감사합니다.

  • @사카-j4f
    @사카-j4f 2 месяца назад

    제가 들어본 강의 중 가장 도움이 많이 되는 것 같습니다. 강의 올려주셔서 감사합니다.

  • @모라이교육채널
    @모라이교육채널 3 месяца назад

    강의가 되게 재밌게 잘 하시는것 같습니다

  • @Suppon_
    @Suppon_ 3 месяца назад

    감사합니다 교수님

  • @Hangbok-k3y
    @Hangbok-k3y 3 месяца назад

    감사합니다!

  • @Hangbok-k3y
    @Hangbok-k3y 3 месяца назад

    감사합니다

  • @Hangbok-k3y
    @Hangbok-k3y 3 месяца назад

    감사합니다

  • @soobinhwang5012
    @soobinhwang5012 3 месяца назад

    교수님, 안녕하세요. MLDL 수강중인 황수빈이라고 합니다. 중요한 질문은 아니지만, 24쪽 2번이 O(K)는 아닌가요? 센트로이드가 K개 있으니 K번 연산한다고 생각했는데, 잘못 생각한 것인지 궁금합니다.

    • @LeeJoonseok
      @LeeJoonseok 3 месяца назад

      각 cluster를 처리할 때 거기에 속한 item의 개수만큼 돌면서 평균을 내야 하기 때문에 해당 operation이 O(1)이 아닙니다. 이렇게 모든 item들이 1번씩 연산에 참여하기 때문에 O(N)이 됩니다.

    • @soobinhwang5012
      @soobinhwang5012 3 месяца назад

      @@LeeJoonseok 답변 감사드립니다. 교수님!

  • @ssossosso123
    @ssossosso123 3 месяца назад

    DS, AI 공부중인 학생인데 해당분야 모든 오픈코스중에 교수님 강의가 제일 좋은 것 같아요..! 너무 좋은 강의 공개해주셔서 감사드립니다 늘 감동받으면서 보고있어요🥺

    • @LeeJoonseok
      @LeeJoonseok 3 месяца назад

      좋은 말씀 감사드립니다! :)

  • @gyunlee
    @gyunlee 3 месяца назад

    안녕하세요 교수님, 딥러닝 공부하는 학생입니다. 강의노트를 받아보고싶은데 방법이 있을까요?

    • @LeeJoonseok
      @LeeJoonseok 3 месяца назад

      안녕하세요, 죄송하지만 강의노트는 정규 수강생들에게만 제공되는 점 양해 부탁드립니다.

  • @아베다학생지구환경과
    @아베다학생지구환경과 3 месяца назад

    Thank you for uploading the lectures. I would like to give a small feedback based on my experience after watching the 4 lectures. Until now I understood and followed the contents. I also think the lectures are quite interesting and so is the Professor's way of teaching, which is why it was easier to focus on the lectures. However, with every lecture, the contents become more difficult (which is expected) and as a foreign student, even if the Korean language level is good, it is difficult to understand the language and follow the contents. I have been using auto-translate, sometimes it works, but most of the time it doesn't. In my opinion, adding English subtitles will make the lectures open to a vast number of audience who are interested in machine learning. I will be grateful Professor considers this issue. Thank you.

    • @LeeJoonseok
      @LeeJoonseok 3 месяца назад

      Thanks for your interest in my lecture and comment. Unfortunately, due to the high cost of transcription (either time or money), I am not afford to provide it. If I have a chance to lecture in English, I will be able to upload it. (No concrete plan in the near future though..)

  • @jihuihwang61
    @jihuihwang61 4 месяца назад

    안녕하세요. 뛰어난 강의 공유해주셔서 감사합니다. 도움이 많이 되었습니다.

  • @지이-m6q
    @지이-m6q 4 месяца назад

    감사합니다 교수님

  • @KatteRoy
    @KatteRoy 4 месяца назад

    004 Trever Street

  • @dohwooo
    @dohwooo 4 месяца назад

    감사합니다 🎉

  • @choiseokjoo
    @choiseokjoo 4 месяца назад

    좋은 강의 공유 감사드립니다. 많은 도움이 되었습니다.

  • @chanCalix
    @chanCalix 4 месяца назад

    교수님 강의 잘 들었습니다. 몇가지 질문사항이 있습니다. 1. 일반적으로 비디오를 전처리하여 특정 fps로 프레임을 잘라서 저장하여 이를 학습할 때 사용하는 것인지 아니면 전체 비디오를 넣어서 코드 내에서 프레임을 가지고 오게 하는 것이 효율적인지 궁금합니다. 2. 설명해주신 논문들에서 보면 인풋으로 16프레임, 64프레임 이렇게 프레임들을 가지고 오는데 예를 들어 30fps 기준 30초짜리 비디오가 있다면 총 비디오는 900개의 프레임이 존재하는 것인데, 한 비디오를 classification을 하는 task의 경우에 이 전체 900개의 프레임을 특정 stride 비율로 64개의 프레임을 가지고 오도록 설계를 하게 되면 정보를 잃어버리게 되는 것인데 긴 비디오에 대한 처리는 어떻게 진행하는 걸까요? 3. handcraft feature를 사용하지 않고 action recognition 모델을 설계 하는 것이 더 novel한 contribution이라고 볼 수 있는 걸까요?

    • @LeeJoonseok
      @LeeJoonseok 4 месяца назад

      1, 2. 두 가지 방법 모두 가능하긴 한데, 보통 비디오가 조금만 길어져도 계산량이 너무 많아서, 후자보다는 전자로 하는 것이 효율적입니다. 정보를 잃는 것이 맞긴 하지만, 사실 이렇게 시간 간격이 가까운 프레임들끼리는 아주 redundant한 정보를 가지고 있는 경우가 많아서, 이걸 모두 처리하느라 컴퓨팅 리소스를 낭비하기보다는 띄엄띄엄 읽어서 처리하는 것이 효율적입니다. 다만, 아주 빠르게 움직이는 물체를 잡아내거나 특정 동작의 디테일을 잡아내야 하는 경우 (예를 들면 스포츠 경기에서의 비디오 판독) 에는 모든 프레임을 사용하는 것이 필요할 수 있겠습니다. 3. hand-craft feature라고 해서 모두 novel하지 않은 것은 아닙니다. 다만, 사람이 쉽게 생각해 낼만한 feature들은 이미 다 알려져 있기 때문에 novel하면서 성능도 잘 나오고 아직 아무도 만들지 않은 feature를 찾아내는 것이 어려울 뿐입니다. 데이터 기반으로 머신러닝을 써서 feature를 추출하는 것이 더 유리한 이유가 바로 이것 때문입니다. 사람이 꼭 특정 feature를 찾아내도록 하지 않고 목적 task와 loss function만 잘 정의해주면 그 일을 잘 할 수 있는 feature를 알아서 잘 찾아내기 때문입니다. 좋은 질문 감사드립니다!

  • @허현봉-h4t
    @허현봉-h4t 5 месяцев назад

    안녕하세요??? 강의 감사합니다 저는 구글 포토 처럼 사진에서 사람 얼굴을 매칭 하는거 하고 싶은데요 어떻게 할수 있을까요??? 감사합니다

    • @LeeJoonseok
      @LeeJoonseok 5 месяцев назад

      Face detection / face recognition 이라는 주제입니다. 여기 답변으로 모든걸 설명하긴 어려워서 :) 이 주제로 논문이나 관련 모델들을 찾아 보시는 것이 좋을 것 같습니다.

    • @허현봉-h4t
      @허현봉-h4t 5 месяцев назад

      @@LeeJoonseok ViT를 이용한 것도 있을까요??? 감사합니다

    • @허현봉-h4t
      @허현봉-h4t 5 месяцев назад

      그리고 사진을 딱 보고 이건 누구누가 어디서 찍은 사진이군 하고 알아낼수는 없겠죠??? ㅠㅠ

    • @허현봉-h4t
      @허현봉-h4t 5 месяцев назад

      현재 이미지 캡셔닝 기술은 한글로도 되는 건가요???

  • @ludvicoel-fo4ln
    @ludvicoel-fo4ln 5 месяцев назад

    올려주신 덕분에 방학에도 수준높은 강의 듣고 있습니다. 감사합니다.

  • @ToHee-c6q
    @ToHee-c6q 5 месяцев назад

    궁금한 점 메모 유지보수 측면에서의 총 리소스 (정렬 vs 비정렬) 언어체계에 따른 리소스 차이

  • @dohwooo
    @dohwooo 5 месяцев назад

    감사합니다🎉

  • @dohwooo
    @dohwooo 5 месяцев назад

    감사합니다🎉

  • @dohwooo
    @dohwooo 5 месяцев назад

    감사합니다🎉

  • @shr4478
    @shr4478 5 месяцев назад

    유익하고 귀중한 강의 업로드해주셔서 감사합니다! 원리와 응용 강의도 열심히 들어보겠습니다!

  • @포도당-i5c
    @포도당-i5c 6 месяцев назад

    교수님 짱.

  • @Jaeoh.woof765
    @Jaeoh.woof765 6 месяцев назад

    Excellent lecture, thanks!

  • @adad9573
    @adad9573 6 месяцев назад

    안녕하세요 교수님, 교수님의 강의자료를 PDF 형식으로 받을 수 있을지 여쭙고 싶습니다. 항상 명쾌하고 이해하기 쉬운 강의에 깊이 감사드립니다. 감사합니다.

    • @LeeJoonseok
      @LeeJoonseok 6 месяцев назад

      안녕하세요, 강의 자료는 정규 수강생들에게만 제공하고 있는 점 양해 부탁드립니다. 감사합니다.

  • @ann9718
    @ann9718 7 месяцев назад

    감사합니다.

  • @jepilyun2268
    @jepilyun2268 7 месяцев назад

    cs50 강의보다 좋습니다. 혹시 추후 가능하시면 LLM 수업도 한번 해주시면 안될까요?

  • @openroomxyz
    @openroomxyz 7 месяцев назад

    Nice

  • @sima63
    @sima63 7 месяцев назад

    thanks :-)

  • @JeongChangYeong
    @JeongChangYeong 7 месяцев назад

    22:30 학회

  • @sean0601797
    @sean0601797 7 месяцев назад

    베이즈 정리랑 굉장히 비슷하네요. 좋은 강의 감사합니다.

  • @김현서-j5q
    @김현서-j5q 7 месяцев назад

    1:07:33에서 교수님이 이야기하신 것과 같은 맥락일 수 있지만, VATT 이전 선행연구인 MMV(Self-Supervised MultiModal Versatile Networks)에서 video와 audio는 많은, 세밀한 정보를 가지고 있는 Fine-grained, text는 Coarse-grained로, 서로 다른 fine / coarse space에 embedding한 뒤에 fine-grained space에서 coarse space로 projection을 통해 모든 space를 연결하는 것이 효과적이라 주장하는데, 이를 그대로 따른 것으로 보입니다. 언제나 좋은 강의 제공해주셔서 정말 감사합니다!

  • @포도당-i5c
    @포도당-i5c 7 месяцев назад

    ♥♥♥교수님 사랑해요 ♥♥♥

  • @sean0601797
    @sean0601797 7 месяцев назад

    안녕하세요. 슬라이드 32에 stagewise additive learning 대입할 때 \alpha subscript가 i가 아닌 j로 대입했을 때 유도과정에서의 문제가 해결될 것 같습니다. 슬라이드 33 Partial dertivative도 \alpha가 아닌 \alpha_t로 놓으면 될 것 같습니다. 강의 영상 늘 잘 보고 있습니다. 감사합니다.

    • @LeeJoonseok
      @LeeJoonseok 7 месяцев назад

      잔실수들이 많았네요. 발견하고 알려주셔서 감사드립니다!

  • @sean0601797
    @sean0601797 7 месяцев назад

    @51:59; 안녕하세요. 슬라이드 29페이지 마지막 수식 ||\beta^2||_1가 아니라 ||\beta||_1 인지 확인 부탁 드립니다.

    • @LeeJoonseok
      @LeeJoonseok 7 месяцев назад

      발견해 주셔서 감사합니다! :)

  • @sean0601797
    @sean0601797 7 месяцев назад

    안녕하세요. 몇몇 강의 슬라이드 중 사소한 오탈자 확인 차 질문 드립니다. 1. 슬라이드 11과 19에서 Normal distribution pdf의 exp 항 안에 \Sigma_y의 역행렬 부호가 누락되어 있는 것 같습니다. 2. 슬라이드 29에서 False negative rate의 정의가 FN/(TP+FN)인 것 같습니다. 강의 영상 늘 잘 보고 있습니다. 감사합니다.

    • @LeeJoonseok
      @LeeJoonseok 7 месяцев назад

      감사합니다! :)

  • @ceallo3034
    @ceallo3034 7 месяцев назад

    오마갓 마지막 강의 잘 듣고가겠습니다. :) 감사합니다

  • @ceallo3034
    @ceallo3034 7 месяцев назад

    너무 재밌게 보구 있습니다. 이제 한 강의 남았네요! 이해안가는 부분들은 또 정주행해서 보겠습니다.