만끽 MaanGeek
만끽 MaanGeek
  • Видео 27
  • Просмотров 40 713
PR-478: OpenVLA: An Open-Source Vision-Language-Action Model
#deeplearning #pr12 #llm #robotics #vlm #lva
PR-478: OpenVLA: An Open-Source Vision-Language-Action Model
Slide: drive.google.com/file/d/1_jUZ4aNt6KaidYiIxt0FgiLwEmbjz2EO/view?usp=sharing
Paper: arxiv.org/abs/2406.09246
Project: openvla.github.io/
Repo: github.com/openvla/openvla
Просмотров: 577

Видео

PR-478: TaskWeaver: A Code-First Agent Framework
Просмотров 1339 месяцев назад
#deeplearning #pr12 #LLM #agent #AGI #microsoft #langchain #autogpt slide: drive.google.com/file/d/1euataQC6UcnpiUt1XQXcSz9mDvHs0noW/view?usp=sharing paper: arxiv.org/abs/2311.17541 repo: github.com/microsoft/TaskWeaver
[AAAI-2024] MEME: Multi-architecturE Multi-Expert Diffusion Models
Просмотров 1239 месяцев назад
paper: arxiv.org/abs/2306.04990
PR-465: Emu Video and Emu Edit
Просмотров 169Год назад
#deeplearning #pr12 #diffusion #Meta #dalle #stablediffusion slide: drive.google.com/file/d/1uZgVmXT7gpAErTqZDJrvkZPo bgCp7q/view?usp=sharing meta blog: ai.meta.com/blog/emu-text-to-video-generation-image-editing-research/ paper (emu edit): emu-edit.metademolab.com/assets/emu_edit.pdf paper (emu video): emu-video.metademolab.com/assets/emu_video.pdf
PR-454: RT-2: Vision-Language-Action Models Transfer Web Knowledge to Robotic Control
Просмотров 254Год назад
#deeplearning #pr12 #LLM #robotics #google slide: drive.google.com/file/d/1dYA3tTZDEeQenb1tMGQA6Akmn9N_8n2m/view?usp=sharing paper: robotics-transformer2.github.io/
Towards Practical Plug-and-Play Diffusion Models (CVPR23 Virtual Presentation)
Просмотров 299Год назад
Diffusion-based generative models have achieved remarkable success in image generation. Their guidance formulation allows an external model to plug-and-play control the generation process for various tasks without finetuning the diffusion model. However, the direct use of publicly available off-the-shelf models for guidance fails due to their poor performance on noisy inputs. For that, the exis...
PR-431: Consistency Models
Просмотров 2,5 тыс.Год назад
#deeplearning #pr12 #diffusion #openai #dalle #stablediffusion slide: drive.google.com/file/d/1vAoxuHWoM8wdLkYB9V12l9JVReFf0LTW/view?usp=sharing paper: arxiv.org/abs/2303.01469
PR-419: Multi-Concept Customization of Text-to-Image Diffusion
Просмотров 863Год назад
#deeplearning #pr12 #diffusion #personalization slide: docs.google.com/presentation/d/1Z9dRwewb8MH5NwjE4yTtjQGH-Nz9Gj2qvBiRv4fGLsk/edit?usp=sharing paper: arxiv.org/abs/2212.04488
PR-391: CoCa: Contrastive Captioners are Image-Text Foundation Models
Просмотров 2,4 тыс.2 года назад
#Deeplearning #PR12 #Multimodal #CoCa #VLP #Imagenet slide: drive.google.com/file/d/1lSNCIhlvxLadf3bBofi4A8UeVyF-SG-u/view?usp=sharing paper: arxiv.org/abs/2205.01917
PR-381: Hierarchical Text-Conditional Image Generation with CLIP Latents (DALL-E 2)
Просмотров 2,1 тыс.2 года назад
#Deeplearning #PR12 #Multimodal #DALL-E #Text2Image slide: drive.google.com/file/d/1LIxBQ-ydc1BAFFqGt0ZbBtSh1ky9PPeE/view?usp=sharing paper: arxiv.org/abs/2204.06125
PR-371: data2vec: A General Framework for Self-supervised Learning in Speech, Vision and Language
Просмотров 9042 года назад
#Deeplearning #PR12 #Multimodal #data2vec slide: drive.google.com/file/d/1ixgAtVeGdyWOfzkkAy6F-sN7z7qjAgZi/view?usp=sharing paper: arxiv.org/abs/2202.03555
PR-360: An Empirical Study of Training End-to-End Vision-and-Language Transformers
Просмотров 3763 года назад
#Deeplearning #PR12 #Multimodal #VLP slide: drive.google.com/file/d/1NWnuwiLn5wpVfwK-xptv2QlZDEeqeVut/view?usp=sharing paper: arxiv.org/abs/2111.02387
PR-348: Pix2seq: A Language Modeling Framework for Object Detection
Просмотров 6453 года назад
#Deeplearning #PR12 #LanguageModel #ObjectDetection slide: drive.google.com/file/d/1fTUucp0LEtvajCAxKccjwvI45KHVS-Ie/view?usp=sharing paper: arxiv.org/abs/2109.10852
PR-336: Meta Pseudo Labels
Просмотров 1,1 тыс.3 года назад
#SemiSupervisedLearning #DeepLearning #PR12 slide: bit.ly/3Bkm2Ue paper: arxiv.org/abs/2003.10580
PR-326: VICReg: Variance-Invariance-Covariance Regularization for Self-Supervised Learning
Просмотров 1,4 тыс.3 года назад
#SelfSupervisedLearning #DeepLearning #PR12 본 논문은, Sel-supervised Learning 의 최근 흐름에 있어서 가장 부족했던 것 중 하나인 모델의 interpretability 을 얻고자 노력한 논문입니다. 왜 잘되는지, 설명가능한 simple but effective 한 구조를 제안합니다. slide: bit.ly/3qaQRqb paper: arxiv.org/abs/2105.04906
PR-310: Self-supervised Pretraining of Visual Features in the Wild
Просмотров 1,4 тыс.3 года назад
PR-310: Self-supervised Pretraining of Visual Features in the Wild
PR-293: In-Domain GAN Inversion for Real Image Editing
Просмотров 1,2 тыс.3 года назад
PR-293: In-Domain GAN Inversion for Real Image Editing
PR-281: An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
Просмотров 8 тыс.4 года назад
PR-281: An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
인공지능 연구하는 대학원생을 찾아서 (침착맨 55도발 Video Frame Interpolation 해보기)
Просмотров 7704 года назад
인공지능 연구하는 대학원생을 찾아서 (침착맨 55도발 Video Frame Interpolation 해보기)
PR-268: Adversarial Examples Improve Image Recognition
Просмотров 5004 года назад
PR-268: Adversarial Examples Improve Image Recognition
만끽의 Rethinking Pre-training and Self-training 논문 소개!
Просмотров 2094 года назад
만끽의 Rethinking Pre-training and Self-training 논문 소개!
PR-254: SFNet: Learning Object-aware Semantic Correspondence
Просмотров 6784 года назад
PR-254: SFNet: Learning Object-aware Semantic Correspondence
만끽의 Flow Based Generative Model 소개!
Просмотров 6 тыс.5 лет назад
만끽의 Flow Based Generative Model 소개!
만끽 ml논문 읽는 방송 Point-to-Point Video Generation
Просмотров 1225 лет назад
만끽 ml논문 읽는 방송 Point-to-Point Video Generation
만끽 Graph Neural Network 설명
Просмотров 6 тыс.5 лет назад
만끽 Graph Neural Network 설명
20190503 Augmented Neural ODEs Paper Reading
Просмотров 1,2 тыс.5 лет назад
20190503 Augmented Neural ODEs Paper Reading
20190426 AttnGAN - 논문읽는 방송 만끽
Просмотров 2875 лет назад
20190426 AttnGAN - 논문읽는 방송 만끽

Комментарии

  • @hyunew
    @hyunew Месяц назад

    실제 코드도 돌려주시는 영상도 부탁드려요

  • @태민김-z6w
    @태민김-z6w 3 месяца назад

    감사합니다

  • @plhyun99
    @plhyun99 7 месяцев назад

    슬라이드가 안받아지네요 ㅠㅜㅜ

  • @wilbertsohrweide9405
    @wilbertsohrweide9405 8 месяцев назад

    Promo SM

  • @jhzi2139
    @jhzi2139 Год назад

    11:30

  • @sjy1813
    @sjy1813 Год назад

    트위치 때부터 종종 방송 봤는데 ㅋ cvpr 축하드립니다요 ㅋ

    • @maangeek
      @maangeek Год назад

      감사합니다 😊

  • @seungwonjang2676
    @seungwonjang2676 Год назад

    만끽 화이팅!

    • @maangeek
      @maangeek Год назад

      화이팅!! ㅋㅋㅋ

  • @אלעדממן-מ1ד
    @אלעדממן-מ1ד Год назад

    Hey, there is a problem with the link to the slide. I would really love to lock at it.

  • @김강렬-l2p
    @김강렬-l2p Год назад

    좋은 강의 감사합니다. 강의 자료 슬라이드 링크가 작동하지 않는데, 확인해 주실 수 있나요?

  • @해완김-u8v
    @해완김-u8v 2 года назад

    안녕하세요 개념 하나하나 짚어가면서 설명해주셔서 감사합니다 조회수는 낮지만 영상의 가치는 절대 낮지 않아요 ! 저처럼 도움 받는 사람들도 많을 겁니다 !!!

    • @maangeek
      @maangeek Год назад

      응원의 말씀 정말 감사합니다! 도움이 되셨다니 정말 뿌듯합니다 ㅎㅎ

    • @지율-c8m
      @지율-c8m Год назад

      @@maangeek 저 또한 정말 많은 도움 받고 있습니다! 감사합니다ㅎㅎ

  • @KwangrokRyoo
    @KwangrokRyoo 2 года назад

    와 역시 네임드...

    • @maangeek
      @maangeek 2 года назад

      ...? 감사합니다..?

  • @aibodyfat
    @aibodyfat 2 года назад

    아이고 선생님 감사드립니다. NLP 파면서 천날만날 트랜스포머 변형만 보다가 디퓨전 코인이 떡상하길래 허겁지겁 따라가느라 머리 아픈 와중에 정말로 도움되는 영상입니다. 지식 부채만 가득한 띨빵한 저 같은놈들을 위해 가물가물한 기초도 한번씩 집어주시면서 친절히 다 설명해주시고... ㅎㅎ 아직 머릿속이 깔끔하게 정리되는 수준까지는 멀었지만 영상에서 몇개 얻어갑니다...! 좋은 영상 감사드립니다.

    • @maangeek
      @maangeek 2 года назад

      아이고.. 너무 좋은 응원의 글 남겨주셔서 감사합니다ㅠㅠㅠ 너무 큰 응원이 되었습니다.

  • @shavkat95
    @shavkat95 2 года назад

    might wanna hint at the used language lol

  • @JinWonLee
    @JinWonLee 2 года назад

    뒤늦게 잘 보고 갑니다! SimCLR PR-12 link도 남기고 가요 :) ruclips.net/video/FWhM3juUM6s/видео.html

  • @byungjookim5645
    @byungjookim5645 2 года назад

    최신 논문 좋은 설명 감사합니다~

    • @maangeek
      @maangeek 2 года назад

      좋게 봐주셔서 감사합니다~ ^^7

  • @정구본
    @정구본 2 года назад

    영상 잘 시청하고 갑니다 :)

    • @maangeek
      @maangeek 2 года назад

      감사합니다 :)

  • @KwangrokRyoo
    @KwangrokRyoo 3 года назад

    넘 좋아요!!🔥

    • @maangeek
      @maangeek 3 года назад

      감사합니다 :)

  • @isacklee9454
    @isacklee9454 3 года назад

    real image를 editing 하는데 있어서 inversion 하는 여러 논문중에서 현재 이 논문이 가장 좋은성능인가요?

    • @maangeek
      @maangeek 3 года назад

      글쎄요. 제가 이 논문이 발표되던 당시에는 그렇겠지만, 워낙에 새로운 연구가 많이 쏟아지는 세상이니, 현재는 잘 모르겠습니다.

  • @kayoungban9872
    @kayoungban9872 3 года назад

    갓윤성좌... 페이퍼읽다가 여기까지 자연스럽게 흘러들어왔습니다..

    • @maangeek
      @maangeek 3 года назад

      헉 누추한 곳에 귀한 분이 어쩐일로...ㅎㅎ 감사합니다.

  • @vovos00
    @vovos00 3 года назад

    너무 좋은 오버뷰 정말 감사합니다 최고에여

    • @maangeek
      @maangeek 3 года назад

      아이고 좋게봐주셔서 제가 감사합니다 :)

  • @BoudiccaKaran
    @BoudiccaKaran 3 года назад

    만끽님 요즘 영상이 알고리즘을 타는것같아요 자꾸 추천되네여 ㅎ

    • @maangeek
      @maangeek 3 года назад

      오 그래요? 물들어올 때 노 저어야 겠네요 ㅋㅋㅋㅋ

  • @jungwonchoi
    @jungwonchoi 3 года назад

    혹시 보시는 분을 위해서.. 소리가 약 3분 28초 정도 빠릅니다~ 영상 3분 28초 앞으로 땡겨서 들으면 싱크 맞습니다.

    • @maangeek
      @maangeek 3 года назад

      와! 꿀정보 감사합니다 :)

  • @vi5hnupradeep
    @vi5hnupradeep 3 года назад

    Hey , can you please talk in English ,.more people would be able to follow ,.this amazing content

  • @princekwesioseiaboagye
    @princekwesioseiaboagye 3 года назад

    Can you include English subtitles?

    • @SriNiVi
      @SriNiVi 3 года назад

      Yeahh, i would like that too. That would be super helpful if the presenter can do that.

    • @maangeek
      @maangeek 3 года назад

      Thankfully, many other people have given similar feedback. I always have that feedback in my mind. I'll try it when I can.

  • @zhoububble
    @zhoububble 3 года назад

    very interesting to see the idinvert is being introduced! :)

    • @maangeek
      @maangeek 3 года назад

      Thank you, professor! It's very honored to get this comment. I'm very interested in your research on GAN inversion. :)

  • @seokeonchoi4049
    @seokeonchoi4049 3 года назад

    잘 배워갑니다 🙏

    • @maangeek
      @maangeek 3 года назад

      감사합니다 :)

  • @princekwesioseiaboagye
    @princekwesioseiaboagye 3 года назад

    Make them in English okay

    • @maangeek
      @maangeek 3 года назад

      I will consider it later.

  • @jinukcho5365
    @jinukcho5365 3 года назад

    설명 잘하시네요! flow 모델 공부중인데 도움이 많이되었습니다 :)

    • @maangeek
      @maangeek 3 года назад

      넵 도움이 되었다니 좋네요. 감사합니다. :)

  • @인나-h2f
    @인나-h2f 3 года назад

    좋은 강의 올려주셔서 감사합니다! 혹시 linear projection을 해서 패치 P*P*C에 D를 곱한 이유가 있을까요?...

    • @maangeek
      @maangeek 3 года назад

      D는 Transformer layer를 거친 후의 latent vector 의 dimension 입니다 :)

  • @juns6454
    @juns6454 3 года назад

    정보 공유해주셔서 정말 감사합니다.

    • @maangeek
      @maangeek 3 года назад

      관심 감사합니다:)

  • @fguubbvcfgh
    @fguubbvcfgh 3 года назад

    설명 감사합니다. 포인터만 적당히 움직여 주셨으면 합니다.

    • @maangeek
      @maangeek 3 года назад

      엇ㅋㅋㅋㅋㅋ 저도 다시보니 굉장히 요란하게 움직이네요ㅎㅎ.. 제가 원래 말할때 제스처가 많은편인데, 포인터를 그 용도로 사용했나봐요ㅋ큐큐ㅠㅠ 피드백 감사합니다.

    • @fguubbvcfgh
      @fguubbvcfgh 3 года назад

      @@maangeek 설명 정말 최고였습니다 ^^ 수고하세요

  • @김정희-f6l5r
    @김정희-f6l5r 4 года назад

    설명 너무 잘해주시네요.... 감사요...

    • @maangeek
      @maangeek 4 года назад

      ㅎㅎ 칭찬 감사합니다 :)

  • @lucas-lee
    @lucas-lee 4 года назад

    안녕하세요! 영상에 나온 이형민입니다. 영상 봐주셔서 감사드리고, 만끽 유튜브에 출연할 수 있게 돼서 영광입니다 :) 제 채널과 개인 블로그에 제가 연구하는 내용과 관련된 이야기들이 많이 올라와 있으니 많은 관심 부탁드려요 ㅎㅎ 채널: ruclips.net/channel/UCz14hRj69FfGsl7ftF0D3ig 홈페이지: hyeongminlee.github.io/

  • @gegard821
    @gegard821 4 года назад

    신기하네요 이런 기술 없을 때는 프레임 늘릴려면 포토샵으로 일일이 그려야 했나요?

    • @lucas-lee
      @lucas-lee 4 года назад

      그런 작업을 하지는 않았을 것 같구요, 두 영상을 mean 해서 overlap 된 영상으로 대체하거나 두 영상중 하나를 그냥 복사해서 뚝뚝 끊기더라도 그렇게 가지고 다니거나 하는 방법밖에는 없었습니다ㅠㅠ

  • @gyojunggu9849
    @gyojunggu9849 4 года назад

    첫장면부터 거품무는 침착맨? 아침부터 자극적이네요? 언제나 잘 보고있습니다? 재미와 유익함 모두 잃지 않는다? 만끽? 그는 신인가?

    • @maangeek
      @maangeek 4 года назад

      ㅋㅋㅋㅋ 생방때도 뵙기를 기대합니다?

  • @yunsunglee9938
    @yunsunglee9938 4 года назад

    5:00 슬슬 방송 시작? 36:11 논문 읽는 팁? 52:06 딥러닝과 인공지능의 미래에 대한 생각? 1:02:33 Self-supervised Learning 이란? Video에서의 SSL? 1:06:34 딥러닝 이론이 옛날부터 있었는데 요즘에야 재조명되는 이유? 1:09:50 딥러닝을 위해 필요한 GPU와 장비는 무엇? 1:15:40 원래 진행하려던 컨텐츠는 무엇? (55도발 클립을 video frame interpolation?) 1:51:35 잠시 인공지능 스피커 관련 질문이 들어왔다? 내 책상위에 있던 클로바에게 물어본다? 2:02:00 네배로? 2:02:21 원본과 두 배로 늘린 영상 비교? 2:08:34 Video Task에서 Data augmentation은 어떻게 하나? 2:15:49 원본과 네 배로 늘린 영상 비교? 2:36:34 오뱅알?

  • @godtn0
    @godtn0 4 года назад

    영상 싱크가 잘 맞지 않네요!! 정말 보고싶었던 영상인데 아쉽습니다ㅠㅠ

    • @maangeek
      @maangeek 4 года назад

      헉 그러게요 영상 싱크 상태가 엉망이네요ㅠㅠ 그냥 방송 통영상들을 편집없이 올리다보니 이런 문제가 있는지도 몰랐네요ㅠㅠ

  • @godtn0
    @godtn0 4 года назад

    만끽님, 영상 잘 봤습니다! 혹시 가능하다면 Neural ODE도 부탁드려도 될까요?!

    • @maangeek
      @maangeek 4 года назад

      Flow-based generative model 영상에 Neural ODE에 대한 언급이 조금 있습니다 ㅎㅎ 저 당시에는 Neural ODE에 대해서도 좀더 설명하는 영상을 만들까 했었는데.. 지금은 쉽지 않을 것 같네요 ㅋ큐ㅠㅠ

    • @godtn0
      @godtn0 4 года назад

      @@maangeek 다행히 최근에 정독해서 이해완료했습니다ㅎㅎ

    • @maangeek
      @maangeek 4 года назад

      @@godtn0 멋집니다 :)

  • @jin.hy.8495
    @jin.hy.8495 4 года назад

    안녕하세요 Generative Model 에 대해 1도 모르는 학생입니다. 어디서부터 공부를 해야할지 감이 안오는데 혹시 어떤 것부터 보면 좋을지 알려주실 수 있나요?

    • @maangeek
      @maangeek 4 года назад

      ruclips.net/video/rZufA635dq4/видео.html 이런 영상을 추천드립니다!

  • @김광영-j5q
    @김광영-j5q 4 года назад

    혹시 변요한 닮았다는 소리 들어보신적있나요? 변요한인줄알았네요

  • @wooseongyang2031
    @wooseongyang2031 4 года назад

    잘보고갑니다 ㅎ 앞으로 계속 방송하셨으면 좋겠어요!

  • @mollyrio4958
    @mollyrio4958 4 года назад

    GNN이 RNN과 상당히 유사하고, 설명하실 때, RNN에서 사용하는 용어를 많이 사용하셔서 RNN을 배경지식으로 위 영상 내용을 받아드리고 있습니다. 잘 이해가 안되는 부분이 f 함수의 입력값 부분 입니다. 1) v의 feature, 2) v의 edge들의 feature 3) hidden state 4) neighbor node의 feature 이라고 되어 있는데 2번과 4번의 차이가 무엇인지 알 수 있을까요? edge 와 neighbor의 차이를 설명해주시면 좋을거 같습니다. 그리고 hidden state같은 경우에는 설명하실 때, 여러개를 받아오는 것처럼 말씀하시던데.. RNN이 이전 h_(t-1) 을 사용하여 h_t의 update가 일어나는것과는 달리, 여러 h를 받아온다고 생각하는게 맞을까요? (이또한 neighbor의 정의와 관계가 있는듯 합니다.._ 마지막으로 f함수의 계산은 RNN에서 사용하는 W_hh, W_hx과 같은 weight 벡터가 4개가 있어서 각각을 행열곱하는 방식으로 계산되고, g함수가 RNN에서의 y(output)계산하는 함수라고 생각하면 되는 것 맞나요?

  • @joon0105
    @joon0105 5 лет назад

    와 저랑 관심분야가 많이 비슷하네요

    • @maangeek
      @maangeek 4 года назад

      이제야 댓글을 보네요ㅠㅠ 관심분야가 비슷하다니 :) 어떤 분야들 관심갖고 계신가요?

  • @kiririt-9377
    @kiririt-9377 5 лет назад

    잘보고 갑니다

  • @강병하-g9v
    @강병하-g9v 5 лет назад

    GNN에 대해 쉽게 설명해주셔서 덕분에 이해가 되었네요! 감사합니다 :)

  • @모라니-g9k
    @모라니-g9k 5 лет назад

    잘 보고 갑니다 ㅎㅎ

    • @maangeek
      @maangeek 5 лет назад

      네 감사합니다 :)

  • @PiyushKUMAR-sg5qz
    @PiyushKUMAR-sg5qz 5 лет назад

    I needed this in English 😔

  • @jaeyoonkim9255
    @jaeyoonkim9255 5 лет назад

    방송 잘들었습니다. 밑에 댓글에서도 여쭤뵌것 같은데 꼭 z dimension과 input dimension이 같아야 한다는것에서 대해서는 이론적으로 맞는 예기인데요... 헌데 input과 output의 dimension이 틀리더라도 사용되는 곳이 있더군요... 어떻게 생각하시나요?

    • @maangeek
      @maangeek 5 лет назад

      아 네 그렇군요! 어떤 연구에서 사용되나요? 중간에 feature extraction 부분에서 dimension이 유지되는 부분에서만 flow가 사용되고 다른 부분에서는 invertible하지 않은 neural network들을 연결하는 구조인가요?

    • @jaeyoonkim9255
      @jaeyoonkim9255 5 лет назад

      @@maangeek 혹시 가능하시다면 제가 논문을 알려드릴테니 한번 봐주시겟어요?

    • @maangeek
      @maangeek 5 лет назад

      @@jaeyoonkim9255 음.. 가능할지는 모르겠지만 어떤 논문인가요?

    • @jaeyoonkim9255
      @jaeyoonkim9255 5 лет назад

      이 논문의 마지막 페이지인 11페이지를 보시면 Table 2에 나와있는 action dimensions, observation embedding dimension 을 보시면 observation embedding dimension이 action dimensions의 두배입니다. Pdf에서 dimension 으로 찾아보시면 11 page에 저자의 설명이 되어있습니다. 계층적으로 쌓으면 마지막 layer에서는 dimension이 안맞는데... 제가 Facebook으로 친구요청헸습니다. 받아주세요^* Facebook에서 예기했으면 편할것 같아서요. arxiv.org/abs/1804.02808

    • @maangeek
      @maangeek 5 лет назад

      @@jaeyoonkim9255 이 논문이 어떤 논문이죠..?

  • @munkim1963
    @munkim1963 5 лет назад

    Flow-based generative model에서는 z dimension이 input dimension하고 같은건가요? Invertible function들로만 이루워졌다면 down/up sampling을 못할거 같은데...

    • @maangeek
      @maangeek 5 лет назад

      맞습니다! z dimension이 input dimension과 같습니다! 같은 dimension에서만 이루어지는 일대일 함수들만 사용한다는 한계가 있어 encoder - decoder architecture에서의 응용은 아직 어렵습니다 ㅠㅠ

    • @munkim1963
      @munkim1963 5 лет назад

      @@maangeek ​ Original Normalizing Flow페이퍼 [D. Rezende 2015] 보면 Encoder --> NF --> Decoder 이런식인것 같은데, 여기서 소개해주신 페이퍼에서는 image가 바로 flow에 들어가는것 같네요. 그렇게 되면 p(x)를 trivial deterministic invertible transformation 배우는것과 같지 않나요? 예를들어 y = 2x --> y = 1/2 x.

    • @munkim1963
      @munkim1963 5 лет назад

      아하. [D. Rezende 2015] 에서의 NF는 Gaussian --> Multimodal로 변환해주는거고 여기서 소개해주시는 NF는 Multimodal --> Gaussian으로 만들어주려는것 같습니다.

    • @maangeek
      @maangeek 5 лет назад

      @@munkim1963 답변이 늦었네요..ㅠㅠ 네 말씀해주신 부분이 맞는 것 같습니다. 제가 소개해드린 모델들은 multimodal distribution을 gaussian distribution으로 만들고 역함수 과정을 통해 gaussian 분포의 random한 noise에서 다시 multimodal distribution을 만들려는 것입니다.

  • @Spinach000
    @Spinach000 5 лет назад

    아릉하세연

    • @maangeek
      @maangeek 5 лет назад

      아릉하세요~~ㅎㅎㅎ