딥러닝논문읽기모임
딥러닝논문읽기모임
  • Видео 344
  • Просмотров 398 352
💬 AI의 생각을 투명하게,대화형 AI 대시보드 Designing a Dashboard for Transparency and Control of Conversational AI
주목해야 할 방법론
내부 사용자 모델 추출
LLaMA2-Chat 모델의 활성화 값에서 **선형 프로브(linear probes)**를 사용하여 사용자 특성(나이, 성별 등)을 추출했습니다. 이를 통해 AI의 내부 사용자 모델을 시각화하고 정확도를 평가했습니다.
제어 프로브(Control Probes)
사용자가 특정 특성을 변경하거나 고정할 수 있는 제어 프로브를 설계했습니다. 예를 들어, 사용자가 "저소득층" 특성을 선택하면 AI의 응답이 해당 특성을 반영하도록 수정됩니다.
사용자 인터페이스 설계
사용자가 간단하게 대시보드를 통해 AI의 모델을 수정하고, 결과를 확인할 수 있도록 직관적인 UI를 설계했습니다.
실험 결과
사용자 모델 정확도
사용자 모델의 정확도는 대화가 진행될수록 증가했으며, 6턴 이후 평균 78%의 정확도를 달성했습니다. 그러나 성별과 같은 특성에서 일부 편향적인 결과가 나타나기도 했습니다.
편향 탐지 및 제어
대시보드를 통해 사용자는 AI의 응답에서 나타나는 미묘한 편향을 탐지하고 이를 수정할 수 있었습니다. 예를 들어, 한 사용자는 "사회경제적 상태"를 저소득층으로 설정했을 때, 여행 계획이 짧아지는 편향된 응답을 확인했습니다.
사용자 피드백
참가자들은 대시보드를 통해 AI가 자신을 모델링하는 방식을 이해할 수 있었고, 이를 통해 AI에 대한 신뢰를 높이거나 낮추는 데 영향을 받았습니다. 일부는 AI가 잘못된 추론을 할 때 이를 ...
Просмотров: 95

Видео

🔎 강화 학습을 위한 혁신적 기법! Gradient Boosting으로 성능 향상시키는 법 Gradient Boosting Reinforcement Learning
Просмотров 3897 часов назад
오늘 소개해드릴 논문은"Gradient Boosting Reinforcement Learning (GBRL)"입니다. 이 논문은 NVIDIA 연구팀이 제안한 새로운 접근 방식으로, Gradient Boosting Trees (GBT) 를 강화 학습 (RL) 에 적용한 GBRL 프레임워크를 소개합니다. GBT는 구조적 데이터나 범주형 특성을 자연스럽게 다룰 수 있는 특성으로 인해, RL 환경에서도 유망한 성과를 보입니다.
🚀 Q-Learning, 이제는 더 정확하게! Double Gumbel로 잡음을 해결하다! : Double Gumbel Q-Learning
Просмотров 26519 часов назад
논문의 주요 기여 Deep Q-Learning에서의 잡음 모델링 기존 Q-Learning의 손실 함수는 동질적인(homoscedastic) 잡음을 가정하지만, DoubleGum은 이질적인(heteroscedastic) Gumbel 잡음이 더 적합하다고 주장하며, 이를 기반으로 새로운 손실 함수를 도출합니다. 연속 및 이산 제어 환경에서의 적용 DoubleGum은 연속 제어와 이산 제어 환경 모두에서 적용 가능하며, 각각에 맞는 최적화 방식과 손실 함수를 제안합니다. 낙관적/비관적 학습 조절 손실 함수에 비관적 계수(pessimism factor) 를 추가해, 학습 과정에서의 과대평가(overestimation)를 효율적으로 제어합니다. 이 계수는 환경에 따라 조정 가능하며, 학습 샘플 효율성을 크게 향...
🔬의료 AI의 미래! 범용이상탐지 모델 Adapting Visual Language Models for Generalizable Anomaly Detection in Medical
Просмотров 68214 дней назад
논문의 주요 기여 다단계 특성 적응 프레임워크(Multi-Level Feature Adaptation Framework) 기존 CLIP 모델에 다중 잔차 어댑터(Residual Adapters) 를 통합하여, 의료 이미지를 분석하기에 적합한 특성을 단계적으로 향상시킵니다. 픽셀 단위의 시각-언어 특성 정렬 손실을 통해 자연 이미지의 객체 인식에서 의료 이미지의 이상 탐지로 모델의 초점을 재조정합니다. 범용 이상 탐지 모델 개발 새로운 모달리티와 해부학적 구조에서 발생하는 데이터도 일반화할 수 있는 이상 탐지 모델을 설계합니다. 이를 통해, 의료 데이터의 제한된 샘플에서도 강력한 성능을 발휘합니다. 제로샷 및 퓨샷 설정에서의 성능 향상 제안된 방법은 다양한 의료 이미지 데이터셋에서 기존 최첨단 모델들보다...
"💡 LoRA를 넘어선 새로운 패러다임! MoRA가 메모리 문제를 해결하는 방법"
Просмотров 62721 день назад
오늘 소개해드릴 논문은 "MoRA: High-Rank Updating for Parameter-Efficient Fine-Tuning"입니다. 이 논문은 Beihang University와 Microsoft 연구팀이 기존 LoRA (Low-Rank Adaptation) 방식의 한계를 극복하기 위해 제안한 새로운 파라미터 효율적 미세조정 방법인 MoRA에 대해 다루고 있습니다. MoRA는 메모리 집중 작업에서 더 높은 성능을 발휘하도록 설계된 고순위 업데이트 방식을 도입하여, 적은 파라미터로도 LLM을 효과적으로 미세조정할 수 있습니다. 논문의 주요 핵심은 다음과 같습니다. 1. 고순위(high-rank) 업데이트를 통한 파라미터 효율적 미세조정 MoRA는 기존 LoRA와 달리 고순위 업데이트를 가능하게...
💡 NP-hard 문제를 정복하는 AI? GFlowNet으로 다중 해답 찾기! Let the Flows Tell 논문 리뷰
Просмотров 500Месяц назад
오늘 소개해드릴 논문은 "Let the Flows Tell: Solving Graph Combinatorial Optimization Problems with GFlowNets”입니다. 이 논문은 Mila와 Google DeepMind 연구팀이 복잡한 조합 최적화(Combinatorial Optimization, CO) 문제를 해결하기 위해 GFlowNet을 적용한 연구로, 특히 NP-hard 문제에서 다양한 고품질의 해를 생성할 수 있는 새로운 접근 방식을 제안합니다. 논문의 주요 기여 다중 해 생성 능력 - CO 문제에서 기존 학습 기반 방법들은 단일 해를 찾는 데 중점을 두었지만, GFlowNet은 다양한 고품질 해를 효율적으로 샘플링하여 제공할 수 있습니다. 이를 통해 더 다양한 해결책을 제시하...
📈 3D 인식의 한계를 넘다! DSVT가 실시간 속도를 달성한 방법, Dynamic Sparse Voxel Transformer with Rotated Sets
Просмотров 343Месяц назад
오늘 소개해드릴 논문은 "Dynamic Sparse Voxel Transformer with Rotated Sets" (DSVT)입니다. 이 논문은 Peking University와 Max Planck Institute for Informatics의 연구팀이 제안한 새로운 방식으로, 3D 인식 문제에서 효율적인 트랜스포머 백본을 구축하는 방법을 탐구한 내용입니다. 특히 3D 포인트 클라우드와 같은 희소 데이터(sparse data)를 다루는 데 있어 성능을 최적화할 수 있는 모델을 제안합니다. 논문의 주요 기여 Dynamic Sparse Window Attention * DSVT는 희소한 3D 포인트 클라우드를 효율적으로 처리하기 위해 윈도우 기반 어텐션 메커니즘을 제안합니다. 이는 각 윈도우의 지역적...
처음 본 차량도 스스로 판단해 주행한다?🚗 자율주행의 새로운 혁신! - Open world Semantic Segmentation Including Class Similarity
Просмотров 609Месяц назад
안녕하세요 딥러닝 논문읽기 모임입니다! 오늘 업로드된 논문 리뷰 영상은 "Open-World Semantic Segmentation Including Class Similarity"입니다. 이 논문은 University of Bonn의 연구팀이 제안한 새로운 접근 방식으로, 오픈 월드(Open-World) 환경에서 작동하는 시맨틱 세그멘테이션 기법을 소개합니다. 특히 이전에 보지 못한 객체(미지의 클래스)를 탐지하고, 이를 기존의 클래스와 비교할 수 있는 유사도 측정을 제안한 점이 핵심입니다. 논문의 주요 특징으로는 아래와 같습니다! 1. 오픈 월드 시맨틱 세그멘테이션(Open-World Semantic Segmentation) 기존의 폐쇄형 세그멘테이션 모델은 훈련된 클래스만을 인식하지만, 이 논문에...
Chain of Thought Reasoning Without Prompting
Просмотров 431Месяц назад
안녕하세요 딥러닝 논문읽기 모임 입니다! 오늘 소개해드릴 논문은 "Chain-of-Thought Reasoning without Prompting"입니다. 이 논문은 Google DeepMind의 연구팀이 대규모 언어 모델(LLM)의 고유한 추론 능력을 탐구한 내용으로, 기존의 프롬프트 없이도 LLM이 체인-오브-쏘트(Chain-of-Thought, CoT) 방식을 통해 효과적으로 추론할 수 있는지에 대한 새로운 접근 방식을 제시합니다. 1논문의 주요 기여 1.1 프롬프팅 없이 CoT 추론을 가능하게 하는 방법 기존 연구들은 주로 프롬프트를 사용해 LLM의 추론 능력을 이끌어내는 데 집중해 왔습니다. 하지만 이 논문에서는 디코딩 과정 자체를 수정하여 CoT 패스를 도출할 수 있는 방법을 제시합니다. 이...
RAPTOR : Recursive Abstractive Processing For Tree Organized Retrieval
Просмотров 2132 месяца назад
안녕하세요 딥러닝 논문읽기 모임입니다! 오늘 소개해드릴 논문은 "RAPTOR: Recursive Abstractive Processing for Tree-Organized Retrieval" 입니다. Stanford University의 연구팀이 제안한 이 논문은, 대규모 언어 모델(LLM)을 활용한 정보 검색의 새로운 방법론을 제시하며, 특히 복잡한 문서나 긴 텍스트에서 효율적으로 정보를 검색하는 방식을 탐구한 내용입니다. 논문의 주요 기여 1. 논문 만의 주요 트리 구조 기반 검색 방식을 제안 합니다. * 기존의 정보 검색 모델들은 짧은 텍스트 청크(chunks)만을 검색해 문서 전체의 맥락을 충분히 반영하지 못한다는 한계가 있었습니다. * RAPTOR는 텍스트를 청크 단위로 나누고 이를 클러스터링...
Interpreting CLIP’s Image Representation via Text Based Decomposition
Просмотров 4592 месяца назад
오늘 소개해드릴 논문은 "Interpreting CLIP's Image Representation via Text-Based Decomposition"입니다. 이 연구는 UC Berkeley 연구팀이 CLIP 모델의 이미지 인코더를 분석하여, 이미지 표현이 어떻게 구성 요소들에 의해 결정되는지를 탐구한 내용입니다. CLIP의 이미지 표현을 개별 레이어와 어텐션 헤드로 분해하여, 각 구성 요소가 최종 이미지 표현에 미치는 영향을 분석했습니다. 특히, 마지막 몇 개의 어텐션 레이어가 이미지 표현에 가장 큰 영향을 미치는 것을 논문 저자들은 발견 했습니다. 연구팀은 'TEXTSPAN' 이라는 알고리즘을 개발하여, 모델의 각 어텐션 헤드의 출력이 특정 텍스트 방향에 맞춰지도록 해석했습니다. 이를 통해 특정 속...
Genome wide prediction of disease variant effects with a deep protein lang
Просмотров 2362 месяца назад
안녕하세요 딥러닝 논문읽기 모임입니다! 오늘 소개해드릴 논문은 "Genome-wide prediction of disease variant effects with a deep protein language model"입니다. 유전적 변이의 영향 예측(VEP, Variant Effect Prediction)은 인간 유전학에서 중요한 문제로, 특히 질병과 관련된 변이를 식별하는 데 중점을 둡니다. 이 논문에서는 UCSF 연구팀이 제안한 대규모 단백질 언어 모델인 ESM1b를 이용해 인간 게놈 전역에서 약 4억 5천만 가지의 missense 변이에 대한 예측을 수행한 연구입니다. 논문의 주요 내용은 다음과 같습니다: ESM1b는 6억 5천만 개의 파라미터를 가진 단백질 언어 모델로, 약 2억 5천만 개의 단...
Hallucination of Multimodal Large Language models
Просмотров 6312 месяца назад
안녕하세요 딥러닝 논문 읽기 모임 입니다! 오늘 소개해드릴 논문은 "Hallucination of Multimodal Large Language Models: A Survey"입니다. Multimodal Large Language Models(MLLMs)은 자연어 처리뿐만 아니라 이미지와 텍스트를 결합한 다양한 멀티모달 작업에서 뛰어난 성능을 보여주고 있습니다. 그러나 MLLMs는 일반적 LLMs와 마찬가지로, 정확하지 않은 출력을 생성하는 'hallucination(환각)' 문제를 겪습니다. MLLMs 자체에 대한 신뢰성을 저하시킬 수 있으며, 이를 해결하기 위한 다양한 연구가 진행 중입니다. 논문에서 다루는 주요 내용은 다음과 같습니다: 1. MLLMs의 Hallucination 문제의 근본 원인 ...
GQA : Training Generalized Multi Query Transformer Models from Multi Head Checkpoint
Просмотров 4173 месяца назад
오늘 업로드된 영상 논문은 "GQA: Multi-Head 체크포인트에서 일반화된 Multi-Query Transformer 모델 학습"입니다. Transformer 모델의 디코더 추론 속도를 개선하기 위해 Multi-Query Attention(MQA)은 하나의 key-value 헤드만 사용하는 방식으로 메모리 대역폭을 크게 줄여줍니다. 하지만 MQA는 성능 저하 문제를 동반하며, 이를 해결하기 위해 별도의 모델을 학습시키는 것도 부담이 될 수 있습니다. 이에 대해 Google Research의 연구팀은 두 가지 주요 기여를 제안합니다: 기존의 Multi-Head Language Model 체크포인트를 MQA로 변환하는 간단한 업트레이닝 방법을 제안하여, 원래 학습에 사용된 계산 자원의 5%만으로 MQ...
Graph of Thought : Solving Elaborate Problems with Large Language Models
Просмотров 4983 месяца назад
오늘 업로드된 영상 논문은 "Graph of Thoughts: 대규모 언어 모델을 활용한 복잡한 문제 해결"입니다. 최근 대규모 언어 모델(LLM)을 활용한 연구가 활발히 진행되면서, 복잡한 문제를 효과적으로 해결하기 위한 다양한 프롬프팅 방법론들이 제안되고 있습니다. 이번 논문에서는 ETH Zurich 연구팀이 제안한 "Graph of Thoughts (GoT)" 프레임워크를 소개합니다. GoT의 핵심 아이디어는 다음과 같습니다: 기존의 Chain-of-Thought (CoT) 또는 Tree of Thoughts (ToT)와 달리, GoT는 LLM의 사고 과정을 임의의 그래프 구조로 모델링합니다. 각 "생각"을 그래프의 노드로, 생각 간의 의존 관계를 그래프의 엣지로 표현하여 보다 복잡한 사고 과정을...
ControlNet : Adding Conditional Control to Text to Image Diffusion Model
Просмотров 4323 месяца назад
ControlNet : Adding Conditional Control to Text to Image Diffusion Model
Generative Representational Instruction Tuning
Просмотров 3753 месяца назад
Generative Representational Instruction Tuning
DIFUSCO: Graph based Diffusion Solvers for Combinatorial Optimization
Просмотров 4463 месяца назад
DIFUSCO: Graph based Diffusion Solvers for Combinatorial Optimization
SmoothQuant : Accurate and Efficient Post Training Quantization for Large Langu
Просмотров 4444 месяца назад
SmoothQuant : Accurate and Efficient Post Training Quantization for Large Langu
Masked Auto encoders Are Scalable Vision Learners
Просмотров 5944 месяца назад
Masked Auto encoders Are Scalable Vision Learners
RT-DETR : DETRs Beat YOLOs On Real time Object Detection
Просмотров 1,1 тыс.4 месяца назад
RT-DETR : DETRs Beat YOLOs On Real time Object Detection
Why Can GPT Learn In Context Language Models Secretly Perform Gradient Desce
Просмотров 5535 месяцев назад
Why Can GPT Learn In Context Language Models Secretly Perform Gradient Desce
AlpacaFarm : A Simulation Framework for Methods that Learn from Human Feedback
Просмотров 3895 месяцев назад
AlpacaFarm : A Simulation Framework for Methods that Learn from Human Feedback
Confidence Estimation Using Unlabeled Data
Просмотров 5635 месяцев назад
Confidence Estimation Using Unlabeled Data
Depth Anything Unleashing the Power of Large Scale Unlabeled Data
Просмотров 7365 месяцев назад
Depth Anything Unleashing the Power of Large Scale Unlabeled Data
LLM-grounded Diffusion
Просмотров 4776 месяцев назад
LLM-grounded Diffusion
Ignore This Title and HackaPrompt
Просмотров 4206 месяцев назад
Ignore This Title and HackaPrompt
Large Language Models Understand and Can be Enhanced by Emotional Stimuli
Просмотров 4306 месяцев назад
Large Language Models Understand and Can be Enhanced by Emotional Stimuli
Direct Preference Optimization Your Language Model is Secretly a Reward Model
Просмотров 6406 месяцев назад
Direct Preference Optimization Your Language Model is Secretly a Reward Model
Diffusion-based Semantic-Discrepant Outlier Generation for Out-of-Distribution Detection
Просмотров 4427 месяцев назад
Diffusion-based Semantic-Discrepant Outlier Generation for Out-of-Distribution Detection

Комментарии

  • @박소영-c6w
    @박소영-c6w День назад

    15:40

  • @quangkhai.saigon6085
    @quangkhai.saigon6085 14 дней назад

    Thank you for the video. Could you please send me this PowerPoint presentation? I need it for my class at school. Thank you!

  • @kimchi_taco
    @kimchi_taco Месяц назад

    잘들었습니다. RL보다 더 좋을것 같지 않은 인상입니다. 제대로못이해해서 일수도있지만요

  • @tl2uz
    @tl2uz Месяц назад

    고마워요 뿌잉

  • @user-ke2ji8la9jg5
    @user-ke2ji8la9jg5 Месяц назад

    논문 리뷰 되게 잘하시네요 한 수 배우고 갑니다 😊

  • @levu6626
    @levu6626 Месяц назад

    May I ask for your slide ,please

  • @나나미-h3z
    @나나미-h3z 2 месяца назад

    좋은 정보 감사합니다.

  • @FinnEdgar
    @FinnEdgar 3 месяца назад

    8852 Margaretta Passage

  • @ryanku9305
    @ryanku9305 3 месяца назад

    잘 들었습니다

  • @leepro
    @leepro 3 месяца назад

    전혀 이해를 못하고 설명하는듯 😂

  • @딥러닝논문읽기모임
    @딥러닝논문읽기모임 3 месяца назад

    딥러닝 논문읽기 모임은 청강방 오픈채팅 방을 운영하고 있습니다. 최근 악성 홍보 봇 계정이 늘어나 방을 비밀번호를 걸어두게 되었습니다 딥러닝 청강방도 많은 관심 부탁드립니다! 청강방 링크 : open.kakao.com/o/gp6GHMMc 청강방 비밀번호 : 0501 ruclips.net/video/uLKqMbOA_vU/видео.html

  • @nos4995
    @nos4995 3 месяца назад

    where i can test it please

  • @kangminchoi1882
    @kangminchoi1882 4 месяца назад

    감사합니다 잘 봤습니다! 청강도 해보고 싶은데 혹시 청강 단톡방 입장 코드는 어디서 볼 수 있을까요?

  • @Aidin-f5v
    @Aidin-f5v 4 месяца назад

    Is it possible to upload the slides and also share the English language?

  • @강동원-f5p
    @강동원-f5p 4 месяца назад

    참조하겠습니다. 감사합니다😊

  • @코이힝
    @코이힝 4 месяца назад

    좋네여!

  • @김기재-i5w
    @김기재-i5w 4 месяца назад

    좋은 리뷰 감사합니다

  • @taptap4734
    @taptap4734 4 месяца назад

    설명 너무 깔끔해서 잘 봤습니다. structure from motion 아닌가요? structure promotion으로 나와서 ... 자막이 잘못돼서 확인하시면 좋을 거 같습니다

  • @qhrms2333
    @qhrms2333 5 месяцев назад

    잘 듣고있는데, '갖다가' 라는 단어를 자주 쓰셔가지고 그게 신경쓰이는 순간 집중력이 흐트러지네요 ㅋㅋ 잘 집중해보겠습니다 영상 감사합니다

  • @안녕-x8l6g
    @안녕-x8l6g 5 месяцев назад

    좋은 자료 감사합니다^^ 저는 의료AI SW를 개발하고 있는 의사입니다. 혹시 가우시안 스플래팅으로 안면 3D RC에 조예가 깊으신 개발자에 대해 추천좀 해주실수 있는지요?^^

  • @heejuneAhn
    @heejuneAhn 5 месяцев назад

    오래된 자료라.

  • @UMTI14
    @UMTI14 5 месяцев назад

    좋은 발표 감사합니다.

  • @zinod7988
    @zinod7988 6 месяцев назад

    좋은 발표 감사합니다

  • @JamJamit
    @JamJamit 6 месяцев назад

    감사합니다~

  • @dattran3553
    @dattran3553 7 месяцев назад

    can u give me this powerpoint, because i need it to refer when finishing my course

    • @딥러닝논문읽기모임
      @딥러닝논문읽기모임 7 месяцев назад

      Hello, thank you for your interest. If you leave your email address, we will send you the file by email. If you use it externally, we would appreciate it if you could leave the source.

    • @dattran3553
      @dattran3553 6 месяцев назад

      @@딥러닝논문읽기모임 thank u so much and u can show me how to run the project

  • @brain.trinity
    @brain.trinity 7 месяцев назад

    발표자분 목소리가 너무 이쁘세요!

  • @EdgarKim-q5h
    @EdgarKim-q5h 7 месяцев назад

    Aaai가 아니라 iclr 아닌가요?

    • @Raziel_Sf
      @Raziel_Sf 7 месяцев назад

      네 0:11 맞습니다 😅

  • @princekwesioseiaboagye
    @princekwesioseiaboagye 8 месяцев назад

    Can you have your videos made in English? Thank you

  • @초코동동
    @초코동동 9 месяцев назад

    영상 감사합니다. Drag GAN 에서 motion supervision 과 point tracking 이 구분되는 이유를 잘 몰랐는데 영상 보면서 좀 더 이해하게 되었습니다. 마지막에 Real Image Editing 을 위해서 off-the-shelf inversion 방식을 사용하는 것은 한계점이라고 할 수 있겠네요.

  • @박슛티
    @박슛티 9 месяцев назад

    굉장히 알기쉽게 잘 요약해주셨네요. 훌륭한 발표 감사합니다.

  • @안민기-z8g
    @안민기-z8g 9 месяцев назад

    잘 보고 있습니다

  • @chaerinSim
    @chaerinSim 9 месяцев назад

    모임의 영상이 딥러닝 논문 공부에 큰 힘이 됩니다. 늘 감사합니다 :)

  • @kimchi_taco
    @kimchi_taco 9 месяцев назад

    설명왕이십니다

  • @beeny-w6u
    @beeny-w6u 10 месяцев назад

    발표 잘 들었습니다. 궁금한게 하나 있어서 질문 남겨요~ lora_a 와 lora_b 를 사용해서 dxd matrix 를 w0 에 더해준다는건 이해했는데 w0 에 dxd matrix 를 더해줄 때 w0 의 모든 dxd matrix 에 더해주는건가요? 예를들어 decoder layer_1 에 들어가는 matrix 의 차원이 dxd 일테니 decoder layer_1 에 들어갈 때 더해준다. decoder layer_1 에서 연산을 통해 나온 matrix 의 차원도 dxd 일테이 거기에도 더해준다. 이런식으로 w0 의 어디에 lora_a 와 lora_b 로 만든 dxd matrix 를 더해주는건지 궁금합니다.!

  • @dalaymann
    @dalaymann 10 месяцев назад

    아이코 이놈의 분야는 왜 이리 기법이 많노 🫠

  • @광광이-i9t
    @광광이-i9t 10 месяцев назад

    논문 요약 감사합니다! 잘 듣고 갑니다 ~~~

  • @hashaamshahid3100
    @hashaamshahid3100 11 месяцев назад

    amazing explaination

  • @Noah-jz3gt
    @Noah-jz3gt Год назад

    자막이... 왜 저렇게 아예 화면에 박아져 있는 걸까요..? 슬라이드가 가립니다 ㅠ 그래도 좋은 발표 감사드립니다 general 한 맥락을 잡는 데 도움이 많이 되었습니다!

  • @user-qp9vn1cl8m
    @user-qp9vn1cl8m Год назад

    발표 감사합니다.

  • @ylab3891
    @ylab3891 Год назад

    설명 진짜 잘하시네요! 감사합니다 :D

  • @Level6
    @Level6 Год назад

    수고하셨습니다!

  • @maktube_220
    @maktube_220 Год назад

    너무 잘 봤어요. 감사합니다.

  • @SamiSuperStars
    @SamiSuperStars Год назад

    발표 잘 보았습니다. 많은 도움되었습니다. 감사합니다

  • @MalangCow_10
    @MalangCow_10 Год назад

    난 상경계인데...왜 누추한 제 알고리즘에..

  • @donghokang3634
    @donghokang3634 Год назад

    잘 봤어요 감사합니다

  • @sion5224
    @sion5224 Год назад

    30:20 저게 왜 아핀변환인가요? 이동이 없었으니 선형변환 아닌가요?

    • @jinmang2
      @jinmang2 11 месяцев назад

      말씀대로 Linear Transformation이 맞습니다! 자료를 만들다 착오가 있었네요 😥 37:11 에서는 linear transform이라고 잘 설명해놓고...