0:24 - 2D 이미지를 세로로 쭉 쌓아 1D로 만들어서 픽셀 값들을 넣자는 소리 1:45 - 원래 neural net에선 첫 두 줄과 다음 두 줄에의 weight가 달랐지만 CNN에선 첫 두 줄에서 사용한 w1, w2 (바이어스 포함하면 b1)을 그대로 또 씁니다! 1:54 - 마찬가지로, 마지막 두 줄도 같은 값 (w1,w2)을 쓰겠죠? 그리고 w1, w2, b1 을 neural net 학습하는 방식과 동일하게 구합니다. (CNN은 필터를 학습한다 = 어떤 특징을 뽑을지를 학습한다!) -------------------- 혹시 이 강의가 조금 어렵게 느껴지시나요? 그동안 갈고닦은 강의력으로 4년 만에 새로운 딥러닝 강의를 올리게 되었습니다! 지금 보고 계신 영상보다 훨씬 더 쉽고, 더 꼼꼼하게 전달하는 강의니까 아래 재생목록 저장해두고 딥러닝 공부 시작해 보세요! < Easy! 딥러닝 재생목록 > ruclips.net/p/PL_iJu012NOxdw1jc3KEo8Mq5oD5SXKhLu -------------------- 📢 혁펜하임의 딥러닝 마스터 커리큘럼! LEVEL 1 - Easy! 딥러닝 hyukppen.modoo.at/?link=2n1a6p7t LEVEL 1 - 인스톨! 파이토치 hyukppen.modoo.at/?link=131k3k7g LEVEL 2 - Legend 13 hyukppen.modoo.at/?link=5db82s6p LEVEL 2 - TTT: To The Transformer hyukppen.modoo.at/?link=21c4dj8y LEVEL 3 - ATT: After The Transformer hyukppen.modoo.at/?link=2mcbufeg
결국 문제점은 "Over Fitting" 을피하기위해서 데이터의 압축 혹은 체계적이고 적당한 Non-Fully Connect 방식을 선정할 필요가 있었고, 그 와중에서 그나마 인간에게 인지적으로 이해하기 쉬운 2-D Convolution 방식을 채택한 것 뿐이라고 이해가 되네요. 결국 convoltion이며 Pooling도 결국은 Input Data를 깡으로 Flattening하고 적절하게 Non-Fully Connect하게 잘 연결하면 구현할 수 있을것 같고... 실제 알고리즘도 그런식으로 돌아가는 거려나요?
넵 맞아요. 하지만 random하게 connection을 선정한다면 이미지 다루는 데는 어려움이 생길겁니다. 이미지는 정보라는게 엄청나게 뭉태기쳐져있는 정보잖아요. 사람 얼굴하나가 이미지 한부분을 차지하고, 또 건물이 하나 차지하고.. "건물"이라는 것을 나타내는 픽셀들이 조각조각 여기저히 흝뿌려져 있는 것이 아니기 때문에 이런 local하게 묶인 정보들을 잘 활용하기에 convolution이 적절했던 것이죠
강의 너무 좋습니다. 제작해 주셔서 감사합니다. 저는 전산과학쪽에 관심이 있는데, principle component analysis (singular value decomposition) 이나 Autoencoder 쪽도 수학적 지식까지 포함하여 제작해주시면 좋을 것 같습니다! 특히, 최근 기본 과학 지식과 머신러닝의 조합을 통해 기존에 못 풀었던 문제를 푸는게 트랜드 인 것 같은데 (Physcis-informed neural networks, PINNs / 특히, brown university 중심의 machine learning + x seminar) 이거 관련해서도 수학적으로 설명해주시면 좋겠습니다. (제가 수학이 약해서...ㅠㅠ)
혁펜하임님의 명강의로 인해서 읽어도 모를 딥러닝에 대해서 쉽게 이해할 수 있었습니다. 궁금한 점 여쭤봅니다. 1. 필터수의 경우는 임의대로 결정하여 적용하는 건가요? 2. Deep learning에 대한 사전지식이 없어서 지금 딥러닝 강의를 듣고 혁펜하임님의 'AI DEEP DIVE' 들어도 되는건가요? 강의를 듣다가 헤맬까 싶어 여쭤봅니다.
1. 넵 그렇습니다! 2. 말씀해주신 강의가 딥러닝 기초 강의이기 때문에 지금 보고 계신 유튜브 강의 내용을 포함, 더 커리큘럼을 탄탄하게 해서 만든 강의입니다! 그래서 유튜브 강의를 꼭 듣지 않고 AI DEEP DIVE를 수강하셔도 충분합니다 ㅎㅎ AI DEEP DIVE 강의와 맞지 않을 분들은 - 수식 기호만 봐도 진절머리 나는 분 - 암기식으로 공부하는 것을 좋아하시는 분 - AI에 대한 겉핥기 정도만 원하시는 분들은 좀 맞지 않을 것 같습니다. 하지만 질문해주신 내용만 보더라도 이미 유튜브 강의도 잘 따라오고 계신 것 같아서 질문자 분은 충분히 잘 따라가실 것이라고 생각합니다!
좋은 강의 감사합니다. 올려주시는 강의를 보면서 여태 헷갈렸던 부분들을 많이 해결하는 것 같습니다. 고맙습니다. 이번 강의 내용과 관련한 두 가지 질문사항이 있습니다. 1. 합성곱을 할 때 사용되는 filter의 개수를 보통 32개 또는 64개 이렇게 설정을 하던데, filter의 개수를 정하는 방법은 무엇입니까? 2. 합성곱을 거친 결과를 relu activation function에 통과시키던데, 그 이유는 무엇입니까? 자세한 답변 부탁드립니다. 감사합니다.
안녕하세요 ㅎㅎ 질문 감사합니다. 1. 은 잘 모르겠어요. 많을수록 overfit 될것이고 적을수록 학습이 잘 안될 것 같습니다. 딥러닝 네트워크 구조는 인간에겐 블랙박스입니다. 약간의 논리를 가지고 제안할 뿐 필터의 개수가 31도 아니고 33도 아닌 왜 32이냐에 답을 할 수는 없습니다. 2. 제 생각엔 ReLu를 쓰게된 이유 ruclips.net/video/5VyE34vNLJA/видео.html 와 같을 것 같습니다. 깊어지면 gradient가 0에 가까워져서 학습이 안되서일 것 같습니다.
@@hyukppen 빠른 답변 감사합니다. 1번 질문에 대한 답변은 이해했습니다. 그리고 애초에 2번 질문을 제가 잘못 적은 것 같습니다. 제가 궁금했던 것은 'ConvNET 부분에서 activation함수를 사용하는 이유'였습니다. 일반적인 인공신경망 내에서 activation function을 사용하는 이유는 이해하고 있습니다. 그런데 ConvNET부분에서 activation함수를 굳이 사용해야하는 이유를 잘 모르겠습니다.
@@beenzino1152 CNN도 neural network입니다. convolution이라고 거창하게 표현했지만 그냥 뉴럴넷 다발을 local한 영역만 연결하고 나머지는 끊어놓은 형태죠. 따라서 같은 문제가 생깁니다. filter의 값을 gradient descent로 알아내야하는데 gradient값이 앞쪽으로 갈수록 0이 되버리니 vanishing gradient현상이 일어나죠.
안녕하세요 비전공자이지만 인공지능에 관심이 있어서 이것저것 공부하고 있습니다. 질문이 있는데요, cnn에서의 역전파는 어떤 의미인가요? 필터의 값을 바꿔준다는 의미일까요? 보통 역전파는 가중치를 변경하는 걸로 알고 있는데, 컨볼루션과 풀링에서 역전파는 어떤 것을 의미하는지 궁금합니다. 검색해봤더니 너무 어려운 수학 공식만 많고 그 의미를 비전공자가 알기 쉽게 설명해주신 것은 찾지 못했습니다. 감사합니다.
아이고 이제 봤네요. 넵 말씀하신대로 CNN에서의 역전파는 필터 값을 구하기 위해 gradient를 구하는 과정으로 보시면 됩니다. "가중치"="CNN에서의 필터 값"입니다. 이 강의에서 설명한대로, CNN은 그저 FCN에서 connection을 잘 끊어낸 모델입니다. 따라서 가중치가 있고 역전파를 통해 그 가중치를 update해나가죠. 그 가중치를 CNN에서는 특별하게 "필터"라고 "사람이 이름 붙인 것" 뿐입니다. 머신한테는 그냥 가중치 값일 뿐이에요~ 풀링에서는 update될 것이 없죠. 풀링은 그저 골라내는 행위일 뿐이니까요~ 다만, CNN에서의 역전파는 수식이 좀더 복잡하게 나옵니다 가중치를 재사용하기 때문에.. (같은 가중치를 밀고 곱하고, 반복하기 때문에 그렇습니다. FCN은 output node를 만들 때마다 다른 가중치를 사용하죠~)
다항함수회귀를 코딩하다보니 과적합된 형태가 나왔는데 전에 영상이 생각나서 다시 왔습니다ㅎㅎ CNN이 과적합을 배경으로 만들어졌다고 하셨고 데이터에 특징을 잡아준다고 하셨는데, 과적합을 해소하기 위한 방법은 아니라고 봐야하나요? 구글링을 했을때 과적합의 해소방법으로 정규화가 많이 나오고 합성곱의 내용은 못봐서 질문해봅니당 그리고 2D데이터를 필터를 통해서 학습하게 되는데 결국 필터 처리 후에는 데이터를 일열로 나열해서 신경망에 투입하는건가요? 그럼 신경망이전에 특징을 잡는 전처리 과정이라 생각하는게 맞나요?
1. 저는 과적합을 해소하기 위해 기존의 DNN의 구조를 바꾼 것으로 CNN을 이해하고 있습니다. 합성곱이라는 것이 새롭게 도입된 것은 아니고, 기존의 NN에서 다음 layer로 넘어갈 때 하던 weighted sum을 convolution이라는 operation으로 표현된 것입니다. (기존의 DNN에서 connection을 이리저리 끊어놓은 것이죠) 2. 넵 정확합니다. 하지만 좀 재밌는 것은 그거는 인간의 생각일 뿐, 정말로 그런지는 알 수 없습니다. "이미지의 특징"이라는 것이 뭘까요? corner라던가 edge라던가 이런 것들은 인간의 인식 영역에 있는 것이기 때문에.. 사실 모든게 black box입니다. training을 위한 입력들을 가지고 있고 그것들을 network에 넣었을 때 원하는 출력이 나오도록 activation function을 design하고 network 구조를 design하고 그 다음에는 열심히 weight를 바꿔나가며 원하는 결과를 출력하도록 하는 커다란 network (black box)를 키워나가는 것이죠. 결국 network의 중간단계 어디 쯤에서 "이미지의 특징"이라는 것이 추출이 되었다. 이런 것들은 인간의 해석인 것입니다.
좋은강의 잘보고 있습니다. 감사합니다. 궁금한게 있는데 마지막 논문 예시 읽어주실 때 인풋 사이즈가 84*84*4 여서 84짜리 사진 네장을 넣은 것이다 였습니다. 만약 84짜리 칼라사진 네장을 넣을 거라면 84*84*3*4가 되는걸까요? 그런 경우엔 필터가 어떻게 생겨야 하는 지가 궁금합니다. 마찬가지로 사이즈 5짜리 필터를 쓴다면 뒤에 rgb와 사진 개수는 맞춰줘서 5*5*3*4가 되어야하는 걸까요?
0:24 - 2D 이미지를 세로로 쭉 쌓아 1D로 만들어서 픽셀 값들을 넣자는 소리
1:45 - 원래 neural net에선 첫 두 줄과 다음 두 줄에의 weight가 달랐지만 CNN에선 첫 두 줄에서 사용한 w1, w2 (바이어스 포함하면 b1)을 그대로 또 씁니다!
1:54 - 마찬가지로, 마지막 두 줄도 같은 값 (w1,w2)을 쓰겠죠?
그리고 w1, w2, b1 을 neural net 학습하는 방식과 동일하게 구합니다. (CNN은 필터를 학습한다 = 어떤 특징을 뽑을지를 학습한다!)
--------------------
혹시 이 강의가 조금 어렵게 느껴지시나요?
그동안 갈고닦은 강의력으로 4년 만에 새로운 딥러닝 강의를 올리게 되었습니다!
지금 보고 계신 영상보다 훨씬 더 쉽고, 더 꼼꼼하게 전달하는 강의니까 아래 재생목록 저장해두고 딥러닝 공부 시작해 보세요!
< Easy! 딥러닝 재생목록 >
ruclips.net/p/PL_iJu012NOxdw1jc3KEo8Mq5oD5SXKhLu
--------------------
📢 혁펜하임의 딥러닝 마스터 커리큘럼!
LEVEL 1 - Easy! 딥러닝
hyukppen.modoo.at/?link=2n1a6p7t
LEVEL 1 - 인스톨! 파이토치
hyukppen.modoo.at/?link=131k3k7g
LEVEL 2 - Legend 13
hyukppen.modoo.at/?link=5db82s6p
LEVEL 2 - TTT: To The Transformer
hyukppen.modoo.at/?link=21c4dj8y
LEVEL 3 - ATT: After The Transformer
hyukppen.modoo.at/?link=2mcbufeg
CNN이 필터를 학습시키는 모델이라는 것에 대한 개념은 알고 있었는데, 이걸 DNN으로도 설명할 수 있다는 관점이 엄청 참신하게 느껴지네요 ㅎㅎ;; 좋은 강의 정말 감사드립니다.
시험 8시간 전 최고의 선택
선생님, 정말 감사합니다!!!!!
감사합니다. 그 누구보다도 이해가 잘 되게 설명해주시는 것 같습니다.
GCN도 해주세요 ㅜㅜ 너무 어려워요 GCN
엇 그건 제가 아직 공부를 안해봐가지구 ㅠㅠㅠㅠ 죄송합니다 ㅠㅠ
결국 문제점은 "Over Fitting" 을피하기위해서 데이터의 압축 혹은 체계적이고 적당한 Non-Fully Connect 방식을 선정할 필요가 있었고, 그 와중에서 그나마 인간에게 인지적으로 이해하기 쉬운 2-D Convolution 방식을 채택한 것 뿐이라고 이해가 되네요.
결국 convoltion이며 Pooling도 결국은 Input Data를 깡으로 Flattening하고 적절하게 Non-Fully Connect하게 잘 연결하면 구현할 수 있을것 같고... 실제 알고리즘도 그런식으로 돌아가는 거려나요?
넵 맞아요. 하지만 random하게 connection을 선정한다면 이미지 다루는 데는 어려움이 생길겁니다.
이미지는 정보라는게 엄청나게 뭉태기쳐져있는 정보잖아요. 사람 얼굴하나가 이미지 한부분을 차지하고, 또 건물이 하나 차지하고.. "건물"이라는 것을 나타내는 픽셀들이 조각조각 여기저히 흝뿌려져 있는 것이 아니기 때문에 이런 local하게 묶인 정보들을 잘 활용하기에 convolution이 적절했던 것이죠
@@hyukppen convolution이 체계적 non fully connect를 가능케 했다는 거네요. 감사합니다!
@@pomsen 넵 마자요 ㅎㅎ 좀 체계적인 connection 중에 하나죠 그래서 다른 방식으로 connection하는 경우도 있습니다~
좋은 강의 감사합니다. 혹시 filter를 이제 자체적으로 기계가 학습한다고 했는데 그건 앞 강의에서 설명하신 가중치 학습 개념과 동일한가요?
넵 CNN에서는 필터를 가중치라고 말만 바꿨습니다.
1. 멀리있는 픽셀값과의 connection을 끊고
2. 가중치를 재사용해서 옆으로 밀고 곱하고 더한다.
3. 이런 필터를 여러 종류 가지고 있다.
이렇게가 FCN과의 차이가 되겠습니다
@@hyukppen cnn에서는 가중치를 필터라고 말만 바꿨다는 말씀이신거죠?
1,2,3에 대해서는 이해가 잘 되지 않내요.. 공부좀 더 해볼게욯ㅎ 매번 답변 달아주셔서 감사합니다
@@user-rw9hv5xf4u 멀리있는 픽셀과의 연결을 유지하면 배경에 점 하나만 찍어놔도 강아지라고 인식을 못하는 overfitting이 일어나겠죠? 관련해서는 7-1강에서 다뤘습니다
@@hyukppen 넵 다시한번 봐보겠습니다
@@user-rw9hv5xf4u 넵 해결되시면 댓글 달아주세요~
근데 그럼 CNN에서는 훈련이 어떻게 되는건가요?? 그냥 MLP처럼 어쨌든 가중치를 갱신 시켜주는건가요??
CNN과정에는 Pooling과정이나 Convolution 과정도 존재하는데 Back Propagation 과정은 어떻게 진행되는건가요,,,
넵 CNN도 결국 NN입니다. 구조가 조금 달라보일 뿐 weighted sum하고 activation function 통과하는 것은 여전하기 때문에 back propagation을 통해 update가 이루어집니다!
강의 너무 좋습니다. 제작해 주셔서 감사합니다.
저는 전산과학쪽에 관심이 있는데, principle component analysis (singular value decomposition) 이나 Autoencoder 쪽도 수학적 지식까지 포함하여 제작해주시면 좋을 것 같습니다!
특히, 최근 기본 과학 지식과 머신러닝의 조합을 통해 기존에 못 풀었던 문제를 푸는게 트랜드 인 것 같은데 (Physcis-informed neural networks, PINNs / 특히, brown university 중심의 machine learning + x seminar) 이거 관련해서도 수학적으로 설명해주시면 좋겠습니다. (제가 수학이 약해서...ㅠㅠ)
말씀 감사합니다 ㅎㅎ
나중에 선형대수 쪽의 기본적인 개념들을 다뤄볼까 합니다!
선생님은 어떤 연구를 하고 계신가요?
@@박재성-k7h 국내 기업에서 과학 기술 관련 신공정 개발 데이터 사이언티스트로 일하고 있습니다.
혁펜하임님의 명강의로 인해서 읽어도 모를 딥러닝에 대해서 쉽게 이해할 수 있었습니다.
궁금한 점 여쭤봅니다.
1. 필터수의 경우는 임의대로 결정하여 적용하는 건가요?
2. Deep learning에 대한 사전지식이 없어서 지금 딥러닝 강의를 듣고 혁펜하임님의 'AI DEEP DIVE' 들어도 되는건가요? 강의를 듣다가 헤맬까 싶어 여쭤봅니다.
1. 넵 그렇습니다!
2. 말씀해주신 강의가 딥러닝 기초 강의이기 때문에 지금 보고 계신 유튜브 강의 내용을 포함, 더 커리큘럼을 탄탄하게 해서 만든 강의입니다!
그래서 유튜브 강의를 꼭 듣지 않고 AI DEEP DIVE를 수강하셔도 충분합니다 ㅎㅎ
AI DEEP DIVE 강의와 맞지 않을 분들은
- 수식 기호만 봐도 진절머리 나는 분
- 암기식으로 공부하는 것을 좋아하시는 분
- AI에 대한 겉핥기 정도만 원하시는 분들은
좀 맞지 않을 것 같습니다.
하지만 질문해주신 내용만 보더라도 이미 유튜브 강의도 잘 따라오고 계신 것 같아서 질문자 분은 충분히 잘 따라가실 것이라고 생각합니다!
@@hyukppen 고맙습니다
앤드류 은 박사님보다 설명쉬워용ㅡㅜ
감사합니다ㅜㅜ
솔직히 저도 그분꺼 잘 이해가 안갑니닷........! 제가 부족한 탓이지만요 ㅠ.ㅠ헿............
좋은 강의 감사합니다.
올려주시는 강의를 보면서 여태 헷갈렸던 부분들을 많이 해결하는 것 같습니다. 고맙습니다.
이번 강의 내용과 관련한 두 가지 질문사항이 있습니다.
1. 합성곱을 할 때 사용되는 filter의 개수를 보통 32개 또는 64개 이렇게 설정을 하던데, filter의 개수를 정하는 방법은 무엇입니까?
2. 합성곱을 거친 결과를 relu activation function에 통과시키던데, 그 이유는 무엇입니까?
자세한 답변 부탁드립니다.
감사합니다.
안녕하세요 ㅎㅎ 질문 감사합니다.
1. 은 잘 모르겠어요. 많을수록 overfit 될것이고 적을수록 학습이 잘 안될 것 같습니다.
딥러닝 네트워크 구조는 인간에겐 블랙박스입니다. 약간의 논리를 가지고 제안할 뿐 필터의 개수가 31도 아니고 33도 아닌 왜 32이냐에 답을 할 수는 없습니다.
2. 제 생각엔 ReLu를 쓰게된 이유
ruclips.net/video/5VyE34vNLJA/видео.html
와 같을 것 같습니다. 깊어지면 gradient가 0에 가까워져서 학습이 안되서일 것 같습니다.
@@hyukppen
빠른 답변 감사합니다.
1번 질문에 대한 답변은 이해했습니다.
그리고 애초에 2번 질문을 제가 잘못 적은 것 같습니다.
제가 궁금했던 것은 'ConvNET 부분에서 activation함수를 사용하는 이유'였습니다.
일반적인 인공신경망 내에서 activation function을 사용하는 이유는 이해하고 있습니다.
그런데 ConvNET부분에서 activation함수를 굳이 사용해야하는 이유를 잘 모르겠습니다.
@@beenzino1152 CNN도 neural network입니다. convolution이라고 거창하게 표현했지만 그냥 뉴럴넷 다발을 local한 영역만 연결하고 나머지는 끊어놓은 형태죠. 따라서 같은 문제가 생깁니다. filter의 값을 gradient descent로 알아내야하는데 gradient값이 앞쪽으로 갈수록 0이 되버리니 vanishing gradient현상이 일어나죠.
안녕하세요 비전공자이지만 인공지능에 관심이 있어서 이것저것 공부하고 있습니다. 질문이 있는데요, cnn에서의 역전파는 어떤 의미인가요? 필터의 값을 바꿔준다는 의미일까요? 보통 역전파는 가중치를 변경하는 걸로 알고 있는데, 컨볼루션과 풀링에서 역전파는 어떤 것을 의미하는지 궁금합니다. 검색해봤더니 너무 어려운 수학 공식만 많고 그 의미를 비전공자가 알기 쉽게 설명해주신 것은 찾지 못했습니다. 감사합니다.
아이고 이제 봤네요. 넵 말씀하신대로 CNN에서의 역전파는 필터 값을 구하기 위해 gradient를 구하는 과정으로 보시면 됩니다.
"가중치"="CNN에서의 필터 값"입니다.
이 강의에서 설명한대로, CNN은 그저 FCN에서 connection을 잘 끊어낸 모델입니다.
따라서 가중치가 있고 역전파를 통해 그 가중치를 update해나가죠.
그 가중치를 CNN에서는 특별하게 "필터"라고 "사람이 이름 붙인 것" 뿐입니다.
머신한테는 그냥 가중치 값일 뿐이에요~
풀링에서는 update될 것이 없죠. 풀링은 그저 골라내는 행위일 뿐이니까요~
다만, CNN에서의 역전파는 수식이 좀더 복잡하게 나옵니다 가중치를 재사용하기 때문에..
(같은 가중치를 밀고 곱하고, 반복하기 때문에 그렇습니다. FCN은 output node를 만들 때마다 다른 가중치를 사용하죠~)
다항함수회귀를 코딩하다보니 과적합된 형태가 나왔는데 전에 영상이 생각나서 다시 왔습니다ㅎㅎ CNN이 과적합을 배경으로 만들어졌다고 하셨고 데이터에 특징을 잡아준다고 하셨는데, 과적합을 해소하기 위한 방법은 아니라고 봐야하나요? 구글링을 했을때 과적합의 해소방법으로 정규화가 많이 나오고 합성곱의 내용은 못봐서 질문해봅니당
그리고 2D데이터를 필터를 통해서 학습하게 되는데 결국 필터 처리 후에는 데이터를 일열로 나열해서 신경망에 투입하는건가요? 그럼 신경망이전에 특징을 잡는 전처리 과정이라 생각하는게 맞나요?
1. 저는 과적합을 해소하기 위해 기존의 DNN의 구조를 바꾼 것으로 CNN을 이해하고 있습니다.
합성곱이라는 것이 새롭게 도입된 것은 아니고, 기존의 NN에서 다음 layer로 넘어갈 때 하던 weighted sum을 convolution이라는 operation으로 표현된 것입니다. (기존의 DNN에서 connection을 이리저리 끊어놓은 것이죠)
2. 넵 정확합니다.
하지만 좀 재밌는 것은 그거는 인간의 생각일 뿐, 정말로 그런지는 알 수 없습니다. "이미지의 특징"이라는 것이 뭘까요? corner라던가 edge라던가 이런 것들은 인간의 인식 영역에 있는 것이기 때문에.. 사실 모든게 black box입니다.
training을 위한 입력들을 가지고 있고 그것들을 network에 넣었을 때 원하는 출력이 나오도록 activation function을 design하고 network 구조를 design하고 그 다음에는 열심히 weight를 바꿔나가며 원하는 결과를 출력하도록 하는 커다란 network (black box)를 키워나가는 것이죠.
결국 network의 중간단계 어디 쯤에서 "이미지의 특징"이라는 것이 추출이 되었다. 이런 것들은 인간의 해석인 것입니다.
혁펜하임 깔끔한 답변 감사합니다ㅎㅎ
좋은강의 잘보고 있습니다. 감사합니다. 궁금한게 있는데 마지막 논문 예시 읽어주실 때 인풋 사이즈가 84*84*4 여서 84짜리 사진 네장을 넣은 것이다 였습니다. 만약 84짜리 칼라사진 네장을 넣을 거라면 84*84*3*4가 되는걸까요? 그런 경우엔 필터가 어떻게 생겨야 하는 지가 궁금합니다. 마찬가지로 사이즈 5짜리 필터를 쓴다면 뒤에 rgb와 사진 개수는 맞춰줘서 5*5*3*4가 되어야하는 걸까요?
어떻게 구현하냐에 따라 다르겠지만
컬러 4장의 정보를 섞어봐야 한다고 판단하신다면 말씀하신대로 5*5*3*4 로 하면 되겠습니다!
@@hyukppen 감사합니다~~~
음 그럼 초기 사진 데이터 한 부분에 곱해지는 필터를 초기 가중치라고 생각해도 되는건가요?
아마도 convolution 하는 과정에서 필터가 곱해져서 더해진 결과가 무엇인가를 말씀하시는 것 같습니다.
이는 가중치를 주고 더해서 출력 이미지가 나오는, convolution 결과(=필터링 결과)의 한 pixel 값을 얻게되는 것이죠!
@@hyukppen 감사합니다:)