이거 다른강의 볼 때는 왜 이런지 맨날 퍼셉트론,게이트,웨이트 까지만 하고 정확한 이유가 이해가 안되었어요,,ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ 근데 이거 예시보고 정확하게 알앗어요,,너무신기해요, 유치원생도 알 수 있을 것 같아요,,ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
다른 W, b 조합에 대해서, 예제, Deep... 에 있는 프로그램을 돌렸는데, 다른 값이 나옵니다. W1=[ [6, 6], [-6, -6]], b1=[-3, 3], W2=[10, -10], b2=[5]. 이 값의 특징은 첫번째 layer 두 노드 W 값이 같고 b 값만 다릅니다. 이 값들이 강의에 나온 값들보다 더 생각하기 쉬운데, 쳣번째 W =[a, -a] 노드를 통과하면 x=[0,0] 과 [1,1]은 모두 [0,0]이 되고 b1, Sig1 을 통과하면 [0,1]이 되고 두번째 layer에서 W2=[c, -c]로 설정하면 -c + b2 0 만 남아서 1이 됩니다. 게나마 이 결과가 머리 돌리기 좀 더 쉬워서 써 봤습니다. 영상에서는 첫번째 layer 두 노드를 각각 [5,5] [-7,-7] 서로 다른 값을 썼는데, 같은 값 [6, -6], [6,-6] 을 써도 구현될 수 있으니 생각하기가 훨씬 간단해 졌습니다.
강의에서 사용하신 weight 조합에 그대로 곱하기 2, 곱하기 3...곱하기 10 을 해서 새로운 weight 조합을 만들어도 똑같은 결과를 내는 NN을 만들어지네요~ 물론 training할 때 regulation으로 w값의 범위를 어느정도 제한할 수는 있지만, 같은 수준의 정확도로 예측을 하는 수많은 조합의 weight가 가능하다는 뜻이겠지요?
좋은 강의 잘 듣고 있습니다. 질문 있습니다. XOR 예제에서는 첫번째 레이어의 출력값을 sigmoid 함수를 거쳐 0 or 1로 바꾼다음 두번째 레이어의 입력 값으로 사용했습니다. 그런데 14:30쯤의 슬라이드에서 예제 코드를 보면 sigmoid 함수의 출력값을 그대로 사용하고 있는 것 처럼 보입니다. 어느것이 맞는 건가요? 제가 보기엔 후자가 맞는 것 같습니다만.... 첫번째 처럼 0 or 1로 바꿔버리면 비선형성이 심화될 것 같은데요...
이거 다른강의 볼 때는 왜 이런지 맨날 퍼셉트론,게이트,웨이트 까지만 하고 정확한 이유가 이해가 안되었어요,,ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
근데 이거 예시보고 정확하게 알앗어요,,너무신기해요, 유치원생도 알 수 있을 것 같아요,,ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
그동안 이해 하지 못했던 부분을 상세히 설명해주셔서 이해가 완전히 됐습니다. 감사합니다.
교수님의 강의는 매우 명쾌하여 우리나라 머신 러닝 발전에 큰 도움이 될 것입니다.
세상엔 천재가 정말 많네요.....되게 복잡한 문제를 되게 간단하게 해결하다니....
초딩도 이해할수 있을정도로 쉽게 설명해주시네요.
+이성제 (leesungjae) 좋게 봐주셔서 감사합니다. 많은 분들이 Deeplearning 입문할수 있도록 알려주세요. :-)
감사합니다.
표를 보여주면서 직접 계산해주시니 너무 이해하기가 쉬웠습니다.
음... xor은 and gate 랑 or gate 3개를 조합해서 만들 수 있습니다
논리회로 수업이 이해에 도움이 되네요
명쾌한 강의 감사합니다. 매번 큰 도움이 되고있습니다.
유튜브에서 댓글을 거의 처음 달아 보네요. 눈팅만 하고 가기가 너무 죄송한 강의라서... 이렇게 감히 댓글로 감사의 표현만 달고 갑니다. 좋고 명쾌한 강의 감사합니다!! 그런데 역시 변수가 많아지고 변수가 많아지니, 헷깔리네요. 하하하
시그모이드3 은 1인데
S(-3)은 왜 0 이죠??
다른 W, b 조합에 대해서, 예제, Deep... 에 있는 프로그램을 돌렸는데, 다른 값이 나옵니다. W1=[ [6, 6], [-6, -6]], b1=[-3, 3], W2=[10, -10], b2=[5]. 이 값의 특징은 첫번째 layer 두 노드 W 값이 같고 b 값만 다릅니다. 이 값들이 강의에 나온 값들보다 더 생각하기 쉬운데, 쳣번째 W =[a, -a] 노드를 통과하면 x=[0,0] 과 [1,1]은 모두 [0,0]이 되고 b1, Sig1 을 통과하면 [0,1]이 되고 두번째 layer에서 W2=[c, -c]로 설정하면 -c + b2 0 만 남아서 1이 됩니다. 게나마 이 결과가 머리 돌리기 좀 더 쉬워서 써 봤습니다. 영상에서는 첫번째 layer 두 노드를 각각 [5,5] [-7,-7] 서로 다른 값을 썼는데, 같은 값 [6, -6], [6,-6] 을 써도 구현될 수 있으니 생각하기가 훨씬 간단해 졌습니다.
진짜 명강이네요. 대학에 이런분이 교수를 해야되는데..
매우 매우 감사합니다. 이런 귀한 지식을 아낌없이 공유하시니 참 멋진 분입니다. 저는 한국 부산의 초등학교 교사입니다. 인공지능에 관심이 있어서 보고 있는데 초등학교 선생인 저도 시원하게 이해할 수 있으니 참 고맙습니다.
좋은 감사 드립니다.
훌룡한 강의입니다. 감사합니다!!
어디서부터 배워야할지 막막했는데 알려주셔서 너무 감사합니다
항상 감사합니다!
좋은 강의 감사합니다.
1/(1+exp((-1/(1+exp(5x+5y-8)))*-11-11*(-1/(1+exp(-7x-7y+3)))+6)) 그래프가 이런식으로 나오네요. 구글검색창에 이 수식을 넣어보세요.
XOR문제 변수가 세개인것(x1~x3)도 가능한가요?
2020.12.15 영상 시청
- XOR 문제
- NN(Neural Net)
강의에서 사용하신 weight 조합에 그대로 곱하기 2, 곱하기 3...곱하기 10 을 해서 새로운 weight 조합을 만들어도 똑같은 결과를 내는 NN을 만들어지네요~ 물론 training할 때 regulation으로 w값의 범위를 어느정도 제한할 수는 있지만, 같은 수준의 정확도로 예측을 하는 수많은 조합의 weight가 가능하다는 뜻이겠지요?
+Shawn Lee 그렇습니다. 같은 닶을 내는 weight들이 많은데 이중 가장 작은 값으로 하는 것이 regulation의 핵심입니다. 정말 깊이 이해하신듯 합니다.
좋은 강의 잘 듣고 있습니다. 질문 있습니다. XOR 예제에서는 첫번째 레이어의 출력값을 sigmoid 함수를 거쳐 0 or 1로 바꾼다음 두번째 레이어의 입력 값으로 사용했습니다. 그런데 14:30쯤의 슬라이드에서 예제 코드를 보면 sigmoid 함수의 출력값을 그대로 사용하고 있는 것 처럼 보입니다. 어느것이 맞는 건가요? 제가 보기엔 후자가 맞는 것 같습니다만.... 첫번째 처럼 0 or 1로 바꿔버리면 비선형성이 심화될 것 같은데요...
수기로 푸신 예제에서는 실제로 sigmoid함수의 출력값이 0이 아닌값(0.1, 0.9 등의 값)이라고 할지라도, 수기로 일일히 곱하기를 하기엔 너무 비효율적이기에 그냥 근사값으로 두고 푸신것을 보입니다.
후자가 맞다고 보시면 될 것 같아요.
감사합니다!
Depth에 무관하게 (AND + NOR) => NOR, (NAND + OR) => AND 의 게이트 조합만이 가능한 듯 합니다만, 맞는지요
sigmoid 함수가 아닌 step 함수를 쓰는 게 더 단순하게 설명하는 방법이 될 것 같은데, 굳이 sigmoid 를 사용하는 이유가 있나요 ?
하나로 표현할 때, 이번에는 weight들이 행벡터가 아니라 열벡터로 가나요? 앞서서A or notA B or notB C or notC를 판단할 때는 weight들이 행벡터가 되지 않았나요?
제 생각에는 WX와 XW의 차이인것 같습니다.
Lgostic 의 뜻 이해될 수 있는 용어로 풀어 주세요
sigmoid 함수를 빼버리면 저런 결과를 얻는건 불가능하겠죠?
강의 하실때 마우스로 글씨 쓰시나요? 저도 동영상 만들어 보고싶네요
저는 bamboo fun이라는 작읕 테블릿과 skim이라는 pdf 뷰어를 사용하였습니다.