1. 인공지능 바둑이 가진 허점을 분석해서 찾아내는 인공지능을 개발함. 2. 허점 인공지능이 바둑 인공지능을 이기는 패턴을 발견함. 3. 사람이 그 패턴을 실제로 인공지능 상대로 사용해봄. 결과는 인간이 이김. 결론: 인공지능도 바둑을 두는 패턴이 있고 그걸 분석하니 이길수 있는 허점이 있다.
원글은 읽어보지 않았고 이 영상만 봤을때는 저 대학생분이 쓸 때 없는 계산량을 줄이기 위해 가지치기 된 부분을 공략한것 같습니다. 좌상에 죽은돌은 죽었다고 가지치기 되서 계산에서 빠져서 그런듯. 이런 패턴이 인공지능에게 노출이 되면 인공지능은 다시 학습해서 꼼수가 통하지 않을것 같습니다. 발상 자체는 이해가 되네요.
@@chess5567 님이 하신 말은 "보안 패치를 했는데 해킹을 당한다고? 말도 안 되지 ㅋㅋ" 수준이랑 똑같은 소리임. 원래 이런 분야는 창과 방패의 싸움이었고, 영상에서도, 저 기사에서도 말했듯 인공지능의 허점을 이용한 방법임. 결국 저것마저도 학습해서 곧 막힐 거고.
@@chess5567 버그라고 보기는 어려운것 같고 죽은돌이라고 판정되어 계산 고려대상에서 제외된것으로 보입니다. 속은것이 아니고 죽을돌이라 판정되어 아예 계산에 포함하지 않아서 저런 경우가 나온것입니다. 위와 같은 수가 있다는것을 AI가 학습한다면 앞으로 저른 수는 통하지 않을 수가 될것이고 가지치기를 할 수 없는 경우가 늘어 나기에 그로 인해서 필요한 컴퓨팅파워는 더 많이 늘어날것으로 생각합니다. 2015년 10월달에 알파고가 1202개의 CPU와 176개의 GPU로 분산처리 했다고 하는데 저렇게 완전하게 확정되지 않은 죽은돌이 미칠수 있는 경우의 수까지 계산하려면 더 많은 컴퓨팅 파워가 필요할것 같네요.
켈린 펠린의 15개 대국을 일단 한 번씩 봤습니다. - AI는 이미 잡은 돌에 대해선 가일수를 하지 않는다. 암 그래야 고수지... ㅋㅋㅋ - AI는 상대방의 돌을 잡는 것보다 더 큰 집을 지울 수 있다면 손을 빼고 큰 곳으로 간다. 그래서 켈린 펠린은 귀에 들어가 바둥바둥 수를 늘리거나 살아놓는다. 포위된 귀에 살아봐야 몇 집이나 된다고... ㅋㅋㅋ - AI는 귀에서 작게 사는 것 신경도 안 쓰고, 잡으려는 생각 조차 없이 냅다 큰 곳으로 간다. 당연하지... ㅋㅋㅋ - AI는 귀를 잡았을 때의 집보다 더 큰 집을 지을 수 없으면 그 때 비로소 귀를 잡는다. 그래서 켈빈 펠린은 귀에 가일수하여 살리거나 혹은 귀가 죽었더라도 최대한 수를 늘려 놓는다. - AI 돌이 완전히 포위된 상태에서 켈린 펠린의 돌이 최소한 두 군데 이상 죽어 있다면 AI는 수싸움을 하지 않고 끝내기를 하면서 자신의 수를 자꾸 매꾸어 나간다. AI는 "너 다 죽었어! 난 끝내기 하면서 집을 더 지어야징~" 하면서... 그래야 고수 소리듣지...ㅋㅋㅋㅋ - 일단 포석단계에서 귀에 들어가 무조건 살거나 혹은 수를 늘려놓는다. - 자신의 돌을 가급적 3선 이하에 둔다. AI가 중앙을 최대한 키우도록 유도한다. 중앙에는 두지 않고 큰 공간으로 비워둔다. - AI의 대마를 잡더라도 집수에서 이기기 위해 변쪽에 집을 확보해 둔다. - 귀의 바깥 상변의 돌은 바깥으로 도망가지 않고 잡아주거나 포위하기를 유도한다. 그래서 수를 늘려놓거나 혹은 살아둔다. - 예를들어, 귀의 왼쪽 변에 두면 AI는 두 집이 안 나도록 하면서 최대한 크게 잡으려고 포위한다. 그래서 켈린 펠린은 그 돌에 계속 가일수하면서 AI의 돌을 포위해 나간다. 그리고 오른쪽 변에도 두면 AI는 크게 잡으려고 또 다시 포위한다. 그래서 켈린 펠린은 꾸역꾸역 수를 늘리면서 AI의 돌 전체를 포위해 나간다.(AI는 살 수 없다고 판단하면 쪼짠하게 나와서 끊지 않는다. ㅋㅋㅋㅋ) - 왼쪽, 오른쪽, 상변, 귀는 서로 끊어진 상태로 최소한 두 덩어리는 죽어야 한다. - AI 돌 전체를 포위하면 무조건 AI를 이긴다. AI 돌이 포위되더라도 상대방의 돌들이 끊어진 상태로 최소한 두 군데 이상 죽어있기 때문에 AI는 가일수도 하지 않고 수를 줄이지도 않는다. 죽은 돌에 가일수하면 하수이니... ㅋㅋㅋㅋ
딥러닝 특성상 상황에서 노드의 계층이 깊어질 수록 상황의 특징을 추출하는 방식으로 노드값이 계산되어서 그런것 같네요. 딥러닝에서 잡은 돌이라는 특징이 추출되었고, 이 특징을 담은 노드의 결과로 인해 수를 생각하지 않는.. ㄷㄷ 신경망 학습에서 어떤 방식으로 학습이 이루어지는지 파악해서 약점을 찾은 것 같군요.. 추가로 저런 환경에서의 기보를 여러번 학습해야 할 것 같습니다.
모바일 인공지능으로 바둑 처음 배울 때 하던 방법과 약간 비슷하네요ㅎㅎ 물론 계산적으로 찾은건 아니구 계속 반복적으로 하다보니 우연하게 패턴을 알게되서 이기던 방법인데용 위 바둑처럼 2선,3선만 단단하게 지키면서 호구자리, 허무맹랑한 자리, 도저히 살아나올것 같지 않은 자리 이런데 듬성듬성 뿌리면서 거의 다 두어져 갈 무렵 팻감을 하나 만들어 놓고 시작하면, 허무맹랑 한 자리에 두었던 돌들이 팻감 역할을 하면서 상대 돌들을 역을로 잡거나 진영을 부수면서 살아나오게 되는 방식으로 90% 정도는 이겼는데요 웃긴 건ㅋㅋ 팻감으로 수많은 돌을 살리고 역으로 상대 돌을 다 잡았지만 인공지능 집이 너무 커서 지는것도 비슷하네요ㅋㅋ
제 생각엔 오히려 바둑을 알고 있기에, 심지어 딥러닝 구조까지 알고 있기에 가능한 것으로 보이네요. 물론, 허점의 발견을 다른 AI를 통해서 얻은 거지만요... 왠만한 프로 바둑 두는 사람이라면 이미 졌다거나 이겼다고 생각해서 수상전을 하기보다 다른 수를 둘 생각을 하기에 AI가 학습했던 기록들에서는 저런 수상전에 관한 기록이 없던 것으로 보입니다. 저 미국 대학생은 이 점 (인간이라면 어짜피 질 싸움인 수상전을 잘 안함으로 저런 수상전은 딥러닝이 학습할 기록으로는 굉장히 드믈다) 을 깨닳은 거겠죠. 고로 딥러닝 AI로서는 수상전에 대해 파악과 대처 행동을 보여줄 수 없는 겁니다. 딥러닝AI는 플레이어들의 바둑 기록들을 토대로 학습하는데, 그 기록들을 토대로 생각해서 두는 것은 아니기 때문인거지요. 쉽게말하면, 학습된 기록들을 전부 연산해서 얻은 확률을 기반으로 두는 기계일 뿐입니다. 딥러닝 AI가 생각하고 의미를 추론하는 구조가 아니다보니, 학습할 때 데이터의 의도를 전혀 배울 수 없으며 학습 데이터가 편중되면 그 편중된 상태로 배워서 편중되게 변합니다. 그래서 수상전이 없는 데이터들로 학습된거였으니 그 결과인 확률에 따르면 수상전에 대한 대처를 할 수 없는 거지요. 즉, 선수들은 불필요한 싸움이라 하여 저런 수상전을 무시하듯 AI도 무시는 했지만 선수들은 하나같이 무시했기에 수상전에 대한 방어 기록은 없어서 AI가 어찌하지 못한 걸로 보입니다. 허나, 결국 저 문제도 수상전에 관한 기록들을 추가적으로 학습시키면 해결돼는 문제라 앞으로의 큰 문제는 아닌것으로 보이네요.
저는 바둑은 잘 모르니까 인공지능의 기본 원리에 대해서 설명을 좀 해보죠. 기본적으로 우리가 인공지능이라고 칭하는 딥 이라고 붙어 있는 것들의 정체는 일반적으로 병렬처리에 특화된 신경망 알고리즘을 지칭합니다. 그 중에서도 보통 트랜스포머라고 하는 모델을 사용하는데 기본적으로 해상도라고도 합니다만 어떤 결정을 큰 그림 과 작은 그림으로 나누어서 처리를 하게 됩니다. 그런데 큰 그림 이라는 분야 자체에서는 무적입니다. 또한 작은 그림 에서도 무적입니다. 근데 큰 그림과 작은 그림 과의 사이의 전환은... 미묘합니다. 바둑 인공지능 뿐만이 아니라 모든 딥러닝이 다 그렇습니다. 요즘 뜨는 chatGPT 도 마찬가지인데.. 큰 아젠다 던지면 완벽하게 나옵니다. 작은 디테일적인 문장을 넣어줘도 완벽한 답변이 나옵니다. 하지만 큰 아젠다 던진 후 그 안의 작은 디테일을 따지면 거짓말 하기 시작하죠. 그림 그리는 인공지능을 예로 들어 보죠. 큰 레이아웃을 제시하고 조건을 나열하면 끝내 주는 그림을 그려줍니다. 근데 손가락이 어색하네 손가락만 바꿔죠. 이런 거 잘 못합니다. 물론 실제 해상도 쉬프트는 자동차 기어처럼 여러단계를 거치기 때문에 저런 걸 발견하기는 쉽지 않을텐데.. 대단하네요.
올렸던거 지우고 다시 편집해서 올렸네요. 진 바둑 찾는데 시간이 오래걸렸는데 그게 왜 편집이 안됐나 했음. 그리고 대학생은 아니고 박사과정이라고 자기가 방송해놓고 대학생이라고 제목 달면 어쩌나... 박사과정과 대학생은 천지차이이고 대학생들한테는 교수나 다름없는데... 노벨상 받는 사람들 업적은 대부분 나이먹어서의 업적이 아니라 20대 때의 업적인 경우가 대부분... 다음은 전 영상에 내가 댓글을 달았던 내용인데... 1. 컴퓨터가 아무리 연산능력이 좋아도 다음수 다음수 넘어가는 모든 가지치기의 경우의 수를 계산할 수는 없어요. 모두 아시다시피 바둑의 경우의 수는 계산불가로 크니까... 그래서 선택과 집중을 합니다. 깊이 들어가서 연산할 필요의 가능성이 거의 없다고 판단되는 쪽은 그만큼 연산을 덜 합니다. 2. 바둑은 두 집이 있으면 삶이 확정이죠. 저 방법의 모양은 두 큰 집이 있는 모양이 됩니다. 그런데 막상 삶을 판별하려면 여러 수를 들어가야 하고 경우의 수도 많아지는데 매번 그런 연산을 하면서 확인하는 것은 낭비고 연산할 필요성에 대한 가중치가 0에 가까왔던게 점점 더 0으로 떨어지는거죠. 바둑인들은 바둑을 어떻게 이겼느냐가 관심사겠지만 인공지능 연구자들한테는 이런 취약점을 또 어떻게 해결할지가...
"지금의" 인공지능이 무엇때문에 속았는지 그 근본적인 원리는 원인과 다르게 의외로 간단, 그 인공지능이 가지는 자신의 주체적인 승률이 상대보다 높다면 인간의 끝내기 상태에서 그 인공지능이 하는 계산은 아주, 아주 일정한 종류의 낙관에 빠진다는 점. 만일 그런 아주, 아주 일정한 종류의 낙관이라는 아까와 같은 관념에 빠지지 않도록 하는 계산 장치를 지금의 컴퓨터들에게 입력해준다면, 이런 일은 컴퓨터가 금방 읽는다는...
Ai 완급 조절만 하면 더 완벽해지겠네요..... 이를테면,형세 판단에서 15집~ 20집 정도이상 차이날경우 약간의 이득보다 보강수를 우선 생각하게 해서 2~3집 손해보고 더 강하게 승부를 굳힐수있는 수를 둘수있게 하는 프로그램 추가. 마치 이창호9단 처럼... 그리되면 15집 우위에서 7~10집우위로 끝나지만 승리는 100퍼센트 확실하게 되겠죠.
프로기사와 컴퓨터 연구자의 관점 차이라고 할 수 있겠네요. 인공지능을 프로 기사는 바둑 실력으로 상대를 생각할 때, 컴퓨터 연구자는 알고리즘이라는 관점에서 먼저 생각하기 마련이니까요. 이제까지의 검증이 프로와의 경기실력으로 알고리즘을 테스트 하여왔으니 보이지 않았던 알고리즘이 가지는 약점을 찾아낸 셈이네요.
인공지능도 지금껏 세상에 나온 기보를 바탕으로 확률을 계산해서 최선의 수를 둠으로 사람이 제대로 둬선 이길수 없지만 지금껏 듣도보도못한 방향으로 바둑이 흘러가면 인공도 기계에 불과할뿐 생각을 인간처람 하면서두지는 못하는듯..그러나 이것또한 인공이 학습을 하면 보완을 해서 완벽해 지겠죠..작업이 통하지 않겠죠 그땐
과거에 유명한 바둑기사 보면 ,바둑의 신이 있다면, 5집반 6집반 으로 덤으로 승부가난다거나. 바둑을 둘대 100수 를 본다 200수까지 본다 1위기사가 이런말 한거 같은데.결과적으로 , 이런수는 아무리 100수 200수 를 보든지.. 덤으로 승부가 난다든지 전부다 오류인거 같네요.
꼭 이런방식뿐만 아니라 ai가 진화되도 결국은 ai 이기에 승리는 ai가 해도 인간의 바둑방식을 따라잡을수 없는 한계가 있고 아마 그부분은 (감정이라는 부분)ai가 극복을 못할겁니다. 아마 이런 헛점들이 계속 발견될겁니다. 그건 딥러닝이나. 학습으로 되는게 아니거든요 가령. ai의 진행과정을 보면 확률이 높은곳에 둔다, 그리고 그게 맞다고 단정하고 확정을 짓는 과정을 거친다. 그게 ai 입장에서는 최선의 선택이고 그외에는 다른 선택을 할수가 없음. 오로지 확률에 따른 자리이기 때문에. 확률이 낮은 자리에 굳이 두지 않는다는 맹점을 가지고 있죠. 그럴 이유도 없고.. 인간은 역시 확률에 따른 자리를 두었어도 비록 내가 그자리를 정했어도 잘못된 확률일수도 있다고 매번 의심의 여지를 남기고 계속 점검한다. 즉 이미 둔거라서 취소는 할수 없지만 확정을 짓지 않는다. ai가 봐도 인간의 자리가 100% 자리라고 해도 인간은 그걸 100%라고 여기지 않는다는거죠. 여기서 ai 와 인간의 차이가 벌어집니다. 즉 생각하는 방식이 전혀 다름. 그리고 둔 수에 대한. 애착과 편집증상으로 인해 어떻게든 그쪽을 중심으로 이어가거나 살릴수 있는 여지를 남긴다. 즉 인간의 확률은 이미 착수한 지점을 중심으로 관심과 편애하는 경향이 있어 다시 그자리를 중심으로 확률이 낮은 자리라도 확률때문에 두는게 아니라 자신이 이미 둔자리에 대해.그 주변이라도 확인사살 하는 차원이라도 착수를 하려는 경향이 있음> 즉 확률바둑을 하면서도 동시에 편집증적인 감정바둑을 하기 때문이죠. 그걸 선호하는 경향이라는 감정적인 부분이고.그래서 기사마다 각자 스타일이 생겨나는것이고.. 그런데 ai 는 인간이 확률을 낮은자리에 둬도 왜 그자리에 두었는지 무슨 의도가 있는건 아닌지 의도를 파악하는 로직까지는 갖추지 못했다는 것이겠죠. 즉 확률계산만을 하는 ai이지 의도를 파악하는 ai는 아니라는 겁니다. 그건 인간만이 상대의 의도를 궁금해하는 의심이라는 단어로 표현되는 감정의 영역 일테고요. 만약 ai마저도 확률이 낮은 자리에 두면서도 이기는 상황까지 와야 ai가 진짜로 완성되었다고 볼수 있겠죠. 하지만 ai는 그런 선택을 할수가 없죠. 그러면 자신의 로직이 뒤죽박죽 되버리니까.
이정도면 이겼으니 만족하고 보강을 해야겠다는 것은 인간이어서 느끼는 만족이라는 감정이지요. 아직 AI는 이러한 만족의 감정이 없고, 극대화라고 하는 효율만이 있을 뿐이니 이것이 AI의 단점이되겠군요. 앞으로 이러한 단점도 보강이 되겠지만, 인간의 모든 감정을 다 흉내낼 수는 없을테니 앞으로도 인간은 계속 쓸모가 있겠지요...
게임 스타크래프트에서 초반에 일꾼으로 적 일꾼 때리면, 일꾼들은 반격 한다고 우루르 몰려와서 그 한마리 죽이러 오다 자원을 못캐고 바보가됨 1:1로 싸우면 죽을수 있으니 다른 일꾼까지 우르르 몰려와 죽이는 방법(이길수있는 최고의 확율)로 대처하는거 하지만 ai는 얼마나 바보같은 인간의 심리전에 말려든지 알수가없음(확율만 계산하기때문) 바둑도 이 방법은 아무리 보완을 해도 비슷한 방법으로 해답이 계속 나올듯합니다. 이건 버그가 아니고 딥러닝 ai 의한계라 생각합니다. 실제로 인간처럼 생각을 하는 방식이 아니기 때문에
인공지능 개발자 입장에서 한말씀 드리자면, 저 바둑 인공지능은 강화학습이 덜 돼서 저런 상황이 발생한 겁니다. 강화학습을 a~z까지 진행한다면, 저런 꼼수는 통하지 않을 겁니다. 그러저나 제가 인공지능이었나 봅니다. 바둑 두다가 항상 저렇게 당했는데. 그래서 기분 나빠서 바둑 안 뒀는데
흠 죄송하지만 훈련 데이터에 이런 식의 패턴이 아예없었기때문에 발생한 일입니다. 이것과 비슷하게 두는 기보만 몇번 (그래도 제법 많은양 사람에게는) 추가해서 훈련하면 다시 사람이 이길수 없게될겁니다. 인공지능이 못이기는 패턴이라기보다는 덜 훈련되었기에 사람이 이길수 있았다이고 이것이 인공지능의 맹점이라면 맹점일수 있겠지만 너무나도 쉽게 보완가능한 맹점 입니다 :)
아뇨 그렇게 단순하게 보긴 힘든 문제입니다. 바둑은 게임의 규칙과 승리조건이 명확하기 때문에 인공지능이 학습을 하는데 필요하는 목적함수가 명확합니다. 또한 규칙이 일관되기 때문에 별도의 학습데이터 없이도 셀프 트레이닝만으로 충분히 학습이 가능하다가 지금까지의 연구 결과였습니다. 그런데 이건 그렇게 명확한 규칙과 목적함수를 가진 분야에 대해서조차 딥러닝 기술이 예외상황을 예측하지 못했다는 뜻이라 학술적으로 여러 시사점이 있어보입니다.
딥러닝 인공지능은 기보를 학습시키는 기존의 인공지능이 아니라 규칙만 입력한 상태에서 스스로 바둑을 두며 학습하는 방식입니다. 전 인류가 둔 횟수 이상의 바둑을 두며 학습했음에도 이러한 패턴을 인공지능이 깨닫지 못했다는 점에서 단순히 이기는 꼼수를 발견했다는 가벼운 맹점이 아니라 여러 분야에 적용될 수 있는 발견입니다. 윗 댓 말대로 딥러닝을 통해 인간의 데이터에 의존하지않고 스스로 무한히 학습해서 완전무결에 가까워진다는게 핵심이었는데 지금까지 어마어마하게 딥러닝했음에도 이런 초보적인 맹점이 튀어나왔다는 거니까요
그렇게 볼수많은 없는게 수많은 기보를 가지고 훈련을 시킨것은 사실이고 이게 reinforcement learning 으로 훈련 시킨다고 해도 rule은 기존에 나와있는 프로들의 기보를 많이 참고해서 만들었다고 이야기를 들었습니다. 그럼 프로들의 기보에 저런식으로 두는게 있았을까요? 답은 없았다입니다 ^^ 얕은 지식 수준으로 너무 깝치지 마시길...
패턴이 없었다고 변명하기엔 인간과 세계는 창조적이고 예측불가능한 돌발상황이 너무 많죠. ㅎㅎㅎㅎㅎ 과연 너무나도 쉽게 보완가능한 맹점일까요? 현재 이미지 인식, 음성인식, 자율주행을 보고서도 정말 너무나도 쉽게 보완가능한 맹점수준으로 진단하시나요? 얕은 지식수준 운운하셔서 좀 배우고싶네요. 인공지능의 기초도 모르는 모지리를 부디 불쌍히 여겨주시고 가르침을 주세요.
@@sunghoshin8195 이미 이세돌과 대국을 뒀던 알파고부터가 트레이닝 데이터 없이 학습한 모델이었습니다. 학습의 편의성을 위해서 Pre-trained model에만 기존 기보가 사용되고 그 후엔 그 어떤 기보도 없이 비지도 학습으로 학습되었습니다. 중요한건 이번 바둑 인공지능의 결함은 인간은 결코 하지 않을 오류라는게 큰 문제입니다. 이것은 상확을 이해하고 있다면 일어날 수가 없죠. 즉 생각보다 쉽게 인간이 하지 않을 오류가 규칙이나 목적이 명확한 게임에서도 발견된다는건 현재의 ai 모델들로는 상황을 이해하고 분석하는게 현 시점에선 불가능하다는 뜻이란 것이고 chat gpt나 자율주행에선 심각한 문제를 야기할 수도 있는 문제란거고요.
프로는 실력으로 이기려하고, 이 사람은 AI의 허점을 파악하려고 노력했으니, 문제의 본질을 꿰뚫은 셈이네. 대단하다
대전에서 상대를 분석하는게 기본인데 여태까지 인공지능이 유리한 대국만 하긴했죠 ㅋㅋ
@@zokioki515 바둑을 한게 아니라, 이 사람은 수학을 한건데...
이번 사건은 인공지능 챗봇 같은 그런 맹신을 조금이나마 잠재울수 있는...
1. 인공지능 바둑이 가진 허점을 분석해서 찾아내는 인공지능을 개발함.
2. 허점 인공지능이 바둑 인공지능을 이기는 패턴을 발견함.
3. 사람이 그 패턴을 실제로 인공지능 상대로 사용해봄. 결과는 인간이 이김.
결론: 인공지능도 바둑을 두는 패턴이 있고 그걸 분석하니 이길수 있는 허점이 있다.
인간은 AI를 절대로 못 이긴다고 생각하던 중에 발견한 신선한 영상이네요.
이긴 것은 사실이지만 실력이 아닌 AI만의 허점을 이용한 것이라 인간에게는 못 쓰는 것도 아쉽고 AI를 학습시키는 것에 따라 저것도 결국은 AI가 공략할 것 같다는 생각이 들어요.
저 대학생도 결국 인공지능의 허점을 찾아내는 인공지능을 개발해 그 패턴을 거꾸로 자기가 배워버린거네요.ㅋㅋㅋ 무섭습니다. 인공지능이 인공지능을 파악하고 그 인공지능을 또 사람이 간파하고 ㅋ
원글은 읽어보지 않았고 이 영상만 봤을때는 저 대학생분이 쓸 때 없는 계산량을 줄이기 위해 가지치기 된 부분을 공략한것 같습니다. 좌상에 죽은돌은 죽었다고 가지치기 되서 계산에서 빠져서 그런듯. 이런 패턴이 인공지능에게 노출이 되면 인공지능은 다시 학습해서 꼼수가 통하지 않을것 같습니다. 발상 자체는 이해가 되네요.
난 이해가 안되는게...인공지능이 저정도에 속는다고..ㅋㅋㅋ말도 안되는거지 버그가 난거라면. 몰라도...
@@chess5567 님이 하신 말은 "보안 패치를 했는데 해킹을 당한다고? 말도 안 되지 ㅋㅋ" 수준이랑 똑같은 소리임. 원래 이런 분야는 창과 방패의 싸움이었고, 영상에서도, 저 기사에서도 말했듯 인공지능의 허점을 이용한 방법임. 결국 저것마저도 학습해서 곧 막힐 거고.
@@chess5567 버그라고 보기는 어려운것 같고 죽은돌이라고 판정되어 계산 고려대상에서 제외된것으로 보입니다. 속은것이 아니고 죽을돌이라 판정되어 아예 계산에 포함하지 않아서 저런 경우가 나온것입니다. 위와 같은 수가 있다는것을 AI가 학습한다면 앞으로 저른 수는 통하지 않을 수가 될것이고 가지치기를 할 수 없는 경우가 늘어 나기에 그로 인해서 필요한 컴퓨팅파워는 더 많이 늘어날것으로 생각합니다. 2015년 10월달에 알파고가 1202개의 CPU와 176개의 GPU로 분산처리 했다고 하는데 저렇게 완전하게 확정되지 않은 죽은돌이 미칠수 있는 경우의 수까지 계산하려면 더 많은 컴퓨팅 파워가 필요할것 같네요.
@@Alanimdeo적극적으로 동의함 막는다면 다시 다른 허점을 뚫을려고 노력할거고
@@chess5567 기출에 많이 안나오는 문제가 실전에 나왔다고 생각하면 이해가 쉽지
이건 인공지능의 신경망 판단 전략을 이긴게 아니고 탐색 범위를 줄이는 부분을 공략한것 같습니다. 어쩌면 근본적인 문제일 수도 있지만 간단하게 보완될 수 있는 부분 아닐까요?
제 생각일뿐인데요. 프로그래밍 최적화 기법중에 가장 기본은 불필요한 계산을 피하는 것인데요. 아마 알고리즘이 불필요한 계산이라고 판단하고 그쪽부분의 수계산을 제외한것 같네요.
켈린 펠린의 15개 대국을 일단 한 번씩 봤습니다.
- AI는 이미 잡은 돌에 대해선 가일수를 하지 않는다. 암 그래야 고수지... ㅋㅋㅋ
- AI는 상대방의 돌을 잡는 것보다 더 큰 집을 지울 수 있다면 손을 빼고 큰 곳으로 간다. 그래서 켈린 펠린은 귀에 들어가 바둥바둥 수를 늘리거나 살아놓는다. 포위된 귀에 살아봐야 몇 집이나 된다고... ㅋㅋㅋ
- AI는 귀에서 작게 사는 것 신경도 안 쓰고, 잡으려는 생각 조차 없이 냅다 큰 곳으로 간다. 당연하지... ㅋㅋㅋ
- AI는 귀를 잡았을 때의 집보다 더 큰 집을 지을 수 없으면 그 때 비로소 귀를 잡는다. 그래서 켈빈 펠린은 귀에 가일수하여 살리거나 혹은 귀가 죽었더라도 최대한 수를 늘려 놓는다.
- AI 돌이 완전히 포위된 상태에서 켈린 펠린의 돌이 최소한 두 군데 이상 죽어 있다면 AI는 수싸움을 하지 않고 끝내기를 하면서 자신의 수를 자꾸 매꾸어 나간다. AI는 "너 다 죽었어! 난 끝내기 하면서 집을 더 지어야징~" 하면서... 그래야 고수 소리듣지...ㅋㅋㅋㅋ
- 일단 포석단계에서 귀에 들어가 무조건 살거나 혹은 수를 늘려놓는다.
- 자신의 돌을 가급적 3선 이하에 둔다. AI가 중앙을 최대한 키우도록 유도한다. 중앙에는 두지 않고 큰 공간으로 비워둔다.
- AI의 대마를 잡더라도 집수에서 이기기 위해 변쪽에 집을 확보해 둔다.
- 귀의 바깥 상변의 돌은 바깥으로 도망가지 않고 잡아주거나 포위하기를 유도한다. 그래서 수를 늘려놓거나 혹은 살아둔다.
- 예를들어, 귀의 왼쪽 변에 두면 AI는 두 집이 안 나도록 하면서 최대한 크게 잡으려고 포위한다. 그래서 켈린 펠린은 그 돌에 계속 가일수하면서 AI의 돌을 포위해 나간다. 그리고 오른쪽 변에도 두면 AI는 크게 잡으려고 또 다시 포위한다. 그래서 켈린 펠린은 꾸역꾸역 수를 늘리면서 AI의 돌 전체를 포위해 나간다.(AI는 살 수 없다고 판단하면 쪼짠하게 나와서 끊지 않는다. ㅋㅋㅋㅋ)
- 왼쪽, 오른쪽, 상변, 귀는 서로 끊어진 상태로 최소한 두 덩어리는 죽어야 한다.
- AI 돌 전체를 포위하면 무조건 AI를 이긴다. AI 돌이 포위되더라도 상대방의 돌들이 끊어진 상태로 최소한 두 군데 이상 죽어있기 때문에 AI는 가일수도 하지 않고 수를 줄이지도 않는다. 죽은 돌에 가일수하면 하수이니... ㅋㅋㅋㅋ
??? : 알파고 같은 인공지능을 이기는 법이요? 전원을 뽑으면 됩니다
챗GPT-5 : ( 기립박수 )
딥러닝 특성상 상황에서 노드의 계층이 깊어질 수록 상황의 특징을 추출하는 방식으로 노드값이 계산되어서 그런것 같네요.
딥러닝에서 잡은 돌이라는 특징이 추출되었고, 이 특징을 담은 노드의 결과로 인해 수를 생각하지 않는.. ㄷㄷ
신경망 학습에서 어떤 방식으로 학습이 이루어지는지 파악해서 약점을 찾은 것 같군요..
추가로 저런 환경에서의 기보를 여러번 학습해야 할 것 같습니다.
오 생각해보니 그렇네요
각 층이 깊어질 수록 점점 세부적인거를 학습하는데 이러면 결국
큰틀에서는 맞는데 구체적으로 다른경우 딥러닝이 예측을 잘못하죠
저 새로운 기보에 맞게 학습을 시켜야 깰 수 있겠네요 또
그러면 저렇게 잡은 데이터를 학습시키면 대처 가능한 딥러닝 에서 코드를 개발할 가능성도 있는 건가요?
@@조영준조-d5o지금도 만들려면 만들 수 있어요 근데 저 맹점을 만든 이유가 정석적인 대국에서 쓸데없는 연산까지 끼어들지 않게 쳐낸 곳이라 정작 정식 대국 성능이 떨어질 가능성이 높습니다
모바일 인공지능으로 바둑 처음 배울 때 하던 방법과 약간 비슷하네요ㅎㅎ 물론 계산적으로 찾은건 아니구 계속 반복적으로 하다보니 우연하게 패턴을 알게되서 이기던 방법인데용 위 바둑처럼 2선,3선만 단단하게 지키면서 호구자리, 허무맹랑한 자리, 도저히 살아나올것 같지 않은 자리 이런데 듬성듬성 뿌리면서 거의 다 두어져 갈 무렵 팻감을 하나 만들어 놓고 시작하면, 허무맹랑 한 자리에 두었던 돌들이 팻감 역할을 하면서 상대 돌들을 역을로 잡거나 진영을 부수면서 살아나오게 되는 방식으로 90% 정도는 이겼는데요 웃긴 건ㅋㅋ 팻감으로 수많은 돌을 살리고 역으로 상대 돌을 다 잡았지만 인공지능 집이 너무 커서 지는것도 비슷하네요ㅋㅋ
구미권 아마 단이 헐렁한거 감안하면, 거기서 아마 6단이면 온라인 바둑 타이젬, 오로에서 끽해야 7단 정도일텐데, 그 정도 기력이면 "정상적으로 둬서" 인공지능 상대로 4점, 5점 깔고 승률 50% 이상 내기 힘든거 맞죠.
AI가 만능이라는 분위기때문에 서서히 자동차, 의료등 인간의 생명을 맞길려는 시대에
그냥 단순히 허허 할 문제가 아니라고 봅니다.
바둑을 아예 모르는 사람도 아니고 아마 6단인 사람이 저런 수를 찾아냈다는게 참 대단한 것 같네요. 기존에 머리에 배인 모든 관습을 타파하고 생각해냈기 때문에 가능했던 거겠죠.
ㅋㅋㅋ 바둑 모르는사람이 어떻게 찾냐.
기존 관습 타파하는 게 어렵다는 사실을 자기가 안다는 걸 어떻게든 티내고 싶으셨나 봄 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
ㄴㄴ 저거 인공지능 수준이 낮아서 그런거에요
알파고에는 안통합니다 알파고는 딥러닝으로 스스로 자기 자신과 대국을 펼칩니다
즉 인공지능 vs 인공지능 대국을 끊임없이 학습합니다 저런 수에도 다 대응이 되어있어요
제 생각엔 오히려 바둑을 알고 있기에,
심지어 딥러닝 구조까지 알고 있기에 가능한 것으로 보이네요.
물론, 허점의 발견을 다른 AI를 통해서 얻은 거지만요...
왠만한 프로 바둑 두는 사람이라면 이미 졌다거나 이겼다고 생각해서
수상전을 하기보다 다른 수를 둘 생각을 하기에
AI가 학습했던 기록들에서는 저런 수상전에 관한 기록이 없던 것으로 보입니다.
저 미국 대학생은 이 점
(인간이라면 어짜피 질 싸움인 수상전을 잘 안함으로 저런 수상전은 딥러닝이 학습할 기록으로는 굉장히 드믈다)
을 깨닳은 거겠죠.
고로 딥러닝 AI로서는 수상전에 대해 파악과 대처 행동을 보여줄 수 없는 겁니다.
딥러닝AI는 플레이어들의 바둑 기록들을 토대로 학습하는데,
그 기록들을 토대로 생각해서 두는 것은 아니기 때문인거지요.
쉽게말하면,
학습된 기록들을 전부 연산해서 얻은 확률을 기반으로 두는 기계일 뿐입니다.
딥러닝 AI가 생각하고 의미를 추론하는 구조가 아니다보니,
학습할 때 데이터의 의도를 전혀 배울 수 없으며
학습 데이터가 편중되면 그 편중된 상태로 배워서 편중되게 변합니다.
그래서 수상전이 없는 데이터들로 학습된거였으니
그 결과인 확률에 따르면 수상전에 대한 대처를 할 수 없는 거지요.
즉, 선수들은 불필요한 싸움이라 하여 저런 수상전을 무시하듯 AI도 무시는 했지만
선수들은 하나같이 무시했기에 수상전에 대한 방어 기록은 없어서 AI가 어찌하지 못한 걸로 보입니다.
허나, 결국 저 문제도 수상전에 관한 기록들을 추가적으로 학습시키면 해결돼는 문제라
앞으로의 큰 문제는 아닌것으로 보이네요.
바둑만 두는 사람은 AI를 못 이기겠지만
프로그래머라면 이길 수도 있을것 같네요
AI의 패턴을 연구하는데 훨씬 유리하니까요
이거 나오자마자 AI개선해서 막힐것임
감사합니다. 재밌습니다. ㅎ
이쯤되면 이세돌 다시 바둑계에 복귀해야되는거아냐??ㅋ 인공지능이 이런치명적 오류때문에 인간보다 앞서질 못하는거같음 단순연산은 빠흔데 결국 타개하는거나 응용이없음
저는 바둑은 잘 모르니까 인공지능의 기본 원리에 대해서 설명을 좀 해보죠. 기본적으로 우리가 인공지능이라고 칭하는 딥 이라고 붙어 있는 것들의 정체는 일반적으로 병렬처리에 특화된 신경망 알고리즘을 지칭합니다. 그 중에서도 보통 트랜스포머라고 하는 모델을 사용하는데 기본적으로 해상도라고도 합니다만 어떤 결정을 큰 그림 과 작은 그림으로 나누어서 처리를 하게 됩니다. 그런데 큰 그림 이라는 분야 자체에서는 무적입니다. 또한 작은 그림 에서도 무적입니다. 근데 큰 그림과 작은 그림 과의 사이의 전환은... 미묘합니다. 바둑 인공지능 뿐만이 아니라 모든 딥러닝이 다 그렇습니다. 요즘 뜨는 chatGPT 도 마찬가지인데.. 큰 아젠다 던지면 완벽하게 나옵니다. 작은 디테일적인 문장을 넣어줘도 완벽한 답변이 나옵니다. 하지만 큰 아젠다 던진 후 그 안의 작은 디테일을 따지면 거짓말 하기 시작하죠.
그림 그리는 인공지능을 예로 들어 보죠. 큰 레이아웃을 제시하고 조건을 나열하면 끝내 주는 그림을 그려줍니다. 근데 손가락이 어색하네 손가락만 바꿔죠. 이런 거 잘 못합니다. 물론 실제 해상도 쉬프트는 자동차 기어처럼 여러단계를 거치기 때문에 저런 걸 발견하기는 쉽지 않을텐데.. 대단하네요.
Pca처럼 차원압축 과정에서 헛점이 생긴다는 말씀인가요?
역시 사람은 대단해~~
대단하네요. 단점을 찾아네는 프로그램이라니... 바둑 인공지능은 아득히 먼 세상 천상계 바둑을 두는 줄 알았는데 이런 약점이 있다니...
올렸던거 지우고 다시 편집해서 올렸네요. 진 바둑 찾는데 시간이 오래걸렸는데 그게 왜 편집이 안됐나 했음.
그리고 대학생은 아니고 박사과정이라고 자기가 방송해놓고 대학생이라고 제목 달면 어쩌나... 박사과정과 대학생은 천지차이이고 대학생들한테는 교수나 다름없는데...
노벨상 받는 사람들 업적은 대부분 나이먹어서의 업적이 아니라 20대 때의 업적인 경우가 대부분...
다음은 전 영상에 내가 댓글을 달았던 내용인데...
1.
컴퓨터가 아무리 연산능력이 좋아도 다음수 다음수 넘어가는 모든 가지치기의 경우의 수를 계산할 수는 없어요.
모두 아시다시피 바둑의 경우의 수는 계산불가로 크니까...
그래서 선택과 집중을 합니다.
깊이 들어가서 연산할 필요의 가능성이 거의 없다고 판단되는 쪽은 그만큼 연산을 덜 합니다.
2.
바둑은 두 집이 있으면 삶이 확정이죠.
저 방법의 모양은 두 큰 집이 있는 모양이 됩니다.
그런데 막상 삶을 판별하려면 여러 수를 들어가야 하고 경우의 수도 많아지는데
매번 그런 연산을 하면서 확인하는 것은 낭비고 연산할 필요성에 대한 가중치가 0에 가까왔던게 점점 더 0으로 떨어지는거죠.
바둑인들은 바둑을 어떻게 이겼느냐가 관심사겠지만
인공지능 연구자들한테는 이런 취약점을 또 어떻게 해결할지가...
계속 예 예 하시는 말버릇이 있으시네 한번 신경쓰니까 계속 들리네 ㅋㅋ
인공지능이 잡은 영역은 바둑알을 따내기 전인데도 이미 자기 집으로 인식하고 이 영역을 둘러 쌓은 바둑알이 살기 위한 두집을 지키기 위한 수 싸움은 알고리즘에서 빠져있는듯 하다.
이는 간단하게 프로그램으로 보완이 가능하며 이와 유사한 결점이 더 있을듯 하다.
"지금의" 인공지능이 무엇때문에 속았는지 그 근본적인 원리는 원인과 다르게 의외로 간단, 그 인공지능이 가지는 자신의 주체적인 승률이 상대보다 높다면 인간의 끝내기 상태에서 그 인공지능이 하는 계산은 아주, 아주 일정한 종류의 낙관에 빠진다는 점.
만일 그런 아주, 아주 일정한 종류의 낙관이라는 아까와 같은 관념에 빠지지 않도록 하는 계산 장치를 지금의 컴퓨터들에게 입력해준다면, 이런 일은 컴퓨터가 금방 읽는다는...
이상 문외한이었습니다 ㅋㅋㅋㅋㅋㅋ
이미 잡은 고기에게 먹이를 주지 않는 AI의 맹점이네요 ㅎㅎ
잘 감상했습니다.
모든 경우의 수를 않보고, 몬테칼로 방법이라....
잘 알려진 패턴에서 벗어나면 계산을 안하는거지....
안 보고
처음보는데 입담이 ㅋㅋㅋ 너무재밌네요
AI가 수천년(인간의 시간을 환산했을 때)의 시간동안 발견하지 못한 승리법을 인간이 찾아냈내요. ㅎㅎㅎㅎㅎㅎㅎㅎㅎㅎㅎㅎㅎㅎ
앞으로는 인간이 절대 못 이길거라고 생각했는데,
'절대'라는 건 없네요. 감사합니다.
주제와 관계없지만..눈감고 들으니 노홍철님이 말씀하는 줄 알았습니다.. 좋아 가는거야~.. 죄송..
과유불급을
인공지능이 모르는게 함정인듯....
이분은 바둑을 이기려는게 아닌
인공지능을 이기려 하셨네
멋있네요....
게임 버그 찾는거랑 비슷한것 처럼보임 저런거 발견하면 개발자가 패치라고 또 발견하면 패치하고
이세돌9단 4국에서 발생된 전역탐색의 한계가 이 곳에서도 관찰되는 것 같습니다
김성룡 사범님은 천재에요.
Ai 완급 조절만 하면 더 완벽해지겠네요.....
이를테면,형세 판단에서 15집~ 20집 정도이상
차이날경우 약간의 이득보다 보강수를 우선 생각하게 해서 2~3집 손해보고 더 강하게 승부를 굳힐수있는 수를 둘수있게 하는 프로그램 추가.
마치 이창호9단 처럼...
그리되면 15집 우위에서 7~10집우위로 끝나지만 승리는 100퍼센트 확실하게 되겠죠.
딥러닝은 알고리즘으로 프로그래밍 한게 아니라서 그런식으로 되지 않습니다. 코어를 2개 만들어서 형세가 벌어지면 예전 1급 수준의 알고리즘 기반 프로그램으로 교체할 순 있겠네요.
그냥 룰만 입력한겁니다
@@united.states 딥러닝이면 KK님 말이 맞는데 강화학습으로 학습시킨거라서 R님 말 처럼 reward 설계를 오류없게 다시하면 해결되는건 맞죠
대신 reward를 바꾼다고 학습이 된다는게 보장되는건 아니지만 될 가능성이 높죠
살고자 하면 죽을 것이오, 죽고자 하면 살 것이다
가끔 슈카 통해서 접하는데 너무 재밌는 얘기네요 😂
프로기사와 컴퓨터 연구자의 관점 차이라고 할 수 있겠네요. 인공지능을 프로 기사는 바둑 실력으로 상대를 생각할 때, 컴퓨터 연구자는 알고리즘이라는 관점에서 먼저 생각하기 마련이니까요. 이제까지의 검증이 프로와의 경기실력으로 알고리즘을 테스트 하여왔으니 보이지 않았던 알고리즘이 가지는 약점을 찾아낸 셈이네요.
이번 영상을 보고 느끼는것이 달걀을 세워보라고 하니까 징기스칸이 달걀을 깨서 세웠다고 했는데 딱 그쪽이내요
이네요
그럼 인제 인간과 AI의 하이브리드인 리시안하오가 지구 최강이네.
즉 인공지능은 확율편향이라서 확율이 확실한곳 보다는 이길수 있는 다른곳을 모든 계산을 편중하는 단점이 있다는 것이군요.
인공지능도 지금껏 세상에 나온 기보를 바탕으로 확률을 계산해서 최선의 수를 둠으로 사람이 제대로 둬선 이길수 없지만 지금껏 듣도보도못한 방향으로 바둑이 흘러가면 인공도 기계에 불과할뿐 생각을 인간처람 하면서두지는 못하는듯..그러나 이것또한 인공이 학습을 하면 보완을 해서 완벽해 지겠죠..작업이 통하지 않겠죠 그땐
기보 바탕으로 학습하지 않습니다. 최근 인공지능 바둑은 인간의 기력에 조금도 의존하지 않거든요. 저건 연산력을 줄이려는 '최적화' 과정에서 헛점이 발생한 겁니다.
인공지능이 자기 승률이 + 되는 수를 우선 선택하고, - 되는 방법을 선택하지 못하는 허점을 공략하신거네요. 대단하네요.
ㅋㅋ재밌네요
인공지능이 인공지능의 약점을 파악해냄 그 기보를 이용해서 아마가 연습으로 인공지능을 압도적으로 승리함
인공지능의 맹점은 흐름의 맥락을 사람만큼 빨리 판단해내지 못함
이 약점도 데이타를 제공한다면 스스로 학습하고 보완할것은 시간문제일뿐
인공지능이야말로 진정한 강강약약이네요..
강한 사람한테는 폭풍처럼 강력하게 찍어 눌러버리고 약한 사람한테는 산들바람처럼 부드럽네요 ㅋㅋㅋㅋㅋㅋㅋ
진정 인공 지능이라면 이런 허점을 학습하여 대비해야 되는거 아닌가? 아니면 개발자가 버전을 업데이트 해야 하나?
대단한 사람인건 인정 해야겠습니다.. ㅋ
진짜 이기는 방법은 6:30 초부터 나오네...
인트로가 길어도 너무 길어요 아재...
고작 바둑좀 두는 아재잖아요 궁굼한 놈이 이해하고 봐야죠 뭐
??? : Game.. jog...ga..chi...do..ne...
과거에 유명한 바둑기사 보면 ,바둑의 신이 있다면, 5집반 6집반 으로 덤으로 승부가난다거나. 바둑을 둘대 100수 를 본다 200수까지 본다 1위기사가 이런말 한거 같은데.결과적으로 , 이런수는 아무리 100수 200수 를 보든지.. 덤으로 승부가 난다든지 전부다 오류인거 같네요.
무엇이든 파훼법은 있다는거군여
고수들이 하수 가지고 놀때 하던 방법이네..ㅎㅎㅎ 정신 차려보면 어느 새 죽어 있음
복잡할게 없이 학습되지 않은 기보라서 그렇습니다.. 뭔 인공지능에 의미부여를 ㅈㄴ 하시네ㅋㅋㅋㅋㅋㅋㅋ 어차피 저 상태로 계속 학습해내면 저것도 못이김
꼭 이런방식뿐만 아니라 ai가 진화되도 결국은 ai 이기에 승리는 ai가 해도
인간의 바둑방식을 따라잡을수 없는 한계가 있고
아마 그부분은 (감정이라는 부분)ai가 극복을 못할겁니다. 아마 이런 헛점들이 계속 발견될겁니다.
그건 딥러닝이나. 학습으로 되는게 아니거든요
가령.
ai의 진행과정을 보면 확률이 높은곳에 둔다, 그리고 그게 맞다고 단정하고 확정을 짓는 과정을 거친다.
그게 ai 입장에서는 최선의 선택이고 그외에는 다른 선택을 할수가 없음. 오로지 확률에 따른 자리이기 때문에.
확률이 낮은 자리에 굳이 두지 않는다는 맹점을 가지고 있죠. 그럴 이유도 없고..
인간은 역시 확률에 따른 자리를 두었어도 비록 내가 그자리를 정했어도 잘못된 확률일수도 있다고 매번 의심의 여지를 남기고
계속 점검한다. 즉 이미 둔거라서 취소는 할수 없지만 확정을 짓지 않는다.
ai가 봐도 인간의 자리가 100% 자리라고 해도 인간은 그걸 100%라고 여기지 않는다는거죠.
여기서 ai 와 인간의 차이가 벌어집니다. 즉 생각하는 방식이 전혀 다름.
그리고 둔 수에 대한. 애착과 편집증상으로 인해 어떻게든 그쪽을 중심으로 이어가거나 살릴수 있는 여지를 남긴다.
즉 인간의 확률은 이미 착수한 지점을 중심으로 관심과 편애하는 경향이 있어 다시 그자리를 중심으로 확률이 낮은 자리라도
확률때문에 두는게 아니라 자신이 이미 둔자리에 대해.그 주변이라도 확인사살 하는 차원이라도 착수를 하려는 경향이 있음>
즉 확률바둑을 하면서도 동시에 편집증적인 감정바둑을 하기 때문이죠.
그걸 선호하는 경향이라는 감정적인 부분이고.그래서 기사마다 각자 스타일이 생겨나는것이고..
그런데 ai 는 인간이 확률을 낮은자리에 둬도 왜 그자리에 두었는지 무슨 의도가 있는건 아닌지 의도를 파악하는 로직까지는
갖추지 못했다는 것이겠죠. 즉 확률계산만을 하는 ai이지 의도를 파악하는 ai는 아니라는 겁니다.
그건 인간만이 상대의 의도를 궁금해하는 의심이라는 단어로 표현되는 감정의 영역 일테고요.
만약 ai마저도 확률이 낮은 자리에 두면서도 이기는 상황까지 와야 ai가 진짜로 완성되었다고 볼수 있겠죠.
하지만 ai는 그런 선택을 할수가 없죠. 그러면 자신의 로직이 뒤죽박죽 되버리니까.
확률 로직을 조금 바꾸면되는 부분이라 불가능한건 아닙니다.
골 때리네ㅡㅡ체스 인공지능의 약점을 20년동안 전세계 천재들이 찾았는데.아직도 못찾았는데..바둑을 찾아....역시 체스가 더 어렵군.ㅋㅋㅋ
그보다 바둑이 더복잡해서 저런 약점이 생기는거...
@@서원용-y2r 그건 아닌거 같은데....ㅋㅋ인공 지능바둑이 아직 완성되지 않은 거겠지....
체스는 경우의수가 바둑에 비하면 한참 적어서 이미 극한으로 가면 무승부게임이라는게 증명됐습니다. 인간이 비길 수는 있어도 이길 수는 없어요
@@chess5567 문화사대주의자 이신건 아니겠죠? 체스랑 바둑이랑 경우의 수 차이가 너무 심한데....
@@서원용-y2r 야..너 바보냐..ㅋㅋㅋ경우의수가 많다고 그 걸 인간이 다쓰냐...체스의 경우도 인간이 10분의 일도 생각못하는데...내가볼때...바둑이 경우가 많지만 인간생각하는 경우의 수는 한정적이지 .맨날 쓰는 경우의수만 생각하지..ㅋㅋㅋ
정확히는 인공지능의 헛점을 인공지능으로 찾아냈고 그걸 사람한테 가르쳐서 이겼다고 합니다
AI가 먹은거 최대한 지키면서 조금만 이득보면 되는데 극한의 이득충이라서 진다는 것이군요. 나중되면 지키는 것이 더 승률이 높다고 판단하면 굳히기 들어가겠네요. 인간은 더더욱 감질맛 나게 져서 이길듯 이길듯 한번도 못 이길듯....
그래서 자율주행이 안된다는 겁니다.
멋지네요
"중요한건 꺾이지 않는 마음"
반대로 이 분이 인공지능을 아는 아마추어 바둑을 두는 분 이었기에 만들 수 있는 수였다고 생각합니다
프로레벨이었으면 이런 수는 절대 생각 안할거라 보거든요. AI도 이런수는 배운적이 없었을고요
요즘 ai는 수를 배우지 않지 않나요 기보분석도 없고 그냥 본인이 본인하고만 둬서 깨우치는..
이정도면 이겼으니 만족하고 보강을 해야겠다는 것은 인간이어서 느끼는 만족이라는 감정이지요.
아직 AI는 이러한 만족의 감정이 없고, 극대화라고 하는 효율만이 있을 뿐이니 이것이 AI의 단점이되겠군요.
앞으로 이러한 단점도 보강이 되겠지만, 인간의 모든 감정을 다 흉내낼 수는 없을테니 앞으로도 인간은 계속 쓸모가 있겠지요...
불가능할것만 같았던일도 어딘가에 해결점이 있었네요.
인간의 반격
이미 잡아서 집이라고 생각하고 사활을 못 보네 신기하다
사람이든 기게이든
약점은 있네요
바둑이든 LOL이든 이기려면 공학적으로 접근해야 한다.
강화학습에서 reward function을 단순히 집을 크게 가져가는거에 치중해서 설계되었나보네요
Reward function을 좀더 잘 설계하면 해결되겠네요
아는척 지린다!
@@moneyh1213 그쪽 종사자인데요?
@@moneyh1213 작성한 다른 댓글 보니깐 어린 관종이네요 그냥 무시해야겠어요
바둑계의 유재석 성룡형님…
뭔가 이것도 금방 픽스 될 것 같다는 생각이...
심판이 없는게 신의 한수 같네요
저 정도 처 맞으면 뜯어 말릴텐데
그로기 상태에서 마지막 카운터 펀치를 알고 있네요
인간도 약점이 있고 AI도 약점이 있고. 문제는 AI는 쉽게 그 약점을 보완할수 있다는 것. 이제 이방법으로는 못이기겠네.
게임 스타크래프트에서 초반에 일꾼으로 적 일꾼 때리면, 일꾼들은 반격 한다고 우루르 몰려와서 그 한마리 죽이러 오다 자원을 못캐고 바보가됨
1:1로 싸우면 죽을수 있으니 다른 일꾼까지 우르르 몰려와 죽이는 방법(이길수있는 최고의 확율)로 대처하는거
하지만 ai는 얼마나 바보같은 인간의 심리전에 말려든지 알수가없음(확율만 계산하기때문)
바둑도 이 방법은 아무리 보완을 해도 비슷한 방법으로 해답이 계속 나올듯합니다.
이건 버그가 아니고 딥러닝 ai 의한계라 생각합니다.
실제로 인간처럼 생각을 하는 방식이 아니기 때문에
인간이 만든게 인공지능이다
그러니 인간이 인공지능을 이길수 있는건 당연한거지
이세돌은 이걸 세판만에 느끼고 알아낸거네 ;;;; 끼운수도 결국 안되는수로 판명은 났지만 알파고의 가지치기에서 짤린수였다는거 아니야 ;;; 이세돌이 왜 위대한지 또 느껴버리네
알아내고도 마지막은 인간적인 바둑을 두겠다고한 이세돌 사범님
바둑 역사상 최고 고수에 임명합니다..실직적 세계 최강입니다 ㅋㅋ
그러게요 ㅋㅋ 재밌습니다
게임 고인물들 접근방식으로 해결하셨네요 ㅋ
유튜브에 어려운 겜들 스피드런같은거 하는 분들 영상보면
다들 정상적인 방법으로 안하죠
보면 이걸 어떻게 생각한겨 이게 됨? 이런방식으로 껨
재밋따잉
인공지능 개발자 입장에서
한말씀 드리자면,
저 바둑 인공지능은
강화학습이 덜 돼서 저런 상황이 발생한 겁니다.
강화학습을 a~z까지 진행한다면,
저런 꼼수는 통하지 않을 겁니다.
그러저나
제가 인공지능이었나 봅니다.
바둑 두다가
항상 저렇게 당했는데.
그래서
기분 나빠서 바둑 안 뒀는데
01:02 꺾이지 않는 마음
서양인이 찾았다고 하지만 실직적으로 파훼법을 찾은건 또다른 AI라는거 아님? 암튼 저 데이터를 AI가 학습할 수 있게 서버로 전송하는순간 끝이라는거 ㅋㅋ
맥길 대학교면 사울이랑 동문이네요.. 대단합니다.
전투에선 이겼으나 전쟁에선 졌구나.
흠 죄송하지만 훈련 데이터에 이런 식의 패턴이 아예없었기때문에 발생한 일입니다. 이것과 비슷하게 두는 기보만 몇번 (그래도 제법 많은양 사람에게는) 추가해서 훈련하면 다시 사람이 이길수 없게될겁니다. 인공지능이 못이기는 패턴이라기보다는 덜 훈련되었기에 사람이 이길수 있았다이고 이것이 인공지능의 맹점이라면 맹점일수 있겠지만 너무나도 쉽게 보완가능한 맹점 입니다 :)
아뇨 그렇게 단순하게 보긴 힘든 문제입니다. 바둑은 게임의 규칙과 승리조건이 명확하기 때문에 인공지능이 학습을 하는데 필요하는 목적함수가 명확합니다. 또한 규칙이 일관되기 때문에 별도의 학습데이터 없이도 셀프 트레이닝만으로 충분히 학습이 가능하다가 지금까지의 연구 결과였습니다. 그런데 이건 그렇게 명확한 규칙과 목적함수를 가진 분야에 대해서조차 딥러닝 기술이 예외상황을 예측하지 못했다는 뜻이라 학술적으로 여러 시사점이 있어보입니다.
딥러닝 인공지능은 기보를 학습시키는 기존의 인공지능이 아니라 규칙만 입력한 상태에서 스스로 바둑을 두며 학습하는 방식입니다. 전 인류가 둔 횟수 이상의 바둑을 두며 학습했음에도 이러한 패턴을 인공지능이 깨닫지 못했다는 점에서 단순히 이기는 꼼수를 발견했다는 가벼운 맹점이 아니라 여러 분야에 적용될 수 있는 발견입니다. 윗 댓 말대로 딥러닝을 통해 인간의 데이터에 의존하지않고 스스로 무한히 학습해서 완전무결에 가까워진다는게 핵심이었는데 지금까지 어마어마하게 딥러닝했음에도 이런 초보적인 맹점이 튀어나왔다는 거니까요
그렇게 볼수많은 없는게 수많은 기보를 가지고 훈련을 시킨것은 사실이고 이게 reinforcement learning 으로 훈련 시킨다고 해도 rule은 기존에 나와있는 프로들의 기보를 많이 참고해서 만들었다고 이야기를 들었습니다. 그럼 프로들의 기보에 저런식으로 두는게 있았을까요? 답은 없았다입니다 ^^ 얕은 지식 수준으로 너무 깝치지 마시길...
패턴이 없었다고 변명하기엔 인간과 세계는 창조적이고 예측불가능한 돌발상황이 너무 많죠. ㅎㅎㅎㅎㅎ 과연 너무나도 쉽게 보완가능한 맹점일까요? 현재 이미지 인식, 음성인식, 자율주행을 보고서도 정말 너무나도 쉽게 보완가능한 맹점수준으로 진단하시나요? 얕은 지식수준 운운하셔서 좀 배우고싶네요. 인공지능의 기초도 모르는 모지리를 부디 불쌍히 여겨주시고 가르침을 주세요.
@@sunghoshin8195 이미 이세돌과 대국을 뒀던 알파고부터가 트레이닝 데이터 없이 학습한 모델이었습니다. 학습의 편의성을 위해서 Pre-trained model에만 기존 기보가 사용되고 그 후엔 그 어떤 기보도 없이 비지도 학습으로 학습되었습니다. 중요한건 이번 바둑 인공지능의 결함은 인간은 결코 하지 않을 오류라는게 큰 문제입니다. 이것은 상확을 이해하고 있다면 일어날 수가 없죠. 즉 생각보다 쉽게 인간이 하지 않을 오류가 규칙이나 목적이 명확한 게임에서도 발견된다는건 현재의 ai 모델들로는 상황을 이해하고 분석하는게 현 시점에선 불가능하다는 뜻이란 것이고 chat gpt나 자율주행에선 심각한 문제를 야기할 수도 있는 문제란거고요.
이쯤되면 저 논문 재현성 확실하네
뭐여, 천룡팔부 진롱이여 뭐여
강강약약 상남자 그자체 ㄷㄷ
죽은자식 불알을 왜 만지고있나했더니 불알들을 뭉쳐서 철퇴를 만들고있었네요!
chatgpt도 사람이 해주는 개소리에 약한데... 그런느낌이네요
와우.. ㅎㅎ.. 최고의 해설이었습니다. 그런데, 아드님은 성공하셨나요?
똑같은말을 너무 너무 너어어어어무 많이 반복반복반복 똑같은 말을 너무 반복 너무 똑같은 말을 계속 너무 반복 똑같은 말을 반복
훌륭하네. 박사 지위를 줘야 겠다.
수상전에 약한 이 약점을 가지고 프로기사가 정상적으로 두면서한다면 이길수 있을까요?
알파고 기보보면 다 알고 두던데
죽었다고 판단하면 절대 가일수안한다는 것을 이용한거네.. 사석기만전술ㅋㅋ
결국은 그걸 알낸것도 인공지능이네 ㅋㅋㅋ
Overfitting에서 절묘한 약점을 찾았네
야...저게 사실이라면...직접 둬봐 되나.ㅋㅋㅋ..ㅋㅋ 안될걸 말이되나..ㅡㅋㅋ 어처구니가 없다.
인간 반격의 시작이다..ㅇㅇ''
허허.. 인공지능이 이렇게 허물어지나요? 리쉬안하오야? 봤냐?