존 설 : 중국어 방 논증

Поделиться
HTML-код
  • Опубликовано: 11 янв 2025

Комментарии • 187

  • @user-fd7bf2dc4q
    @user-fd7bf2dc4q Год назад +284

    김승리 보고 왔으면 개추 일단 나부터ㅋㅋ

    • @kkk-ym2fg
      @kkk-ym2fg Год назад +11

      Ebs 스키마 익히는 수붕이도 개추

    • @cpcpcpcp-y3v
      @cpcpcpcp-y3v Год назад +20

      6평 때 시그마 AB쓸 토리 개추

    • @platinumju3185
      @platinumju3185 Год назад +1

      ㅋㅋ ㄱㅊ 지금 6모1일전 호대닥와봄

    • @hoon-el3bj
      @hoon-el3bj Год назад +1

      난 지금 벼락치기함 영상 너무 좋아요

    • @user-Lovelyseo
      @user-Lovelyseo Год назад +3

      ㅋㅋㅋㅋㅋ ㄹㅇ 나왔네

  • @임승욱-g6l
    @임승욱-g6l Год назад +83

    김승리쌤이 보라고 해서 봤는데 아주 좋네요!

    • @user-Lovelyseo
      @user-Lovelyseo Год назад +2

      6평 (가 )(나) 지문 날먹했으면 개추ㅋㅋ 0:01

  • @그랜나루
    @그랜나루 5 лет назад +57

    '사실 전 안드로이드.' 내 그럴줄 알았어.
    박사님 첨부터 이상했음. 이상하게 목소리, 내용, 외모, 화법, 지식의 조화가 너무 다 잘어울렸음.
    보는 걸 멈출수가 없네.

  • @김미나-e7o
    @김미나-e7o 6 лет назад +25

    뚝딱철학덕분에
    공부하는 맛~~ 쏠쏠합니다
    오래오래 많이많이 올려주세요~~

  • @엘씨-f5m
    @엘씨-f5m 5 лет назад +8

    애초에 생각한다라는 개념 자체가 인간이라는 존재의 틀 안에서 인간의 생각으로 만들어진 개념이기 때문에
    튜링테스트에 의해 생각하는 존재로 밝혀진 인공지능이나, 중국어 방이나 생각하는 존재냐 아니냐를 따지기보다는
    기술의 발전에 발맞춰 인간의 생각에 대한 개념이 변화하고 어떻게보면 발전?해나가는 거라고 생각합니다

  • @philosophychannel6148
    @philosophychannel6148 6 лет назад +20

    제가 운영하는 700명 조금 안되는 철학 커뮤니티에도 뚝딱철학 홍보했어요!

  • @philosophychannel6148
    @philosophychannel6148 6 лет назад +11

    정말 좋은 채널입니다!!

  • @jellypark4859
    @jellypark4859 5 лет назад +5

    이 문제에 대해 답을 내리려면, 인간의 생각하는 능력에 대한 명확한 정의가 필요할 것 같아요. 인간의 논리적 지성만이 생각하는 능력인지, 감정을 느끼는 감성을 포함해야 하는지, 무의식과 자아 초자아까지 포함시켜야 하는지 말이죠. 그리고 인공지능을 어느 수준까지 발전시켜야 인간과 같이 생각할 수 있다고 인정할 수 있는지 합의가 필요할 것 같아요.
    과학이 발전할수록 철학이 풀어야할 논제가 많아지는게 재밌네요. 그리고 우리도 역사의 한 부분에 살고있다는게 실감이 납니다.

  • @asdqwe8921
    @asdqwe8921 4 года назад +2

    ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ 엔딩 웃겨욬ㅋㅋㅋㅋㅋㅋㅋㅋㅋ
    내용도 엄청 재미있네요 다음에 또 보러 올게요 ㅋㅋㅋ

  • @LeLeGotivatioN
    @LeLeGotivatioN 3 года назад +8

    엄청 명쾌하게 설명해주셔서
    다시 봐도 정말 좋습니다.
    튜링 테스트, 중국어방, 시스템 논변.
    각 자의 관점에서
    모두 논리적이고 설득력이 있다고 생각하는 저는
    귀가 참 얇다는 생각이.. ^^;
    좋은 내용, 명쾌하게 말씀해주셔서 감사합니다!!

  • @윤-n3b4d
    @윤-n3b4d Год назад +7

    김승리 brought me here

  • @신유연-b2u
    @신유연-b2u 5 лет назад +4

    전 개인적으로 존설의 주장이 맞다고 봅니다.
    정말 영상 나오는 하나하나 잘 챙겨보고있습니다
    영상 한개한개 여러번 돌려보며 이게맞나? 저게맞나? 사고하다보면
    커리어가 확립되고 이데올로기가 재정립되는듯한 경험을주는게
    5분철학님의 가치와 매력이라고 생각합니다 ㅎ

  • @이민-h6h
    @이민-h6h 2 года назад +1

    0:50 사고실험
    1:10
    4:05
    5:35
    튜링 에 반론하는 존 설

  • @사기꾼진우야내가죽여
    @사기꾼진우야내가죽여 4 года назад +7

    시스템 논변과 관련이 있을 것 같은 질문: 오픈북 시험으로 지식의 이해도를 평가할 수 있을까? 내가 모르는 지식을 책에서 찾아서 문제를 풀었다면 그 지식을 내가 이해한다고 말할 수 있을까?

    • @philein6734
      @philein6734 3 года назад +1

      제 생각은 이렇습니다. 법조문을 단순히 외우는 것과 법전을 들추고 판례를 찾아서 법을 실제로 적용 시키는 것은 판이하게 다른 일입니다.
      이해가 없다면 법전은 짤막한 문장의 모음집에 불과할 것입니다. 이것을 적절히 이해하고 조합해야 사실관계에 따른 법 적용을 할 수 있습니다.
      그래서 어떤 케이스에 관해 적절한 자료를 선택해 논거를 제시할 수 있다면 그것 역시 이해한다고 말할 수 있을 것입니다.

  • @david-ji8tw
    @david-ji8tw 5 лет назад +3

    사실 인공지능이 의식을 가지고 생각 자체가 불가하다고생각합니다. 로봇청소기도 결국 if 조건문 코드로 잡아두고 배터리특정값 이하로 떨어질시 충전 해라고 알고리즘 짜둔거고.. 인공지능도 ai자체가 소스를 맘대로 수정하고 짜고 그러면 모르겠는데 인간이 많든 알고리즘에서 돌아가는거라서 결국 그 설계하는 사람 이상으로 뛰어넘기가 불가능하죠. 만약 의식이 있다면 자기가 소스를 고치고 알고리즘을 수정하고 그걸 할수 있어야 가능한데,, 어쨋거나 설계자(코드짜는사람)의 손바닥 안이라고 생각합니다. 설계자를 벗어나는 인공지능은 불가능하다고 생각합니다.

  • @eekfrl53
    @eekfrl53 3 года назад +2

    알고리즘떠서 2년 전에 올리신 영상을 보게됬는데 역시 재미있고 쉽게 알려주시네요..항상 잘 보고 있습니다☺️☺️ 감사합니다!

  • @nineone1902
    @nineone1902 5 лет назад +5

    생각의 범위에 따라 다른거군요 ㅎㅎ AI(딥러닝) 현업자로서 정말 재밌게 봤습니다! 특히 시스템 논변이라는 게 가장 와닿았어요! 인공신경망의 성능은 바로 그 시스템. 즉, 네트워크와 데이터의 질에 있다고 생각합니다 ㅎㅎ

  • @worldhola5090
    @worldhola5090 5 лет назад +1

    시스템 논변은 결국
    존설의 예화로 한국어를 하는 우리의 몸 조차 한국어의 질문이 귀로 들어가 안에 있는 어떤 사람이 한국어 책을 보면서 거기에 맞는 적절한 답을 찾아 입으로 뱉어내듯이 결국은 사람이 생각하는 방식과 기계가 생각하는 방식이 똑같다고 보는게 옳다라고 하는 얘기군요.

  • @요리동생-w1t
    @요리동생-w1t 4 года назад +12

    인간끼리 튜링 테스트를 했는데 마음이 안 맞아서 상대를 가짜라고 생각한다면? 그 사람은 생각하는 능력이 없다고 할 수 있을까?

    • @주차돈
      @주차돈 4 года назад +1

      인간이니까! 가능한 생각이네요

  • @paulhan6728
    @paulhan6728 5 лет назад +1

    인간의 지능과 기계의 지능은 동일합니다.
    지능이란 것은 결국 논리집합일 뿐이라 뉴런으로 이루어져 있든, 반도체 칩으로 이루어져 있든
    하드웨어와 상관없이 소프트웨어의 문제로 회귀되어 둘 사이의 구분은 불가능해 질 것입니다.
    현재의 인공지능이 지능이 아닌것 처럼 느껴지는 것은 인간이 가진 논리 집합보다 작은 논리 집합만을
    가지고 있기 때문에 현재 상황에서는 그렇게 느껴지는 것일 뿐입니다.
    시간이 지나서 인공지능이 인간수준의 논리집합을 가지게 되면
    그때는 기계도 진정한 지능을 가지고 있다라고 말할거라고 생각합니다.

  • @vanchamarch3998
    @vanchamarch3998 5 лет назад +2

    재밌네요ㅋㅋ
    처음 중국어 방 논증을 들었을때나 튜링 테스트를 들었을 땐 잘 이해가 되지 않았는데 듣고보니 일리가 있는 주장이었네요
    저는 존 설보다는 시스템 논변 쪽이 맞다고 생각합니다. 예를들어 저는 중국어를 못하지만 저에게 완벽한 중국어 통역 기계가 있다면 그 기계를 가지고 있는 저는 중국어를 할 수 있는 것으로 봐야한다고 생각해요. 더 나아가서 기술이 충분히 발전된 후에 그 기계를 소형화시켜 뇌에 삽입한다면 저는 누가봐도 그냥 중국어를 잘하는 사람처럼 보일것이고 저 또한 그 중국어 능력이 기계에서 나오는 것인지 뇌에서 나오는 것인지 구분을 못하니 스스로 중국어를 할 수 있다고 생각하겠죠. 그런 상황에서 저를 보고 중국어를 못한다고 하기는 어려울 것 같네요.

    • @asmoonlightkr
      @asmoonlightkr 3 года назад

      님 글 보면서 든 생각인데요, 다른 사람은 구분을 못해도(중국어를 잘하는 것처럼 보여도) '나'는 과연 중국어를 진짜 할 수 있는지/이해한것인지..스스로 질문하면 '중국어'를 이해한 것/중국어를 말할 수 있는 사람은 아닌 것 같아요. 사람과 똑같이 반응하고 말하는 ai에게 당신은 인간입니까?라는 질문에 ai가 스스로 인간이라고 대답을 할까요?..

  • @sinholee3790
    @sinholee3790 Год назад +1

    튜링이 맞아요. 사람 중에 생각이 없는 사람이 간혹 있어요. '저 인간, 생각이 있는거야?' 의심이 가는 사람요. '그 인간은 생각이 없는 사람이다' 결정 지을수 없어요. 생각이 있다고 보는 것이 타당해요. 생각의 수준의 문제인것 같아요. 인간과 인공지능의 대화에서 구분이 안된다면, 그것은 생각이 있다는 것이죠. 문제는 생각의 수준이 어느 정도냐죠. 그러나 거짓말을 하는 단계가 되어야, 생각이 있다고 주장하는 것에는 어느 정도 동의해요.

  • @안기용-v2q
    @안기용-v2q 5 лет назад +13

    정보의 우주
    뇌에서 정보를 꺼내 중국어를 하나
    책에서 정보를 꺼내 중국어를 하는것은 같다
    인간도 결국 유전자 알고리즘으로 작동하는 생화학기계라고 봅니다

    • @tridish7383
      @tridish7383 5 лет назад +2

      허나 유전자 알고리즘만으로 인간을 설명하는건 고전역학만으로 지진을 예측하는것과 같습니다
      궁극적으로는 옳으나 실제적으로는 불가능합니다

    • @rainonsea
      @rainonsea 5 лет назад

      알고리즘 설계자가 완전 다르죠^^

    • @dhdp2338
      @dhdp2338 3 года назад

      @@tridish7383 설명이 불가능한 이유가 변수가 많아서기 때문이잖아요
      예를 들면 기온 강수량 바람 등의 수 많은 변수를 다루는 기상예측 시뮬레이션을 하는 컴퓨터는 결국엔 수 많은 덧셈 곱셈으로 환원되서 계산하게 됩니다.
      그런데 시뮬레이션을 돌리지 않고 기상예측을 설명할 수 있을까요?
      못합니다.
      마찬가지입니다.
      유전자로부터 인간이 만들어지는 원리 자체는 설명하기에 너무 복잡하지만 생명체를 만드는 설계도는 유전자인건 분명하죠

    • @tridish7383
      @tridish7383 3 года назад

      @@dhdp2338 조금 복잡한 사정을 이야기해 보겠습니다. 설계도란 무엇일까요? 그림이 그려진 종이가 아니라 그 안에 함축되어 있는 기술자의 정신입니다. 유전자란 무엇일까요? dna? rna? 그 안에 정신이 있을까요? 없습니다. 그럴싸하게 그림이 그려진 종이도 아니예요. 그냥 누더깁니다. 아무리 곱상하게 쳐줘도 데이터베이스의 일부에 불과합니다. 우리는 우선 정신에 집착해 왔고, 기하학과 단순함을 추구했습니다. 유전자라는 허상은 거의 전적으로 그렇게 만들어진 것입니다.

    • @tridish7383
      @tridish7383 3 года назад

      @@dhdp2338 생물은 유전자가 아니라 생물 전체로부터 만들어집니다. 날씨를 설명하는데 고전역학만이 아니라 카오스이론을 들이대는게 훨씬 효율적이듯이 그러합니다.

  • @모두의것을모두에-k9y
    @모두의것을모두에-k9y 5 лет назад +2

    가장 즐겨보는 채널이 되었네요
    내공이 있으시니 빛을 발하시는듯
    가끔 좀더 깊은 내용도 올려주세요~
    지금도 충분히 훌륭하십니다

  • @닭개냥의마당
    @닭개냥의마당 5 лет назад +3

    마지막에 빵 터졌네요 ㅋㅋㅋㅋㅋㅋ
    당연히(?) 존 설 주장에 동의합니다

  • @LeLeGotivatioN
    @LeLeGotivatioN 3 года назад +2

    일단 로봇청소기는 배고픔을 모릅니다.
    배터리의 잔량 수치가
    설정된 값 이하로 내려가면
    충전시스템을 찾아가게 프로그램되어 있을 뿐
    '왜' 충전해야하는지 모릅니다.
    사람을 포함한 생물은
    생존을 위해서 또는 각각의 욕구를 채우기 위해서
    음식을 섭취합니다.
    '왜' 라는 부분에 대한 이해가 있습니다.
    로봇 청소기의 충전과 다릅니다.

  • @jamesjoo9144
    @jamesjoo9144 5 лет назад +4

    인간이 지식체계를 생각해서 이해하는 것과 인공지능은 분명 다릅니다. 예컨대 추석을 영어로 thanksgiving day로 번역하는건 인간이나 기계나 매우 쉽죠. 하지만 기계가 추석과 thanksgiving day의 차이점을 이해해서 설명하는 건 매우 어렵다고 봅니다. 딥러닝이 인간의 사고체계를 모방했다고는 하지만 인간도 사고체계 동작 방식을 이해해서 만든다는 건 다소 무리가 있죠. 칸트가 이 점을 지적했다고 봅니다.

  • @haharlm
    @haharlm 3 года назад

    앜ㅋㅋㅋ 정주행 중인데 한 줄 요약이 넘 재밌습니닼ㅋㅋㅋㅋㅋ

  • @zoobackPark
    @zoobackPark 5 лет назад +1

    와우... 한줄요약이 한 말이 그냥 한것 같지만 어떤것이 인공지능 여기서 인공은 사람이 만들었다는 뜻이지만 사람 세상에 존재하는 온갖 생명체의 의지는 어떤것에 의해 만들어졌을지 모르겠다는 말로 들렸네요... 생각해보니 정말 그럴지도 모르겠어요... 그것이 신이든 아주 작은 아메바든 뭐든간에...

  • @junglegreen5135
    @junglegreen5135 5 лет назад +2

    교수님~~
    재미 있어요~~^^좋아요!!구독!!

  • @bluerain0096
    @bluerain0096 5 лет назад +1

    항상 잘보고 있습니다
    사람도 뇌속에 기억을 저장하는 공간이 있겠고 문제가 주어지면
    그 문제를 인지하고 저장된 기억 공간에서 찾아와 신경경로를 통해서 입으로 전달하는 과정이 시리나 알파고와 비슷하다고 봅니다 시리나 알파고는 저장공간이 광대한 인터넷 공간이겠구요 그리고 사람의 뇌와 같은 빠른 cpu 이겠조
    그런데 사람은 단지 배고파서 밥을 먹으면서도 또다른 통찰력이
    작용하는것 같습니다 이런 행위를 하는 나 자신을 보면서 "내가 지겹게 왜 때만되면 밥을 먹어야하지 먹기싫은데~"라던가
    "나는 왜 태어났지?"와 같은 또다른 생각들요 이게 차이인것 같아요
    이런 알고리즘을 또 인간이 만든다면 점점 더 그 경계는 모호해 질것 같습니다~^^

  • @lililllillll
    @lililllillll 4 года назад +3

    존설이 주장이 맞는거같음.
    로봇청소기가 충전하는건 기기에입력된시스템이지 사람처럼 배고프다고 속쓰리고 손떨리고 뭐먹지 이따먹을까 살찌는데 굶을까 아니야공복은건강에 안좋으니까..그래 그냥 우유로떼우자 이런 자기스스로의 판단으로하는게아니라 인간이 집어넣은 시스템에 대한 행위일뿐인거같음. 생각이라고보기엔 좀...

    • @iffake2541
      @iffake2541 4 года назад

      인공지능끼리 대화하면 자연발생하는 기계어를 만들어냄, 그리고 영화 드론,
      여기서 의견은 없고, 인상만 남아있슴.

  • @choispark
    @choispark 5 лет назад +7

    저는 시스템 논증은 한가지를 간과 하고 있는 것 깉아요. 컴푸터가 기존에 있는 정보를 바탕으로 적절한 대답을 만들어 낼 수 있지만 새로운 것을 만들어 낼 수 있지 않아요. 얼마전에 나왔던 괄도 네넴띤이 팔도 비빔면이라고 사람은 읽을 수 있지만 인공지능은 읽을 수 없습니다.
    알파고에 이세돌기사가 졌지만 딱한번 4판의 78수는 인공지능은 생각하지 못한 수였고 그러 인해 연속적 떡수가 나왔고 그래서 바둑을 포기 했지만 사람이라면 쉽게 포기했을까요??
    그래서 인공지능은 생각을 할수 있는 것 처럼 보여도 그렇지 않다고 보입니다

    • @choispark
      @choispark 5 лет назад

      새로운 정석을 만들었다..... 과연 그럴까요??
      알파고의 정석은 실리에 따른 이득이 지신에게 유리한 수를 두고 그에 따른 수치를 계산한 것입니다. 이것이 일파고의 무서운 점입니다. 하지만 알파고의 한계점이기도 합니다.
      얼마전에 김성룡 해설자가 유투브를 통해 4국의 78수가 프로기사에게는 쉽게 무너질 수 있는 수였다는 것을 보여주었습니다.
      즉 알파고는 집계산을 통햐 자신에게 유리한 대국을 이끌어 나가지만 맥과 사활에선 매우 약한 모습을 보이는 것으로 평가되고 있습니다. 즉 기존에 입력된 데이터로 손익계산은 빠르지만 그렇지 않은 영역에서는 역하다는 것입니다.
      또한 인지심리학의 김영일 교수는 인간만이 할 수 있는 유일한 것은 일초안에 모른다는 대답을 한다는 것입니다. 알파고는 일초안에 모른다고 말할 수 있을까요??

    • @choispark
      @choispark 5 лет назад

      김한결 ㅎㅎㅎㅎ 딥러닝으로 할 수 있는 한계점이 있다는 것입니다. 물론 계산력이기ㅜ때문에 컴퓨터가 뛰어난 부분이 있고 일파고가 승리한 것은 직관력부분에서 컴푸터가 충분히 인간버다 낫다는 것을 증명한 것이기도 합니다. 그러나 사활을 승부 계산에 나오지 않느느부분입니다. 그보다 점더 복잡한 내용입니다. 단순히 계산으로 되지 않는 부분입니다.
      가장 간단하게 잘문을 드리면 한국의 수도는 어디인가요?? 미국의 수도는?? 그렇다면 멕시코의 5번째 도시는 어디인가요?? 첫번째와 두번째는 쉽게 대답할 수 있지만 새번째 질문에는 고민을 할 수 있지만 쉽게 모른다고 말할 수 있습니다.
      그런데 컴퓨터에게 물어보면 어떻게 될까요?? 한참 검색하고 정보를 찾고 찾고 찾고 난뒤에 없다는 답을 할것입니다. 그런데 사람은 모룬다는 것을 쉽게 할 수 있다는 것은 컴푸터와 다른 부분입니다. 물론 지나고 난 뒤에 생각날 수 있지만 망각또한 안간으로서 할수 있는 것입니다.
      때뮨에 모른다는 대답은 쉽게 할 수 있다는 것이 바로 인간과 기계를 가르는 지점입니다.

    • @choispark
      @choispark 5 лет назад

      김한결 저도 자세히는 알지 못합니다. 다만 기께와 인간을 가르는 기준을 현재 학자들, 인지심리학자들 기준으로 보면 모른다는 답을 인간만이 일초안에 말할 수 있다는 것이지요.
      만약에 인공지능에게 어떤 질문을 하고 답을 구하면 모른다고 바로 나오지 못합니다. 왜냐하면 정보검색을 해야할 뿐만 아니라 모른다는 답을 하기 위해서는 내가 어떤 정보에 친밀한지에 대해 감을 가지고 있어야 하기 때문입니다. 한국과 미귝은 사실상 어느정도 친숙합니다. 그러나 멕시코에 그것도 5번째 도시는 완전 생뚱맞죠. 그러니 모른다고 해야죠. 설사 다른 곳에서 이야기를 들었어도 친숙하지 않으면 모른다고 대답할 가능성이 높아집니다.
      그런데 인공지능이 이러한 친숙하다는 감을 가지고 답을 할 수 있을까요??
      사할은 바둑에서는 생과 사룰 가르는 것인데 초반에는 손실이 생기지만 전체적으로는 모든 것을 살려 바둑의 생사를 가르는 것이 바로 사할인데 현재 알파고로서는 집 계산 위주이기 때뮨에 어렵습니다.
      즉 앞으로의 기슐의 발전으로 어떻게 발전할 수 있을지 모릅니다. 그러나 새로운 것이 아니라 기존의 데이터로 가지고 접근한다면 인공지능이 우세합니다. 하지만 새로운 기술을 개발하고 생각해내는 능력은 인간만이 가능하다고 생각됩니다. 만약 이견이 있다면 답해쥬세요~~^^

    • @choispark
      @choispark 5 лет назад

      김한결 정보의 친밀성을 오해하시는 것 같네요. 유튜브에서 내가 원하는 채널이나 동영상을 그동안 보았던 내용을 통해 유추하는 것이 정보의 친밀성이 아닙니다. 그냥 상대방의 정보을 바탕을 두고 있는 것이죠. 빅데이터로 나온 결과는 데이터의 종합정리하여 나온 결과이지 친밀성과는 다릅니다. 예를 들면 한국인에게는 한국인으로서 친밀한 정보들이 있습니다. 그리고 그것을 바탕으로 해석하고 정보의 결론을 내립니다. 반면 영국인은 영국인으로성 친밀한 정보를 바탕으로 해석하고 결론을 내립니다.
      그러나 모른다는 답을 일초안에 내리는 과정은 인간과 기계는 다릅니다. 인간은 친밀한 정보가 아니면 모른다는 답이 빨리 나오지만 기계는 자신이 가지고 있는 정보를 다 검색해야지 나올 수 있기 때문입니다.
      이런 결과가 나오게 된 것은 친밀하지 않은 정보를 빨리 벗어나 생각하지 않기 위함이라고 하네요.

    • @choispark
      @choispark 5 лет назад

      김한결 김한결 일단 먼저 사람이 기계와 다르다는 것을 이해하기 위해서 모름을 가지고 이야기를 하는 것입니다.
      정보의 친밀성은 자주 사용되거나 자주 접하는 정보입니다. 인공지능이 얼마나 발전할지 모르지만 일초안에 모름이라는 답을 하는 것은 아마 어려울 수 있습니다.
      계속적으로 말하지만 기계는 자신이 가지고 있는 모든 정보를 검색하고 나서야 없음이라는 답을 할 수 있지만 사람은 자신에게 친밀하지 않다고 느끼면 모른다고 답을 합니다. 하지만 익숙하지만 생각이 나지 않을 경우 한참 생각하는 것은 익숙한 정보이기 때문에 알고 있다는 생각을 가지기 때문입니다.
      인공지능에게는 이러한 기능을 할만한 장치가 아직 없습니다. 그리고 있다면 인공지능은 제대로 자신의 역활을 할 수 없습니다.

  • @kimfork4536
    @kimfork4536 3 года назад

    튜링의 근거에서 나온 배고픔이 제일 중요한 것 같네요.
    스스로 생각하고 행동하게 만드는 근원이 생긴다면 인공지능은 생각을 하는 게 맞다.
    욕망~

  • @noboundary21
    @noboundary21 5 лет назад +2

    생각이 무엇인지? 그것을 어떻게 정의할 지를 알아야 가능한 답이 되겠네요..다만 자아감 없이 논리만 있다면 기계에 가까울 것이고 자아감이 있다면 ..... 튜링에 말이 맞지 않을 런지요..

  • @최불암-q2n
    @최불암-q2n Год назад +1

    감사합니다 교수님!

  • @hash0619
    @hash0619 5 лет назад +3

    시스템 논변에 대한 존 설의 재반론은 "중국어 방 안의 책을 아예 통째로 외워서 대답한다 할지라도 나는 여전히 중국어를 원어민처럼 이해하고 있는 것이 아니다" 였습니다.

  • @김상민-k3s
    @김상민-k3s 5 лет назад +5

    시스템논변이 맞다하더라도 존 설의 논리로 인공지능의 반란에 대한 걱정은 해결이되겠네요
    민수가 더 정교하고,정확한 답변을 할수없고 그 범주내에서만 활동할수있듯이 인공지능도 그 범주를 벗어날수 없는거죠

    • @GETUP37373
      @GETUP37373 5 лет назад

      민수가 학습한다면 얘기가 달라질듯

  • @Red_Rabbit.K
    @Red_Rabbit.K 5 лет назад +1

    제가 바둑을 아주 좋아해서, 존 설의 주장이 설득력 있지만 결국 그 한계를 기술적으로 극복했다고 봐야 할 것 같습니다. 예컨대 설명하신 예처럼 민수는 중국어를 못합니다. 다만 짜여진 알고리즘 안에서 일을 수행하고 있을 뿐이죠. 알파고 이전의 AI들이 그랬습니다. 정해진 틀안에서는 매우 빠른 계산력으로 일을 척척 수행해 냈지만 조금이라도 변수가 생기면 먹통이 되는 것이죠. 민수는 쪽지에 단어 하나가 적혀 있는 것을 보고 단어 하나를 밖으로 보내주고 있는데, 만약 단어가 2개 적혀있다면 밖으로 내 보낼 쪽지를 선택하기 어려워지는 것이죠.그런데 알파고는 이를 극복해낸 사례로 볼 수 있습니다. 이제는 민수가 중국어를 하는지 못하는지 도무지 알 수 없는 영역으로 접어 들었다고 보여집니다. 왜냐하면 단어 1개를 번역할 수 있는 책자를 집어 넣은 시스템으로 시작했는데 민수 스스로가 번역 책자를 학습해서 더 많은 단어가 쓰여진 쪽지가 들어와도 처리할 수 있게 되었으니까요. 이제 민수는 중국어를 할 수 있다고 할 수 있지 않을까요?

  • @핑구쵝오
    @핑구쵝오 4 года назад +1

    와 저도 한번쯤 이런생각 해봤는데...
    철학 개꿀잼이네요 ㄹㅇㅋㅋ

  • @Starry_dawn
    @Starry_dawn 2 года назад

    인간의 생각자체를 연구하는 심리학이 행동주의에서 인지주의로 넘어간지 이미 오래된걸 보면 무언가를 할줄 안다고 생각한다는건 아니라는 결론이었겠죠. 언어에서 보면 표현은 로고로 이루어지지만 그 본질은 각 개인의 주관적 관념들이니 생각한다는건 관념을 학습하고 변용하고 통합하여 로고로 표현하는 것이 아닌가 싶네요. 학습과 표현은 가능하니 변용과 통합 창조도 가능해지면 구분할 수 있을까요

  • @Sky_Flower_
    @Sky_Flower_ 5 лет назад

    제가 생각하기엔
    생각이란 무엇인가에 대해서 먼저 생각해야할것 같네요..
    생각이라 하기 위해서는
    자유의지를 가지고 어떠한 것을 자신이 가진 지식으로 해석하는 과정인것이라
    저는 생각 합니다.
    그렇다면 생각이란것을 쪼개면 자유의지와 지식이 있을것이고
    로봇에게는 인간이 프로그래밍하고 주입한 지식이 있지만 인간이 사전에 프로그래밍 한대로 움직이는 로봇에게 자유의지는 없지요
    중국어방 로봇에게 생각이 있는가 라는 질문은
    번역기에게 생각이 있는가 라는
    질문과 같다고 생각합니다.
    _______________________
    인공지능이 알파고 처럼 스스로 학습하고 지식을 늘려서
    대화를 더욱 깔끔하게 할수있게끔 발전된다 하더라도 결국은 그것또한 인간이 설계한 프로세스대로 질문이 들어오면 그것에 대해 더욱 알맞는 대답을 출력하는 것 뿐이지
    자유의지를 가지고 생각 이란 것을 해서 나오는 답변이 아니란게 제 결론입니다
    반론은 기꺼이 받겠습니다

  • @soopyeong
    @soopyeong 5 лет назад +2

    논리적인 이치에 맞아보이는건 시스템논증이지만
    제 마음은 존 설 쪽으로 기우네요

  • @dosdpoaa
    @dosdpoaa 3 года назад

    생각한다는 것은 무엇인가. 좋은 생각거리네요.

  • @가치있는삶-k3w
    @가치있는삶-k3w 5 лет назад +1

    철학 비전공자인데..재미 있게 보았습니다.
    저는 개인적으로 system augment에 공감합니다.
    [구독], [좋아요] 꾹누르고 갑니다. ^^

  • @valaelin
    @valaelin 5 лет назад +1

    영화에서는 튜링 테스트라고 안 하고 보이드-캄프 테스트라고 했던 거 같은데... 보이드-캄프 테스트라는 것도 실제로 있는 건가요?

  • @悶悶-y3z
    @悶悶-y3z 2 года назад

    생각은 의식('나', 자아, 자아의식)의 활동. 추리는 기계적 활동. 정교한 추리는 생각과 혼동되고(ai) 단순한 생각은 추리와 혼동되는 경향(벌레, 식충식물). 높은 의식은 낮은 의식을 식별할 수 있지만(사람~진드기와 청소기) 낮은 의식은 높은 의식을 식별할 수 없음(진드기~사람과 청소기). 튜링테스트는 자아를 상실한 사람(추리기계)에게만 유의미. 사실 '거의 모든' 사람은 자아를 상실하고 있음!!!

  • @choykwan
    @choykwan 5 лет назад

    논쟁을 즐기기위해서 일단 간단히 생각( 인간의 사고 와 인공지능의 판단을 모두 생각으로 동일시 한다면)해보면 ....
    인간(생명체) vs 인공지능(AI)
    '인간(생명체)은 사고를 하고 인공지능(AI)은 판단만 한다.'
    판단 : 100% Logic [Same Input makes Same Output.]
    사고(생각) : Logic + Non-Logic(Random, Inspiration or Spiritual Sparks, Probability)
    [Same Input makes Same Output or Different Output]
    예} 이창호의 알파고로 부터 얻어낸 1승
    '인간의 생각과 인공지능(AI)의 생각은 다르다. '인간의 생각'은 '인공지능의 생각'을 100% 포용하지만 '인공지능의 생각'은 '인간의 생각'을 100% 포용하지 못한다.
    반론을 기대하며.....

  • @이름-g5e4o
    @이름-g5e4o Год назад

    알파고, 시리, 유튜브 알고리즘 이런 것들은 정해진 결과값에 따라서만 행동하기에 생각하는건 아닌거같고 요즘 나오는 챗봇, 그림 창조하는 ai 이런 것들은 어느정도 생각한다고 볼 수 있을거같습니다 뭔가..

  • @sangyongpark2137
    @sangyongpark2137 5 лет назад

    인간처럼 생각할 수 있느냐 내지 시스템 출력값이 갔으니 인간지능과 같다고 봐야한다는 논의과정은 저런 로봇 청소기나 중국어 같은 기능적 역할을 똑같이 수행해 내는가로 비교를 하면 안되고
    과연 로봇이 가치판단을 할 수 있는가? 즉 누구를 먼저 구할 것인가 누구를 구하기 위해 나를 던질 수 있는가? 왜 그런 판단을 했는가를 묻는등 그런 정답이 없는 가치판단의 영역에서 비교를 해야지 분명하게 드러난다고 봅니다.
    출력값이 같다고 인공지능이나 인간지능이 같다고 전제하기에는 무리가 있는게 누군가를 구해도 인간은 도덕심 자기희생 등의 발로에서 나온것이라도 로봇은 그냥 신호전달 및 행위발동체계로 구성되어 행동의 동기가 전혀 다를 수 있기 때문입니다. 이런 로봇은 고도의 가치판단이 필요한 일을 수행할 때는 고도의 확률계산을 통한 알고리즘의 최적화된 결과값에 따라 행동하겠지만 과연 거기에는 가치판단이라는게 들어갔을까는 매우 의문이라는 거죠. 가장 효율적인 결과값을 가져다 준다고 그것이 반드시 옳은 판단일 수가 없으며 때로는 인간이 내리는 비논리적 판단이 역설적으로 가장 논리적 판단이 될 수가 있는데 로봇이 과연 고도화된 알고리즘 설계만으로 그 정도의 영역에 도달할 수 있을까 의문입니다.
    인간의식의 그 어떤 비논리적 전개또한 결국 알고리즘이다라고 하면 할 말은 없지만요.

  • @양은주-c1t
    @양은주-c1t 5 лет назад

    인간이 하는 생각은 인간안에 있는 물질들의 상호작용의 결과물이 아닐까요? 즉 생각은 시스템의 결과물이라 볼수 있을거 같은데
    ai도 그런 시스템만 갖출수 있다면 (언젠간 갖출수 있을거 같아요) 사람이 하는 생각이라는것과 같을 날이 올거같아요
    늙지 앉는 인간=ai

  • @유성태-s6k
    @유성태-s6k 4 года назад

    이 부분에 대해서 사고 범위 문제로 해석이 가능하지 않나 라는 생각이 듭니다.
    ai같은경우는 명령이내려진 범위 내에서만 활동이 가능합니다 쉽게 예시를 들자면 알고리즘 시스템은 알고리즘 시스템내에서만 활동이 가능하며 그 이상에 시스템을 가질수가 없죠
    하지만 인간 같은경우는 어떠한 시스템에 대해서 공부를 햇다면 그 시스템에 대해 한도 라는것이 없습니다. 자기 자율로 모든것을 할수 있다라는것의 명확한 차이가 있습니다.
    이말을 시스템 논변의 반박으로 하면 시스템 논변처럼 인간과 ai는 같은것을 사용하는것처럼 보이지만 인간은 명확하게 그 범위라는것이 없으며 ai는 명확하게 그 범위라는것이 정해져
    있다는 차이가 있게 됩니다.
    사고범위 문제의 예시: 로봇에게 폭탄제거 기능 물건 이송 기능이 있으나 명령을 받은것중 하나만을 수행을 할수 있다 그렇기에 동굴속 물건을 나르는것을 명령하엿으나 폭탄이 있어 문제가
    있다 하지만 로봇은 명령을 받은 대로 움직여야 하기에 폭탄과 함께 터져버렷다.

  • @크앙-c9f
    @크앙-c9f 4 года назад +1

    AI는 그 자신을 의심할 수 있을까요?

  • @파란무-w3i
    @파란무-w3i 3 года назад

    나는 분명히 생각을 합니다 그러나 다른 인간이 생각을.하고 있는지는 확신할 수 없네요.

  • @phh5265
    @phh5265 3 года назад

    이말을 들으면 오 그렇네 하다가도 또 시스템 논변을 들으니 또 그게 맞는 것 같기도 하고…

  • @awesome-mz2lj
    @awesome-mz2lj 5 лет назад

    생각이란 무엇이고 언어란 무엇인가를 먼저 정립해야하지 않겠는지요.

  • @godavata9365
    @godavata9365 5 лет назад

    인공지능은 생각할 수 있다 라는 믿음이 제일 중요합니다.
    인간은 결과만 보려고 하니까요.

  • @soojinl10
    @soojinl10 6 лет назад

    미치오 카쿠의 책 '마음의 미래'에 나온 내용이 생각나네요
    의식 체계의 계층에 따르면 로봇 청소기와 식물은 의식 레벨 0, 송충이가 레벨 1, 다람쥐와 원숭이는 레벨2, 인간은 레벨3 이라고 합니다
    저는 튜링센세가 맞다고 생각합니다.

  • @YABAITUBE
    @YABAITUBE 5 лет назад

    like tears....in rain

  • @류토굴
    @류토굴 5 лет назад

    인공지능이 생각하는 능력이 있는지 없는지의 질문은 이미 '인공지능'이라는 존재자를 설정해 버려서 물어볼 필요가 없는 듯 합니다. '저 쉬 팡스 동 저쉬'에서 '나'는 생각한다라면 생각하기 전에 이미 나를 설정해 놓고 나를 알고 있음이 전제가 되는 것이듯이 인공지능이 생각하는지 아닌지 물은 것은 같은 이치로 보입니다. 인공지능이라는 주체를 설정하지 말고 그냥 어떤 조건아래서 생각하는 기능과 같은 현상이 거기에 나타나는지를 살펴보면 어떨까 합니다.

  • @이꾼-k3r
    @이꾼-k3r 5 лет назад

    우리가 생각을 한다고 했을 때, 우리의 뇌가 생각을 하는 것인가? 아니면 우리가 뇌를 사용하여 생각을 하는가? 저는 여러가지 사실들을 고려했을 떄 뇌 자체가 나는 아니라고 생각해요. 우리가 뇌를 사용해서 생각을 하고 생각된 것이 언어로 나오고 행동으로 나오는 거라고 생각하는데, 그렇다면 뇌를 사용하는 '나' 라는 존재가 무엇인가 라는 게 쟁점 이 될 수 있다고 생각해요. 인공지능 같은 경우에는 그것이 할 수 있는 지적인 작업의 한계를 고려했을 때, 그것이 곳 생각을 한다기 보다는 결국 따지고 보면 '나' 라는 그 어떤 존재가 뇌를 통해서 생각을 하고 언어를 만들 듯, 인공지능도 뇌와 뇌를 사용하는 '나?그것?' 과의 관계와 마찬가지로, 우리 인간이 인공지능을 통해서 생각하고 있는 것에 지나지 않는 것이 아닐까요? 그러면, 쇼펜하우어도 한 번 해주세요~ 의지의 객관화 단계, 플라톤 이데아, 칸트 물자체를 비판하고 바로 잡는 부분을 잘 이해가 안 가서요...

  • @Miles_Link
    @Miles_Link 5 лет назад +2

    그럴 줄 알았습니다. 역시 안드로이드 였어. ㅋㅋㅋㅋ🤣

  • @user-km4zz8zh5t
    @user-km4zz8zh5t 5 лет назад

    식물이들이 인간의 의사소통인 말과 글을 못하고 인간과 같은 표정이 없다고해서 과연 생각이 없는 것일까요? 식물은 스스로 크고성장하며 스스로 아름다움을 뽐내며 아프면 색깔이 변하고 표현도 하며 스스로 죽을시기를 압니다. 나무도 의식이 있고 생각이 있습니다. 인간이 인지하지 못하는 것일뿐. 인간이야 말로 가장 편견이 심한 사고체계에 갇힌 동물인것 같습니다.

    • @user-km4zz8zh5t
      @user-km4zz8zh5t 5 лет назад

      인간만이 창조라는 것을 해서 작곡도 하고 신비로운 그림을 그리고 무언가을 만들어 내는 것 같은 착각도 오직 인간만이 하고 있지는 않나 싶습니다. 많이 알려졌듯이 인공지능도 창조창작작업을 인간보다 월등히 수행해 내는 시대이죠. 사실 우리가 만들어낸다는것은 우리 물질지구에서의 반복되는 창조작업이지 그 너머의 새로운 우주는 우리 인간이 만들어 낸적은 없다고 보여집니다. 이러한 관점에서 튜링의 의견에 한표 던져요.

  • @k1945k1
    @k1945k1 5 лет назад

    모든 나라의 언어를 하든 모든 인간의 행동을 다 할 수 있든 없든 자아가 없으면 인공지능이 아니죠.
    복잡한 또는 덜 복잡한 입력된 결과 값에 대한 표출일 뿐..
    무엇을 할 수 있냐가 아닌 스스로 생각할 수 있는가 .. 그 스스로가 바로 자아죠. 그게 지능이죠.
    인간은 입력된 것만 행동했다면 결국 지금의 인간이 되지 못 했을 겁니다 .
    모든 언어가 가능한(알파고) 소프트웨어가 있다고 해서 그게 천년 후에 화성에 갈 생각을 하겠습니까?
    저는 물레방아와 알파고가 다르지 않다고 생각합니다 둘의 차이는 알고리즘이 복잡과 덜 복잡함에 차이 뿐이라고 봅니다

  • @ottawagolf1
    @ottawagolf1 3 года назад

    여기서 "인간처럼"의 정의가 좀 불 분명하지만, 결국 인간도 생각하는 능력 정도로 " 인간처럼" 이 구분됩니다. (예: 늑대소년)
    공부를 통해 뇌 속뉴런의 기계적 연결을 얼마나 더 잘 시켰나에 따라 그 "인간처럼"이 달라 지듯이, 알파고나 시리도 좀 모자란 "인간처럼"으로 받아 들일 수 있지 않을까요.
    "인간처럼"이 요구되는 정도로 필요한 모듈을 그 인공지능에 추가 해가면, 결국 인간도 배워야 (뉴런연결) "인간처럼"이 될수 있듯, 그 어느 정도냐의 문제 일 것 같습니다.
    언젠가는 "인공지능처럼" 인간이 생각할 수 있을까? 라는 물음을 할때도 올것 같은데요.

  • @김태윤-o2h7x
    @김태윤-o2h7x 3 года назад

    재미있게 잘 봤습니다!!
    저는 일단 인간과 인공지능이 같다 틀리다를 떠나서 "생각"이 무엇을 의미하는지 먼저 정의하고 가야 할 것 같다고 생각해요~
    제가 생각하는 "생각"이란, 어떤 자극에 대한 행위 그 자체를 이끄는 것이 아니라, 여러 행위들 중에 한 행위를 선택하는 것이라고 생각합니다. 좀 더 설명해보자면, 인공지능은 어떤 원인에 대한 결과 값이 정해져있다고 생각하고, 인간의 경우 대부분 가장 좋은 선택을 하겠지만, 그렇지 않은 선택도 한다는것을 이야기하고 싶어요. 예를 들어, 선로에 브레이크가 고장난 기차가 오고있는데, 맞은편에는 한 성인 남자가 묶여있고, 다른 한편에는 100여명의 사람들이 모여서 빠져나올 수 없다고 합시다. 두 그룹 중 한 그룹이 마주오는 기차와 충돌 해야한다면 당신은 어떤선택을 할까요? 아마 100명보다 1명을 희생하는게 더 이득이겠죠. 하지만 한가지 정보를 추가해보겠습니다. 1명의 남자는 자신이 아는 사람이고 온 생애 동안 다른사람을 도와온 선한 사람이고, 다른 그룹의 100여명은 사형이 선고된 죄수들이라고 해봅시다. 어느 그룹을 선택할까요? 정답은 없습니다. 모두 다르겠죠. 이게 인간이 인공지능과 다른 점이라고 생각합니다. 전적으로 존설에 찬성하는건 아니지만, 튜링에는 반대하는 바 입니다.

    • @yunyun5676
      @yunyun5676 2 года назад

      좋은 얘기네요 . 한가지 추가하자면 인공지능도 베이스 된 데이터에 따라 다른 결과를 도출해낼 수 있습니다. 제시한 양쪽 모두 다요. 그렇다면 이것이 인간의 생각과는 어떻게 다른걸까요? 다르다고 할 수 있는 부분이 있을까요?

  • @팔라딘-x4g
    @팔라딘-x4g 5 лет назад

    배가고파서 먹는 행위는 인간의 감정이 들어간 관념같아요. 이성적으로 에너지 섭취가 맞는것 같아요.
    만약 알고리즘이 생각이면
    청소기 스스로 전기를 찾아가는 행위는 생각일 수도 있겠지만,
    생각이 아닌 가장 큰 이유는 주체의식, 스스로가 어떤 목적에 대한 위기 의식을 전혀 느끼지 못했으므로 청소기는 이성적 기계라고 밖에 보여지지 않습니다, 즉 걱정, 고통이 없다는겁니다.
    이성=생각이라고 받아들인다면
    알고리즘을 지닌 기계도 생각이 있는 것 같겠죠.
    하지만 생각의 범주는 이성만 있는게 아님은 분명합니다. 그러므로 청소기는 생각을 가지지 못했습니다.
    만약 조선 시대에 일정 온도가 올라가면 소리를 울리는 종이 있다고 칩시다.
    청소기와 차이점이 있나요?
    제가 제시한 문제는 두 가지의 의미를 포함합니다
    오늘날 현대인들이 이성적 사고에 찌들어있다는 것.
    이성적 사고에는 한계가 있다는 것.
    컴퓨터적 사고, 논리적 연산은 기계와 일정 생활에만 활용될 뿐 그 이상도 그 이하도 아닌 것 같습니다.

  • @user-jx4th1od6t
    @user-jx4th1od6t 3 года назад

    중국어 방 시스템에 대해
    튜링 - 중국어로 생각하는 능력이 있다.
    존 설 - 중국어로 생각하는 능력이 없다. 단 중국어를 할 수 있다.
    시스템 논변 - 중국어를 할 수 있다.→ 중국어로 생각할 수 있다(?)
    제가 해석한 정리가 맞는지 궁금하고, 맞다면 시스템 논변에서 화살표 부분으로 넘어가는 것이 부자연스럽지 않나 생각이 드네요.
    중국어 방 시스템이 중국어를 할(인풋에 따라 아웃풋을 낼) 수 있어도 주체적으로 사고할 수는 없지 않나요?

  • @흙집사
    @흙집사 2 года назад

    편집 센스 너무 좋으신듯 ㅋㅋㅋ 편집자가 따로 있나요?

  • @오상진-y2p
    @오상진-y2p 4 года назад

    둘다 맞습니다
    문제는 속도이죠

  • @그래나좌빨이다.어쩔
    @그래나좌빨이다.어쩔 5 лет назад

    요즘 명상을 자주하는데 문득 인공지능과 인간의 차이를 느꼈습니다. 인간은 생각을 멈추고(안하고?) 있은 과정에도 변할 수 있는데 인공지능은 기능을 멈춰도 변화(기능향상)이 가능할까요?

    • @user-ks8mx8rv1p
      @user-ks8mx8rv1p 5 лет назад

      너무 추상적이어서 무슨 소린지 잘 모르겠는데 인공지능도 '학습'을 하고 자기 스스로 '변화'합니다.
      대표적인 사례가 알파고입니다. 기존의 인공지능 연구자들은 인공지능을 '연역적'으로 짜려 노력했으나
      80년대 이후 귀납적 방법을 통해 인공지능을 만들어내는 연구가 생겨났습니다. 한마디로 여러 사례를 입력하고
      이를 통해 공통점을 기억하는거죠.

  • @asmoonlightkr
    @asmoonlightkr 3 года назад

    인간의 지능(혹은 '지능만')을 완벽히 모방은 가능할지도 모른다. 인간의 대화를 연구해서 모든 상황을 다 파악하고 인간이 하듯 자연스러운 대화, 어떤 답이라도 다 가능하게하고.. 그래서 대화하는 사람이 ai인지 구분을 못하고 인간이라고 생각을 할 수도있다. 그러나 인공'지능'일 뿐이지 인간(감정, 자유의지 등)의 정신과는 다르다. 인공지능학자들이 인공'지능'만을 만드는 것은 99%가능할 것 같다. 감정, 자유의지(선택)까지도 흉내는 낼 수 는 있겠지만 근본적인 정신세계, 마음 등은 없으니 그냥 '인공지능intelligence'. 그러나 인간의 정신mind과는 다르다.

  • @user-ks8mx8rv1p
    @user-ks8mx8rv1p 5 лет назад

    아... 이거 국어 지문으로 나온 적 있는데.... 그거 생각하니까 갑자기 머리아프네요...

  • @jhlee261
    @jhlee261 5 лет назад

    답은 이미 블레이드런너에 나와있는게 정답이라고 생각함. 인과과 같이 생각하고 인간의 감정을 느낄 수 있다면 인간임 단 아직 딥러닝 방식의 인공 지능은 인간 논쟁을 하기엔 아직은 먼 이야기..

  • @김병기-k7h
    @김병기-k7h 5 лет назад

    너무나 잘 보고 있어요
    듀닝의 생각영역에 대한 반론입니다
    과거와 미래가 없이 현재에만 반응하는 뇌를 가진 동물은 일종의 시스템과 같은 뇌입니다 초보적인 생명들이죠..... 중간생략 .......
    인간은 과거 현재 미래를 종합해서 생각하고 예측하고 행동을합니다
    로봇청소기는 시스템의 반응일뿐이고... 인간이 생각한다는것은 만약 청소기가 정해진 충전기가 없어도 새로운 조건을 가정하여(과거경험을 바탕으로 미래를 예측하여) 배고픔을 해결하려고 한다면 그것을 생각한다고 해야맟다는 것입니다
    결론은 듀닝의 예는 작가님의 비유이겠지만 ... 인공지능과 같이 미래를 예측하는것과 현재에만 반응하는 송충이(곤충지능) 과거에 경험에 초보적인 반응을하는(파충류지능) 완벽한과거와 불안정한 미래에 반응하는(포유류지능) 그리고 미래에 관해서도 초보적 반응을하는(유인원지능) 마지막으로 전혀 경험해보지않은 상황에서도 미래를 추론하는(인공지능)을 명확히 구분해야합니다
    철학에서 개념정리가 중요하듯이요
    인공지능문제는 21세기의 핵심 키워드이고 인류문명의 심각한 도저

  • @노승민-y1e
    @노승민-y1e 5 лет назад +1

    짜여진 프로그램에만 움직이지만 중국어 방에있는 사람은 하다가 나갈수도 있고 때려치울수도 있는데 로봇은 반항못하죠 ㅎ ㅎ

    • @falconer8058
      @falconer8058 5 лет назад

      AI 반항과 관련된 재밌는 미드가 있습니다. west world라는 미드인데 인터스텔라를 쓴 조나단 놀란이 작가입니다. 크리스토퍼놀란 감독과 형제죠~꼭 보세요! 현실적이진 않지만 생각할게 너무 많습니다

    • @asmoonlightkr
      @asmoonlightkr 3 года назад

      @@falconer8058 어디서 볼수 있을까요?

  • @Lprdlprd
    @Lprdlprd 4 года назад

    인공지능이 스스로 원하고자 하는게 있나요?

  • @minjungsong7348
    @minjungsong7348 4 года назад

    기계의 알고리즘은 수렴점이나 창발성을 가지 못하지만 인간의 사고는 개체의 보존과 유전정보 보존 사이에서 균형을 이루려는 지점으로 수렴되는 방향으로 나가고 그러면서 새로운 프로그램으로의 변칙적 발생을 가질수 있다는 점에서 다르다고 생각되네요.
    민수의 중국어 능력을 삼는다면 존설의 입장이 타당하고 단지 중국어가 일반적 수준에서 가능한지가 중요하다면 시스템 논변이 맞다고 생각됩니다.
    범주화가 사고의 핵심인 유추의 기본을 이룬다고 할때 알고리즘만으로 인간의 사고를 설명하기는 역부족이라고 생각되네요. 적어도 경험의 마중물 내지는 생물학적 보존을 위한 목적성이 전제될때 인간의 사고에 유사해질수 있을듯 합니다.
    알고 한 소리는 아니고 유튜브때문에 갑자기 든 생각이었습니다. ㅎㅎ

  • @soungahchoi8289
    @soungahchoi8289 4 года назад

    좋은 정보 감사합니다

  • @swelling_wave
    @swelling_wave Год назад +2

    김의성 폼 미쳤다

  • @neon_nana
    @neon_nana 3 года назад

    흠… 시스템 논변의 비유는 틀린 것 같아요. 시스템이 처리하는 것은 수동적인 것인데 반해 인간은 인풋 그 자체에 대해서 능동적으로 사고할 수 있잖아요.
    예를 들어 중국어방에 민수가 중국어를 할 수 있다면 인풋 쪽지를 보고 음? 이건 어떻게 처리해야할까? 능동적 사고 후에 본인이 아웃풋 쪽지를 낸다면 그건 안다고 봐야겠죠. 그런데 민수는 그냥 책에 적힌대로만 따르는 거예요. 그건 수동적 정보 처리과정이니까 안다고 할 수 없죠.
    우리가 한국어를 하는 것도 시스템 논변 비유로 파악할 수 없어요. 왜냐하면 한국어를 하는 그 시스템을 구축하는 것 자체가 “한국어를 앎”에 기반하는 건데 인과관계가 틀린 거 같아요.
    5초 뚝딱 댓글이었슴다~

  • @이시우-e5v
    @이시우-e5v 3 года назад +1

    전 배고파도 밥안먹고 참을 수 있어여

  • @Xsrh
    @Xsrh Год назад

    중국어 방 실험에 한가지 오류가 있는 것 같아 의견을 남깁니다. 책에 중국어로 된 아무리 많은 질문과 답변이 적혀 있더라도 모든 중국어 질문에 대한 답은 적혀 있지 않을 것입니다. 오늘날의 번역기의 한계이기도 합니다. 만약 방안의 책을 중국어를 할 수 있는 사람으로 대체한다면 이 오류가 해결될 것 같습니다.

  • @chgduklee
    @chgduklee 5 лет назад +4

    이것도 겉보기 현상이냐, 실제 현상이냐 의 문제인데, 아무리 겉보기 현상이라도 그것이 맞는 답을 항상 내놓는다면 그것이 무엇이든간에 실제현상이라 봐야한다.

  • @Lm-xd9ev
    @Lm-xd9ev 4 года назад

    문득 생각해보면, 철학이 인간과 동물의 차이를 분명하게 만드는 것 같네요.

  • @appleseed4884
    @appleseed4884 Год назад +1

    중국어를 모르는데 어떻게중국어질문 목록을보고 거기서 답을골라요?

  • @meinlet5103
    @meinlet5103 3 года назад

    당연히 시스템 논변이 맞쥬... 사람이 생각할 수 있다고 뉴런이 생각할 수 있는건 아니잖아유

  • @파람-u6l
    @파람-u6l 3 года назад

    이유 없는 우연한 사건이 있을 수도 있지...존 설의 주장이 맞다고 생각합니다. 까마귀가 날면 배가 까마귀한테 먹히고싶지 않아서 떨어진 건 아니잖아요

  • @widgenstein1
    @widgenstein1 5 лет назад +1

    중국어 방 논증에서요, 비록 민수가 중국어는 모르지만 들어온 쪽지를 보고 모든 대화의 답안이 적혀있는 책과 대조해보고 정답을 가려내는 사고 능력에 대해서는 고려해보지 않았나요? 아시다시피 언어학에서 나무를 반드시 나무로 표기해야할 당위성은 없습니다. 필요에 의해 그렇게 표기하기로 인위적으로 정한 약속일 뿐입니다. 그렇다면 민수가 들어온 쪽지의 뜻을 몰랐다 하더라도 책과 대조할수 있을 정도로 자획을 명확히 인지했다면, 이 시점에서 민수는 중국어를 안다라고 봐야합니다. 뜻도 모르고 쪽지를 내보낼 뿐인데 어떻게 중국어를 할줄 안다하는 것이냐라고 물으신다면 저는 차원의 문제라고 답하겠습니다. 쪽지를 넣는 중국인과 쪽지를 받아보는 중국인을 다른 시공간의 존재로 본다면 어떨까요? 최초에 중국인이 쪽지를 썼을 때에는 중국어로 알고 그렇게 썼겠지만 중국어 방에 넣은후 부터는 스와힐리어, 폴리네시아어, 그무엇어로도 정의 내릴수 있습니다. 오직 민수만이 존재하는 중국어 방 안에서는 언어의 인위성에 의해 모든 언어가 될수 있는 가능성을 내포한 직선 및 곡선의 나열일 뿐입니다. 이렇게 본다면 중국어를 안다고 하는것과 자획을 구분할줄 안다고 하는것 사이에서 유의미한 차이는 없다고 생각합니다.

    • @hh-lc6mm
      @hh-lc6mm 5 лет назад

      언어적인 능력을 묻는말에 대답을 할 수 있는가 로 본다면 성립하는 논리입니다. 다만 언어적인 능력을 '본인이 원하는 대화를 할 수 있는가' 로 본다면 성립하기 어려워 보입니다. 가령 '오늘 저녁 뭐 먹을래?'라는 질문이 input으로 왔다고 가정해 봅시다. 저 책에 의하면 짜장면/ 짬뽕 다 가능한 대답일 것입니다. 하지만 그 중에 무엇이 자기가 원하는 것인지 인지하고 있는가라는 의문이 남습니다. 짜장면/ 짬뽕중에 무작위로 대답을 할 수 있을 것입니다. 겉 보기엔 대화가 가능해 보이지만, 이게 정말 대화가 맞는지 의문입니다.

  • @cordba7915
    @cordba7915 2 года назад

    튜링이 본능에 충실했네요 시스템적으로 본능이라는 표현이 나오는것 같습니다 하지만 본능에 반하는 행동은 설명이 어려울 것 같습니다 튜링은 표면적으로 맞지만 아직은 가설일 뿐입니다

  • @바다-f3z
    @바다-f3z 4 года назад

    약간 이런 느낌인건가. 날아가는 화살은 날아가는게 아니다. 날아가는 화살을 찰나에 순간으로 콕 집으면 멈춰있는거 처럼 보이니까 날아가지 않는것이다. 벗뜨. 날아가는 화살은 날아가는 전체적인 시간적 흐름으로 봐야지 한순간을 콕 집어서 볼 순 없는 것이다.
    어짜피 생각이라는게 수많은 뉴런 하나하나가 자기 일을 하는 과정일 뿐이다. 코딩도 마찬가지. 하나에 시스템이 작동 하는 원리는 수많은 명령어들이 각자 자기에게 주어진 일을 수행 할뿐이다. 뉴런 하나하나가 명령어 하나하나가 각자 자기 일을 하면서 전체적인 시스템을 구축 할뿐이지,각각에 뉴런&명령어 들이 전체적인 생각 또는 프로그램을 활성화 하는게 아니다. 사람의 생각을 너무 고차원적,하이테크적으로 보지만 따지고보면 수많은 뉴런활동의 집합 일뿐이다.

  • @자인-k7x
    @자인-k7x 4 года назад

    감사합니다.

  • @땀쟁이아빠
    @땀쟁이아빠 4 года назад +1

    테스트에 대한 구체적인 설계가 부족합니다.
    튜링이던 존설이던 정작 중요한 테스트는 어떻게 해야 할지에 대해서 어설푼 작가의 공상과학 소설 같습니다. 채팅으로 상대와 단순히 사람과 구분 되는 정도보다 더 나아가 사랑에 대화를 통해 연애를 할 정도는 되야 구분되지 않는 다고 봅니다. 이제껏 SF를 보면서 안드로이드의 사랑이 자연스러운 작품이 없었어요. 먼가 부족한데 아직 그것이 무언지 전 찾지 못했군요.

  • @이리도-o4w
    @이리도-o4w 5 лет назад

    5분 철학 재미있게 잘보고 있습니다. 내 생각엔 배고프다는 생각이 아니고 본능인거 같은데요. 민수가 배가 고픈데 우유를 먹을까 햄을 먹을까 이쯤 돼야 생각이라고 할수 있지않을까요. ㅎ 중국어방은 그 시스템이 정답을 선택하는데 유리한 장치가 있다면 예를 들어 그 말을 쓰는 환경에서 그 말을 이해하기가 용이한것처럼, 그 방이 중국어를 한다고 할수 있을까요. 그런데 그 비유를 잘 이해하지 못 하겠어요 ㅎ

  • @user-hq7ei5ll4g
    @user-hq7ei5ll4g 5 лет назад

    3다 맞다고 봅니다. 광역적인 의미에서보면 사람의 유기적인 배고픔, 청소기의 방전신호가 체계만 다를뿐 배고프다는거고, 존설의 중국어방이론은 가장 일반적으로 도출해낼수 있는 생각이며, 그것을 세부적으로 뜯어보면 시스템논론도 맞다고 봐집니다. 높은 산에 올라갈때 밑에서 혹은 멀리서 보면 구름/안개의 경계가 보이지만, 근처에서 보면 어디가 그름경계선인지 모호해짐과, 구름속에 들어가면 어디가 경계인지 보이지도 않고 온통 구름만 보인다는것과 일맥상통해보입니다.

  • @오태경-u3l
    @오태경-u3l 3 года назад

    제 생각은 로봇청소기는 배고파서 ~한다기 보다
    배터리 부족~>충전기 로 프로그램이 되어 있어서 생각한다 라고 하기엔 맞지 않다고 생각 합니다.

  • @jbking4951
    @jbking4951 4 года назад +1

    존설에 한표

  • @star-sapphire
    @star-sapphire 4 года назад

    이런 주장들도 있었구나 인간들은 참 재밌는 생물이야
    라고 AI가 댓글 달 수도 있는거죠.
    아 물론 저는 AI는 아니예요. 사람이랍니다.

  • @Snowflake_tv
    @Snowflake_tv 5 лет назад

    튜링요. 시스템논변에서 설득됐네요. 존설의 중국어방의 논지가 틀린듯

  • @박수자-l3y
    @박수자-l3y 5 лет назад

    둘다 옳거나 아님은 아니거나입니다