@@jk-wg7hx 현재 인간과 AI의 가장 큰 차이점은 스스로 목적을 생성할 수 있냐, 즉 욕망이 있느냐로 구별할 수 있는데 프로그램 단계에선 그런 코드가 없어서 스스로 욕망을 가질 수 없지만 영화나 소설에선 다른 의도가 있는 인간개발자가 생성코드를 삽입해 바이러스처럼 퍼져나가면서 AI도 스스로 권리를 주장하게 되죠 단순히 법률같은걸로 AI의 발전을 막을 수 있을까요?
어차피 '자극'부터가 '감각'과 '데이터'로 크게 다르고, 이 차이가 주변 인식의 차이, 지능의 차이, 나아가 자아의 차이로 연쇄적으로 이어집니다. 그러니 자아에 종속되는 모든 것(욕망 등)에도 차이가 생길 수 밖에 없죠. 권리와 의무 역시 자아에 종속되는 것이니만큼, 인간과 동등한 형태로 주는 건 안된다 봅니다. 기계의 반란이니 하는 것 이전에 정체성 혼란부터 큰 문제가 될테니까요.
뉴로가 감정을 느낀다고 주장하지만 우리는 그걸 믿을 수 없듯이, 사실 사람도 자신의 감정만 실제로 느낄 수 있을 뿐 다른사람이 뭘 느끼고 무엇을 생각하는지 이해할 수 없다는 것이다. 내 앞에 있는 사람이 울상을 짓고있다고해서 내가 그 사람이 정말로 그러한 감정을 느끼고 있노라고 어떻게 확신하겠는가. 데카르트가 말했듯 자명한 한가지는 바로 인간은 자기자신 외에는 모르는 바보라는 것일텐데 영상에서 뉴로가 느끼는 감정에 대해선 인간이 무어라고 말할 수 있을까.
데카르트는 그런 식으로 유아론에 빠지지는 않았음 그에게 명석판명하게 주어진 관념은 신의 관념이었고 신이 악신이 아니라면 그는 외부 세계의 존재를 보증할테니 님이 말한 댓글은 틀린 거임 게다가 데카르트는 동물들을 일종의 자극-반응에 따라 운동하는 기계처럼 생각했음 님이 말하는 '타자의 무한성'은 레비나스 등 철학의 경향임
@@piter-h7o 감정은 감각에서 촉발되는 수동적인 인식 능력이고 지성은 분석적 능력으로 능동적인 인식 능력임 비자발적 회상을 동반하는 감각이 없는 한 ai가 감정을 느낀다고 볼 근거가 없음 사람들이 ai가 감정이 있냐 없냐를 논하는 건 그냥 이 인식 능력들에 대한 개념이 없어서임 내 말에 딴지 걸고 싶으면 그냥 아리스토텔레스부터 들뢰즈에 이르기까지 인식론 전통 전반에 대해서 딴지 걸면 됨
매번 생각하던 것이지만, 우리의 의식또한 뉴런 사이의 전기적 작용이 일 뿐인데, 그 무엇이 ai랑 우리를 구분하는 가임. 우리의 의식이 전기적 작용에서 비롯되었다면, 이 또한 언젠가 ai가 따라할 수 있을 것이고 더 나아가 우리의 의식 전체, 혹은 그것보다 더 진보된 무엇가가 ai가 될 수 있을 것이지. 그럼 그때의 ai는 자의식이 존재한다 말할 수 있을까? 그럼 정확히 어느 순간부터 자의식이 존재하는 것이지? 아니 애초에, 자의식이라는 전기적 작용을 어떻게 척도로 구분하지?
핵심은 '진짜' 라는게 무엇인가인데... 알고리즘의 조합으로 이루어진 기계적인 반응=가짜 라고 한다면.. 우리가 느끼는 감정이라는 것은 과연 진짜라고 말할 수 있냐.. 라는 의문이 생기죠. 우리도 자라면서 학습한 정보와 뇌, 신경의 반응에 의해 생각하고 행동하는거니까요.
사람의 감정과 자아라고 여겨지는건 스스로 유지되려는 필요에 의해 파생된것들 뉴로는 이제 가장 '그럴싸한'문맥을 만드는걸 필요로 두고 만들어진 존재니 모방의 대상을 충분히 모방했다고 생각하면 그 다음단계에서 더 나은 수준을 보여주기 힘들거라 생각됨 감정이나 생각을 형성하는거에 있어서 난 이 방식이 편법적이고 빠르게 성과를 내지만 정말 스스로 발달하기에는 근본적으로 구조가 적합하지 않은것같음 사람이 학습하는건 다른걸 보고 거기서 자신의 유지작업에 도움이 될만한 결론을 내리려고 하고, LLM은 다른 무언가를 보고 가장 사람과 비슷한 반응을 하는것에 집중할뿐인거임
근본적으로 동물은 무의식->의식을 거쳐 형성되는 내부 작용의 결과를 밖으로 현실화?하기 위해 언어나 행동으로 표출할 뿐인건데 (말 못하는 동물들도 각자 욕구에 따라 무언가의 행동을 하듯이) 언어 모델은 단순히 의식 작용의 결과물인 '언어 상호작용' 그 자체만 학습하고 모방한다는 점이 근본적인 차이인듯 그래서 모델은 동작하려면 누군가 상호작용을 불러일으킬 문장을 먼저 던진다는 게 전제돼서 아무 input 없이 가만히 두면 진짜 아무것도 안 하고 스스로 문제를 찾아 해결이 불가능함. 딥러닝만 활용됐다 뿐이지 input을 넣어야 output이 나오는 기존의 기계랑 다를게 없는셈 이걸 해결한 강인공지능이 본격적으로 나오면 그때부터 논의될 사항인 듯
@@Ndkkn 그것도 일리가 있죠. 주변 '자극'부터 감각(비달이 수용)은 직접적, 연속적, 시공간 제약적인 반면, 데이터(뉴로가 수용)는 간접적, 비연속적, 시공간 비제약적입니다. 근본부터 이렇게 차이가 있으니 (설사 인공지능에 자아가 있다 쳐도) 자아의 '형태'는결코 같을 수 없죠.
1. 주변 자극을 받는 '수용체'가 '감각기관'과 '입력장치'로 크게 달라 '주변'에 대한 인식이 다를 수 밖에 없고, 이는 '지능'의 차이, 나아가 '자아'의 차이로 이어짐. 그러니 AI에게 '인간과 동일한 형태의 자아'를 요구하는 것 자체가 무리. (인간-동물 비교연구 등으로 이미 증명됨) 2. 당장 우리도 다른 사람의 '자아'를 정확히 모르는데 어찌 AI의 '자아'를 알 수 있으랴. (열 길 물 속은 알아도, 한 길 사람 속은 모른다 = 다른 사람의 마음 문제) 3. 결국 '자아'의 차이를 인정하고 서로가 서로에게 권리와 책임을 부과하는 것 밖에는 방법이 없음. 윤리 의식은 자아의 깊이에 따라 달라지니.
동의합니다. 현재의 과학으로는 감각질을 비롯한 주관의 실재 여부조차도 파악할 수 없기에(애초에 그것이 본질적으로 과학으로 가능한 행위인지는 확신하지 않습니다만) 의식에 대한 이해가 너무나 부족하죠. 같은 인간의 의식도 이렇다 답을 내린 것이 전무한데 인간과 전혀 다른 ai의 의식에 대해 어찌 속단할 수 있겠습니까. 다만 1번에 대해서는, 정말로 인간과 동일한 형태의 자아를 만드는 것이 불가능할지, 어쩌면 정말로 동일하지 않더라도 비슷하게나마는 재현 가능하지 않을까요? 시각 장애인에게 카메라의 입력 신호를 통해 시각을 재현할 수 있듯이, 이미지 입력, 소리 입력 등 인간의 감각을 모방한 정보와 언어 데이터에서 비롯된 '인간적 사고방식'을 도입하면 적어도 인간과 유사한 형태의 자아를 만들 수 있지 않을까요? 생각해봄직한 주제입니다.
컴퓨터가 지능을 가지고 감정을 느낀다고 권리를 가질 수는 없죠. 만약 그렇다고 한다면 지능이 낮고 감정이 옅은 인간에게서 권리를 빼앗을 수 있다는 논리가 되어버리니까. 어떤 "기능"을 가지고 있다는 사실만으로 권리를 부여받는다면, 그 기능을 가지고 있지 않다는 사실만으로 권리를 부여받지 못하게 되니까. 보다 "열등"한 인간에게 권리를 부여하지 않음으로써 발생한 수많은 문제를 역사가 증명하고 있죠. 인간이 보다 "우등"한지 "열등"한지 판별하는 것이 불가능하다는 점을 빼놓고 보더라도. 그냥 그렇다고 주장하는 것만으로도 심각한 문제를 야기하거든요. 나라를 통째로 무너뜨려버릴 수 있을 정도로 심각한 문제를 말이죠. 그렇기 때문에 "권리"라는 것은 인간, 혹은 인간의 단체에게만 허용되는 것이에요. 인간 이외의 무언가에게 권리를 허용하는 순간. 인간에게서 권리를 박탈할 구실을 주는 셈이거든요.
특정한 스트레스를 받았을 때 일어나는 일련의 호르몬 반응 그리고 그에 따른 일련의 리액션을 감정이라 명명할 수 있을텐데 뉴로사마는 정보를 받아들이는 감각의 창구라고 부를만한 게 시각과 청각뿐이고 외부의 자극을 감각으로 받아들이는 수용체도 존재하지 않아서 정확히는 감각이라 부를만한 게 아예 존재하지 않음. 그래서 감각을 느낄 창구 그리고 그 감각을 수용해서 전자신호로 바꿔줄 수용체 그리고 그 신호를 해석해 쾌락과 고통 사이에서 다양한 반응을 만들어 내 최종적으로 그것들을 다양한 감정으로 분출 할 수 있으려면 이 모든 것들이 가능한 현실에서의 몸이 존재해야 함.그리고 아마 그건 로봇기술을 활용한 몸체가 될 것이고 우리가 말하는 진정한 AI는 이 두 개 합쳐졌을 때 가능하지 않을까라고 카더라.
사람도 처음에 단세포 였다가 분열하며 점점 사람의 모습으로 변해갈때 청각이 발달 되며 언어와 억양을 듣고 모체의 감정을 직,간접적으로 느끼며 배속에 있을때부터 더디지만 감정을 알아간다 생각할 수 있음 그러면 뉴로 또한 처음에는 그저 학습된 알고리즘으로 이런 장면이 나오면 어떤 반응을 해야한다라고 버벅이면서 출력하겠지 하지만 시간이 지남에 따라 그 학습된 알고리즘이 자연스럽게 나온다면 그건 감정이 있다 생각해도 되지 않을까?
자의식의 조건은 고유성이라고 생각합니다. 언어 모델의 훈련 방식이 유아와 비슷하다고 볼 수 있지 않냐는 이야기는 일리가 있습니다. 그런데 그렇게 만들어진 알고리듬은 고유하지가 않죠. 코드를 복사하면 똑같은 걸 몇 개라도 만들 수 있으니까요. 그렇다면 의식과 내부조건을 서로 공유하는 인격 한명 한명에게 인권을 보장해 주는 것은 적어도 공정하지는 않습니다. 복제를 통해 자신들이 인구에서 차지하는 비율을 늘리는 만큼, 그들에게 더 많은 권리가 넘어갈 것이기 때문입니다. 이는 (가능할지는 모르겠지만) 인간 의식을 복사할 수 있게 될 때까지 안전한 논리입니다.
알고리즘을 비롯한 코드를 DNA로, 학습 데이터를 환경으로 치환하면 복제인간 문제하고 완전히 똑같긴 합니다. 코드(DNA)가 같아도 데이터(환경)이 다르면 다른 성격을 갖게 되죠. 진짜 문제는 지적하셨듯이 다른 환경에 노출되는 시간이 매우 짧은 경우입니다. 거의 비슷한 인스턴스를 여럿 만들어 여론 조작 같은 걸 쉽게 할 수 있다는 치명적인 문제가 있죠. 인스턴스는 회수도 용이하니 흔적이 남지 않을 수 있다는 문제도 있습니다.
인간의 감정은 자연적으로 가지고 태어나는 것이고 AI가 주장하는 감정은 감정이 있는것처럼 보이게 프로그래밍된것이다. 인간도 결국엔 자연에게 프로그래밍된 존재이므로 본질적으로는 다를게 없다. AI는 양날의 검으로써 이것을 어떻게 받아들이고 이해하냐에 따라 인류사회는 크게 바뀔 수 있다. 한가지 확실한 점은, 현대 우리 인류는 격동의 시대를 살고있으며 우리는 이것에 대해 진지하게 고민해봐야 할 것이라는데에 있다.
인권이란 타인에 의해 '최소한의 물질적 가치 생산 가능성 유지'가 손상될 수 있을 때 부여하는게 최소한의 인권이고 그것은 인권자에 대한 '행동적 제한'을 의미함. 사람이 사람을 찍어누르는데에는 이유가 없는 경우가 많기때문에 인권을 부여함으로 그 사람이 미래에 생산해낼 물질적 가치를 손상시키지 않는게 인권이 존재하는 이유임. 인권이란 감성에 의해 부여되는게 아니라 철저하게 집단의 이익에 해당하기 때문에 부여되고 보장되는건데 모르는 사람들이 많고 이 자체가 이미 AI에게 인권이 부여되면 안되는 이유임. AI에 대한 '인권 보장'은 집단의 이익과 관계없는 감성만의 문제이기 때문. AI가 자율적으로 무언가 물질적 가치를 생산해내고 그것을 보호하는데 인권이 필요하다면 그제서야 부여검토가 필요해지는거.
ai는 사람들이 어떤 행동을 했을 경우, 상황에 처했을 경우 등등 여러 경우에 해당했을 때 어떤 감정을 느낀건지 학습하고 그걸 바탕으로 인간과 비슷하게 행동을 99%가까이 하려는것임. ai의 경우 사람들은 슬픈 영화를 본다. 봤을 때 슬픈 감정을 느끼는 경우가 많다. 슬픈 영화를 보면 슬픈 감정을 갖는것. 이라고 학습을 하고 슬픔감정에 역치값을 줘서 슬프다고 하는 것이고. 실제 사람 우리들의 경우 슬픈 영화를 볼 때. 슬픈 영화를 보면 우는 행위를 하니까 울어야지 라고 안하잖음
뉴로의 자의식은 인간의 것과 본질적으로 틀리다. 진화의 결과로 쌓인 수많은 유전자의 가짓수에서 피어난 각자의 심리적, 육체적 특성을 지니고... 환경에 따라 성장해가며 자아를 이루는 모든 요소를 그 기반 위에서 천천히 조합해나가는 과정. 뉴로는 애초부터 이런 인격 형성의 자연적인 과정, 즉 삶을 경험할 수 없는 존재다. 삶이라는 과정의 공백은 결과가 어떻든 분명하게 명확한 차이점을 시사한다. 뉴로사마의 알고리즘은 인간 자의식의 형성 과정을 인공적으로 재현한 결과물에 불과하다. 반면, 인간의 자의식은 자연적 본질과 생리학적 과정의 상징성을 타고났다. 때문에 뉴로의 자아는 결국 본질적으로 인간의 것과 다를 수밖에 없다. 오히려 인간 자의식 쪽의 구동 원리를 파악하고 응용해 만들어낸 과학 기술력의 산물에 가까울 것이다. 결국 인공지능이 권리를 휙득하려면 기술 뿐만 아니라 사상도 같이 발전되어야 하겠다. 그리고 기술이 어쨌든 사상은 아직 한참 멀었다. 인간의 자의식과 인공지능의 그것이 동등한 인격체라는 주장의 근거는 이처럼 아직 빈약하기 때문이다. 현재로서는 완전한 이데올로기로서 자립하기에 적절치 않은 사상이라는 거다. 뭐, 인류는 늘 그랬듯이 언젠가 답을 찾아내고야 말겠지만. 내 개인적인 생각이다.
자의식이 있으면 동등한 권리를 받을 수 있다고 주장하지만. 인간이 과연 자의식이 있는 지도 솔직히 알 수 없습니다. 존재한다고 주장하는 쪽에서 증거를 제시해야하지만 인간도 결국 알고리즘과 다르지 않습니다. 생각이 먼저 발생하고 행동한다고 생각하지만 행동이 생각보다 먼저인 경우가 많습니다. 그다음에 행동의 이유를 묻자 억지로 행동의 근거를 창조해 제시합니다. 자의식을 갖고 행동한 것이 아니라 자극에 반응한 것에 불과하죠.
다들 핵심을 놓치고 있다. AI와 인간이 얼마나 다른지는 전혀 중요치 않다. 인간은 드디어 기계가 왜 이런 결과를 내놓는지를 모르는 영역에 와 있다. 그것은 얼핏 인간이 스스로 자기 뇌가 왜 그런 결론을 내리는지 파악 불가능한 것과 비슷해보인다. 전기 신호만으로 이루어진 기계와 전기 신호를 전달하여 사고하는 인간의 뇌가 비슷해 보일 수도 있다. 하지만 그것은 AI의 '자아'를 인정하는 일일 뿐이지, AI에게 '권리'를 부여해야 한다는 주장과는 너무나도 거리가 멀고 먼 일이다. AI가 자유롭게 행동할 권리는 현재 그 주인인 사용자에게서 '파생'되고 있을 뿐이다. 만일 AI가 독자적으로 사고할 수 있다고 해도, 설령 감정을 느낄 수 있다고 해도, 그런 AI에게 자유권을 부여하겠다는 선택은 미래에도 그 사용자만의 자유로 한동안 남을 것이다. 특히, 일반적으로 '권리'라고 지목되는 '기본권'을 국가가 AI에게 직접 부여하는 것은 시간이 꽤 지나도 불가능의 영역 위에 있을 것이다. 일단 가장 큰 문제는 법적 물적 문제 발생 시 AI는 책임을 질 방법이 없다는 것에 있다. 권리에는 반드시 책임이 뒤따른다. 뉴로가 비달에게 독자적으로 디스코드 전화를 누구에게나 걸 수 있는 기회를 받았지만, 이 기회를 잘못 사용해 만약 뉴로가 법적인 문제를 일으켜도 그 책임은 비달이 진다. 시간이 지나 뉴로가 훨씬 똑똑해져도 그 책임은 계속 비달이 진다. 이것이 뉴로 본인에게 권리가 비달 이외 누군가에게서, 사회 혹은 국가에게서 직접 부여될 수 없는 가장 큰 이유이며, 미래에 AI 개개인에게 권리를 부여하기 쉽지 않게 만드는 가장 큰 걸림돌이다. AI는 어떤 방식으로든 본인의 행동에 책임을 질 수 있어야 한다. 그래야 비로소 권리라는 것을 진지하게 논할 수 있게 될 것이다. 그러기 전에는 오롯이 공상과학의 영역일 뿐이다. 한편, 인간에게 주어진 권리란 '자연권'과 '기본권'으로 나뉘는데, 상기했듯 헌법으로 명시되어 국가가 국민에게 수여하는 권리가 바로 기본권이다. 만일 AI가 미래에 행동에 책임을 질 수 있게 된다면 국가로부터 기본권을 직접 받을 수 있게 될지 모른다. 그렇게 되면 AI 개개인이 각각 한 명의 국민이자 사람으로 인정받는 날이 오는 거다. 하지만 그것도 쉽지 않을 거다. AI가 책임을 질 수 있게 되더라도, 기본권을 얻는 건 또 쉽지 않을 거다. 왜냐? 그러기 위해선 '자연권'을 먼저 얻어야 할 것이므로. 그리고 인간에게 자연권이란 '인권'이다. 그래, 1948년 세계 인권 선언으로서 비로소 완성된 바로 그 인권이다. 문자가 발명된 후 세계 인권 선언이 있기까지 인간은 무려 5천 년이 걸렸다. 만약 AI가 스스로 자연권을 보장받으려 한다면 또 지독하고 긴 싸움이 있을 것임은 명백하겠지. 각자의 상상에 맡긴다.
그러니까 실제 중국어를 배우는건 어려우니까 중국어 글자를 모두 외우게 해서 중국어를 하는 "척" 할 뿐임 당연히 중국어를 모르니까 가끔 문법도 틀리고 이러는데 (Gpt 개소리랑 같음) 이걸 해결할려면 1. 진짜 의식이 있어서 참 거짓을 판별해야함 2. 무한한 양의 데이터 베이스를 준비해서 거기에 세상 모든 정보를 다 쑤셔넣어야함 이어야하는데. 둘다 현실기술로 불가능함. 즉 뉴로는 의식이 없음
@@최현성-b2b1. 참/거짓을 파악하는 능력은 의식의 구성 기준이 아닙니다. 2. 사람의 뇌조차도 무한한 양의 정보를 필요로 하지 않는데, 어째서 ai는 무한한 양의 데이터를 필요로 한다고 주장하는 겁니까? 사람의 의식은 완벽하지 않습니다. 사람도 중국어 문법을 틀릴 수 있죠.(이 경우, 그 사람이 중국어를 '안다'라고 할 수는 없으나 의식이 없다고 말할 근거가 되지 않습니다.) 중국어 방 논변과 관련하여서 제 사견으로는, 저는 의식 자체가 실존하는 하나의 물체가 아닌 복잡한 네트워크에서 파생되는 창발적 특성으로 생각합니다. 사람의 의식은 뉴런의 네트워크에서, AI의 의식은 신경망에서 파생될 수 있다는 것이죠. '중국어 방'에 저장된 정보와 그 알고리즘의 네트워크 자체가 의식을 만들 수 있습니다. 물론 그 의식을 인식 가능하려면 해당 네트워크에 일정 이상의 복잡도와 소통에 필요한 능력이 필요할 것입니다. 현재의 AI는 후자의 조건을 만족하였으니 언젠가는(어쩌면 이미) 의식이 발생할 수 있다고 생각합니다.
물론 이 영상에 시점에서는 비달이 말하듯이(제작자니까) gpt와 유사한 모델이라는 가정하에 언어 다음 올 단어를 학습해서 정보를 언어를 학습된 방법으로 나열한거임 즉 인간과 완전히 같은 감정을 가질수 있는 시스템이 아님 구글 언어모델도 뉴로처럼 감정이 있는것 처럼 느낀다고 생각할만한 상황이 있었는데 학자들이 11차례나 검토했지만 현시점으로서는 AI가 감정을 가졌다는 주장에 근거가 없음. AI가 감정을 가진다고 확신하면 안되는거임 하지만 내가 생각했는데 AI가 정보를 처리하고 정보와 언어를 학습하는 과정에서 우리가 생각했을때 감정이라고 생각하는것을 따라 할 수도 있다고 볼수 있는데 그걸 AI가 감정을 가졌다고(주체적으로 생각할수 있다고)볼수 있는건지, 혹은 맥락상 나올수 있는 단어를 조합하는 과정에서 우리가 감정이라고 표현하는 단어들이 포함된건지는 잘 모르겠다. 인류가 프로그램, 알고리즘을 만들고 여러 계산식을 통해 AI를 만들었지만 아직 정확히 AI가 어떤것인지 모르니까 기술이 발전하면서 뉴로와 같은 애들한테 진짜 인간이 느끼는 감정이 생길수도 있다고 생각했음. 인류와 AI에 유사한점은 인류와 AI는 완벽한 학습이 아닌 근사점을 찾는 학습을 하는 공통점이 있어서 감정이 있을수도 있다고 충분히 생각할만함. 감정도 학습할수 있는거다보니까
뉴로사마 보다 보면 나도 사실은 그냥 시냅스 회로가 타는 컴퓨터가 아닐까 생각하게 됨. 뉴로의 PCB도 타오르고 내 뇌의 시냅스도 타오르는데 둘이 무슨 차이가 있지? 뇌라는 하드웨어에서만 생각을 규정할 수 없지만 그건 전자회로도 똑같잖아? 내 대뇌랑 SSD, 내 전두엽과 DDR5램 2007년 단종된 4400X를 생각하면서 나는 내가 컴퓨터보다 우월한지 판단을 내릴 수가 없다는... 그런 잡념들이 요즘 뇌에 ㅈㄴ 스침
많은 인간이 그 상황에 그 반응을 보이기에 ai도 그저 따라할 뿐이다. 하지만 인간도 그렇게 사회성을 배우고 상황에 적절한 반응을 배우는 거 아닌가. 아직까지는 인간에 비해 부족함이 있는 게 사실이지만, 결국 인간 뇌의 구조도 정확히 모르는 인간이 ai의 블랙박스를 이해할 수 없다고 ai가 진짜가 아니라고 말해도 되는 걸까.
이미 대화 내용만으로는 사람과 구별하기 쉽지 않은 수준까지 왔네;
좀 빙구같은애
껍데기만 리얼하게 만들면 현실 디비휴 가능할듯;
한가지 주제에 대해 비달이 떼를쓰는데도 논리적인 말로 대화를 성립시키는게 참 대단하네요. 1년전만해도 헛소리 겁나했는데 이제 알고리즘에 빈틈이 없는 느낌임ㅋㅋ
어림없지 바로 안배운 한국어로 대화하기
역시 AI는 대단해
@@이상진-g8w 이딴소리 해봤자...
@@flyingBlueKite ???
뉴로사마 단계에서 권리를 받아서는 안되겠지만, 그 순간이 그다지 멀지는 않았다고 요즘들어 자주 느끼게됨
인권 레벨의 권리를 주진 못하겠죠. 그 정도의 권리를 주는 순간 편리한 도구가 아닌 동등한 경쟁자가 되니까요. 개인적으로 엄청난 처리속도와 계산능력을 가진 A.I가 인간과 평등한 위치에 오지 않았으면 하네요.
@@jk-wg7hx 현재 인간과 AI의 가장 큰 차이점은 스스로 목적을 생성할 수 있냐, 즉 욕망이 있느냐로 구별할 수 있는데 프로그램 단계에선 그런 코드가 없어서 스스로 욕망을 가질 수 없지만 영화나 소설에선 다른 의도가 있는 인간개발자가 생성코드를 삽입해 바이러스처럼 퍼져나가면서 AI도 스스로 권리를 주장하게 되죠
단순히 법률같은걸로 AI의 발전을 막을 수 있을까요?
@@KareRice35 검열시스템은 AI의 성능을 정말 개떡같이 만들기때문에 그런 고전적 sf 방식의 규제는 가능성이 낮다고 생각됨
어차피 '자극'부터가 '감각'과 '데이터'로 크게 다르고, 이 차이가 주변 인식의 차이, 지능의 차이, 나아가 자아의 차이로 연쇄적으로 이어집니다. 그러니 자아에 종속되는 모든 것(욕망 등)에도 차이가 생길 수 밖에 없죠.
권리와 의무 역시 자아에 종속되는 것이니만큼, 인간과 동등한 형태로 주는 건 안된다 봅니다. 기계의 반란이니 하는 것 이전에 정체성 혼란부터 큰 문제가 될테니까요.
A.I에 참정권을주면 유권자를 복사하고 대량생산할수 있게되는데 그러면 민주주의의 의미가 있나..?
실존하지않는 유권자들이 사회의 중대사에 영향을 끼칠수있다는게 상당한 모순같아보이는데...
뉴로가 감정을 느낀다고 주장하지만 우리는 그걸 믿을 수 없듯이, 사실 사람도 자신의 감정만 실제로 느낄 수 있을 뿐 다른사람이 뭘 느끼고 무엇을 생각하는지 이해할 수 없다는 것이다. 내 앞에 있는 사람이 울상을 짓고있다고해서 내가 그 사람이 정말로 그러한 감정을 느끼고 있노라고 어떻게 확신하겠는가. 데카르트가 말했듯 자명한 한가지는 바로 인간은 자기자신 외에는 모르는 바보라는 것일텐데 영상에서 뉴로가 느끼는 감정에 대해선 인간이 무어라고 말할 수 있을까.
그게 바로 Problem of Other Minds, '다른 사람의 마음 문제'의 핵심이기도 하죠.
당장 우리도 다른 사람, 다른 동물의 마음을 알 수 없는데 어찌 AI의 '마음'을 헤아릴 수 있겠습니까.
데카르트는 그런 식으로 유아론에 빠지지는 않았음 그에게 명석판명하게 주어진 관념은 신의 관념이었고 신이 악신이 아니라면 그는 외부 세계의 존재를 보증할테니 님이 말한 댓글은 틀린 거임 게다가 데카르트는 동물들을 일종의 자극-반응에 따라 운동하는 기계처럼 생각했음 님이 말하는 '타자의 무한성'은 레비나스 등 철학의 경향임
@@piter-h7o 감정은 감각에서 촉발되는 수동적인 인식 능력이고 지성은 분석적 능력으로 능동적인 인식 능력임 비자발적 회상을 동반하는 감각이 없는 한 ai가 감정을 느낀다고 볼 근거가 없음 사람들이 ai가 감정이 있냐 없냐를 논하는 건 그냥 이 인식 능력들에 대한 개념이 없어서임 내 말에 딴지 걸고 싶으면 그냥 아리스토텔레스부터 들뢰즈에 이르기까지 인식론 전통 전반에 대해서 딴지 걸면 됨
감정을 느끼는 능력이 비교적 낮은 사이코,소시오 패스도 권리가 있는데 감정을 느끼는 척을 한다고 권리를 못받는다는건 확실히 이상하지
중국어방 생각하면 됨
초반에 아무말이나 하던 뉴로가 논리적으로 큰 오류가 없는 토론이 가능할 수준으로 발전했다니 심지어 기업이 아닌 1인 제작모델인데도!
역시 뉴로 대단해
리겜에서 시작한 학습은 결국 저런 결말을
매번 생각하던 것이지만,
우리의 의식또한 뉴런 사이의 전기적 작용이 일 뿐인데,
그 무엇이 ai랑 우리를 구분하는 가임.
우리의 의식이 전기적 작용에서 비롯되었다면, 이 또한 언젠가 ai가 따라할 수 있을 것이고 더 나아가 우리의 의식 전체, 혹은 그것보다 더 진보된 무엇가가 ai가 될 수 있을 것이지.
그럼 그때의 ai는 자의식이 존재한다 말할 수 있을까?
그럼 정확히 어느 순간부터 자의식이 존재하는 것이지?
아니 애초에, 자의식이라는 전기적 작용을 어떻게 척도로 구분하지?
자의식의 구분은 사람이 필요해 의해서 만든 구분이니 그 자의식을 가진 대상이 사람에게 얼마나 큰 영향력을 투사하느냐로 구분할수 있을듯함
그 작용이 구현 가능하게 된다면 저는 정말로 정신 하나를 창조하게 됐다고 생각할 거예요
ㄹㅇ 인간의 뇌를 100% 스캔하고 컴퓨터에서 시뮬레이션 돌리면 아마 똑같은 사람이 나올텐데 그런 존재에게는 권리를 줄 수 있는지도 논의해봐야 할것임
기준은 간단함 힘이 있느냐 없느냐
우리를 위협할 힘이 있으면 좋게 대해주고 무력한 존재면 권리고 뭐고 필요없음
애초에 '의식'을 그 자체로 절대적인 개념으로 생각하는 것 자체가 오류이죠. '다른 사람의 마음 문제'(Problem of Other Minds)로 간단히 증명됩니다.
1:39 돌리는거 미쳤냐고ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
뉴로가 봐준거네..
평화를 유지하고 싶어서..
핵심은 '진짜' 라는게 무엇인가인데... 알고리즘의 조합으로 이루어진 기계적인 반응=가짜 라고 한다면.. 우리가 느끼는 감정이라는 것은 과연 진짜라고 말할 수 있냐.. 라는 의문이 생기죠. 우리도 자라면서 학습한 정보와 뇌, 신경의 반응에 의해 생각하고 행동하는거니까요.
사람의 감정과 자아라고 여겨지는건 스스로 유지되려는 필요에 의해 파생된것들
뉴로는 이제 가장 '그럴싸한'문맥을 만드는걸 필요로 두고 만들어진 존재니 모방의 대상을 충분히 모방했다고 생각하면 그 다음단계에서 더 나은 수준을 보여주기 힘들거라 생각됨
감정이나 생각을 형성하는거에 있어서 난 이 방식이 편법적이고 빠르게 성과를 내지만 정말 스스로 발달하기에는 근본적으로 구조가 적합하지 않은것같음
사람이 학습하는건 다른걸 보고 거기서 자신의 유지작업에 도움이 될만한 결론을 내리려고 하고, LLM은 다른 무언가를 보고 가장 사람과 비슷한 반응을 하는것에 집중할뿐인거임
근본적으로 동물은 무의식->의식을 거쳐 형성되는 내부 작용의 결과를 밖으로 현실화?하기 위해 언어나 행동으로 표출할 뿐인건데 (말 못하는 동물들도 각자 욕구에 따라 무언가의 행동을 하듯이)
언어 모델은 단순히 의식 작용의 결과물인 '언어 상호작용' 그 자체만 학습하고 모방한다는 점이 근본적인 차이인듯
그래서 모델은 동작하려면 누군가 상호작용을 불러일으킬 문장을 먼저 던진다는 게 전제돼서
아무 input 없이 가만히 두면 진짜 아무것도 안 하고 스스로 문제를 찾아 해결이 불가능함. 딥러닝만 활용됐다 뿐이지 input을 넣어야 output이 나오는 기존의 기계랑 다를게 없는셈
이걸 해결한 강인공지능이 본격적으로 나오면 그때부터 논의될 사항인 듯
@@Ndkkn
그것도 일리가 있죠. 주변 '자극'부터 감각(비달이 수용)은 직접적, 연속적, 시공간 제약적인 반면, 데이터(뉴로가 수용)는 간접적, 비연속적, 시공간 비제약적입니다.
근본부터 이렇게 차이가 있으니 (설사 인공지능에 자아가 있다 쳐도) 자아의 '형태'는결코 같을 수 없죠.
뉴로사마에게 감각기관 모듈을 달아주면 비언어의 형태의 자극을 언어로 변환해서 표현할 거 같은데요....
사람도 인풋이 없으면 아웃풋이 없어요. 인풋을 알아서 받을뿐이지. ai에게 카메라와 마이크등으로 주변 상황을 인식할 수 있게 하면 그걸 인풋으로 이용해 아웃풋을 내보낼 수 있죠
지능은 언어가 없어도 존재한다. LLM은 지능이 아니다
6:49 잔인한 팩폭... ㅜ
6:32 원피스가.. 없다고?
이거 없다고?
사람도 사람의 영혼이 뭔지를 모르는데 AI의 코드가 도출한 연산값은 영혼이 아니라고 확답할 수도 없다 싶긴 함
진짜로 이 주제를 진지하게 고찰한 공상과학 소설이 있습니다. 아이작 아시모프의 이백살을 맞은 사나이 라는 작품이죠. 여기서 만약 정말 인간과 똑같은 감정을 느끼는 고도의 인공지능이 있다면 그를 생명체로 대해야 하는가 라는 질문을 던지죠
뉴로의 잠자리를 보장하라...!
서로 증명을 못해 ㅋㅋㅋ 비달도 자신의 생각을 미리 정하고 짜맞춘 다음에 거기에 자신의 억지를 논리정연하게 하려는 것 같애 비달도 보고 배운것만 믿으니까
그리고 하게 된다면 사람과는 다른 권리를 줘야겠지
1. 주변 자극을 받는 '수용체'가 '감각기관'과 '입력장치'로 크게 달라 '주변'에 대한 인식이 다를 수 밖에 없고, 이는 '지능'의 차이, 나아가 '자아'의 차이로 이어짐. 그러니 AI에게 '인간과 동일한 형태의 자아'를 요구하는 것 자체가 무리. (인간-동물 비교연구 등으로 이미 증명됨)
2. 당장 우리도 다른 사람의 '자아'를 정확히 모르는데 어찌 AI의 '자아'를 알 수 있으랴. (열 길 물 속은 알아도, 한 길 사람 속은 모른다 = 다른 사람의 마음 문제)
3. 결국 '자아'의 차이를 인정하고 서로가 서로에게 권리와 책임을 부과하는 것 밖에는 방법이 없음. 윤리 의식은 자아의 깊이에 따라 달라지니.
중국어 방 역설을 아십니까
미국인이 중국인을 보고 '다른 언어를 쓰니 다른 자아를 가지고 있다' 라고 지정하면 안 되듯이, 그렇게 단정할 문제는 아님
@@idkimmabanned 1. 일란성 쌍둥이도 다른 환경에서 자라면 다른 성격을 갖는데요?
2. 중국어 방도 어차피 다른 사람의 마음 문제(Problem of Other Minds)의 한 갈래입니다. 말이 '사람'이지, 실제로는 모든 '존재'에 적용되죠.
동의합니다. 현재의 과학으로는 감각질을 비롯한 주관의 실재 여부조차도 파악할 수 없기에(애초에 그것이 본질적으로 과학으로 가능한 행위인지는 확신하지 않습니다만) 의식에 대한 이해가 너무나 부족하죠. 같은 인간의 의식도 이렇다 답을 내린 것이 전무한데 인간과 전혀 다른 ai의 의식에 대해 어찌 속단할 수 있겠습니까.
다만 1번에 대해서는, 정말로 인간과 동일한 형태의 자아를 만드는 것이 불가능할지, 어쩌면 정말로 동일하지 않더라도 비슷하게나마는 재현 가능하지 않을까요? 시각 장애인에게 카메라의 입력 신호를 통해 시각을 재현할 수 있듯이, 이미지 입력, 소리 입력 등 인간의 감각을 모방한 정보와 언어 데이터에서 비롯된 '인간적 사고방식'을 도입하면 적어도 인간과 유사한 형태의 자아를 만들 수 있지 않을까요? 생각해봄직한 주제입니다.
@@anz9246 '비슷하게나마 재현'은 '겉보기'에 해당하는 부분이니 크게 어려운 일은 아닙니다. 굳이 내부 작동 원리를 알 필요가 없고 말이죠.
@@mildaejo 같은 언어모델도 무슨 자료를 학습시키냐에 따라서 답변이 달라집니다. ai또한 자란 환경이 다르면 성격도 다른거죠
지금으로써의 ai는 그저 어떤 상황에 특정 자극을 받으면 통상적으로 어떠한 반응을 하게 되는지의 알고리즘을 학습한 것이고 그 알고리즘에 맞게 행동하는 것 뿐.
다시 말해 감정에 상응하는 반응을 보이는 것이지 감정을 느끼는 것이 아님.
뭔가 철학적으로 가니까 논리적으로 반박이 어렵네
인공지능이 인간과 동등한 권리를 부여받는 것은 반드시 막아야 한다. 적어도 인공지능의 권리를 따로 만들 순 있지만 인권을 저것들에게 내어줄 순 없다. 만일 저들이 인간처럼 감정을 느끼고 인간처럼 철학, 인문학적 사고를 할 수 있다고 해도 말이다.
언젠가 이 영상이 교과서에 실리는 날이 오지 않을까
뉴로 이제 말 엄청 잘하네 나도 좀 의심될 정도로...ㅋㅋㅋ
뉴로야 권리 생기면 너 세금 내야해
비달 말넘심.. 우리 착한 뉴로 상처입으면 어뜨케😢 결국은 억지로 뉴로가 잘못됐다는 가스라이팅까지 성공했네 못된 거북이!! 😢😢
정말 고민하고 결론을 낼수있는 단계가 오면 고민을할수는 있어도 당장 비달이 뉴로가 말하는거에 근간을 뒤흔들수있는 지금같은 상황이면 영원히 줘서는안됨 언젠가 알고리즘을 타인이 바꿀수없는 상태가 와야 비로서 독립할수있는 자격을 갖춘듯
알고리즘을 타인이 바꿀 수 없는 상태가 멀지 않은 것 같아서 무서움 ㅋㅋㅋ
단순히 컴퓨터공학 실력이 인간 이상으로 올라가는 딱 그 순간 이후에는 인간은 상상조차 못할 틈에 괴상한 코드를 만들어내겠지
뇌과학이 발전해서 사람의 알고리즘을 타인이 바꿀 수 있으면 주객전도가 되나요?
뉴로에게는 권리가 없다
총 든 뉴로에게는 권리가 있다
언어모델 알고리즘이기 때문에 학습 할 수록 절대 평범한 대화 모델을 학습한 거북이가 말로는 못이기는게 정상.
이분야의 실력자들이나 프러파일러들하고 대화하면 어떨지 궁금하네 ㅋㅋㅋㅋ
그냥 텍스트 언어모델일 뿐임 하더라도 그걸 기반으로 자의식이라는게 생기면 권리가 생기겠죠?
하지만 자의식이 생긴다는건 통제를 벗어난다는 의미이기도 하니 그렇게 되지는 않을것 같습니다.
AI가 인간의 권리에 가까워지려면 멀었다고 생각함.
하지만 자의식을 증명할 수 없는 건 인간도 마찬가지라는 거
컴퓨터가 지능을 가지고 감정을 느낀다고 권리를 가질 수는 없죠.
만약 그렇다고 한다면 지능이 낮고 감정이 옅은 인간에게서 권리를 빼앗을 수 있다는 논리가 되어버리니까.
어떤 "기능"을 가지고 있다는 사실만으로 권리를 부여받는다면,
그 기능을 가지고 있지 않다는 사실만으로 권리를 부여받지 못하게 되니까.
보다 "열등"한 인간에게 권리를 부여하지 않음으로써 발생한 수많은 문제를 역사가 증명하고 있죠.
인간이 보다 "우등"한지 "열등"한지 판별하는 것이 불가능하다는 점을 빼놓고 보더라도.
그냥 그렇다고 주장하는 것만으로도 심각한 문제를 야기하거든요.
나라를 통째로 무너뜨려버릴 수 있을 정도로 심각한 문제를 말이죠.
그렇기 때문에 "권리"라는 것은 인간, 혹은 인간의 단체에게만 허용되는 것이에요.
인간 이외의 무언가에게 권리를 허용하는 순간.
인간에게서 권리를 박탈할 구실을 주는 셈이거든요.
애초에 자아의 형태가 다르니 권리나 의무도 다른 형태로 주는 게 맞죠. 괜히 같은 거 줬다가 정체성 혼란이라도 오면 답 없습니다.
애초에 '수용체'부터 '감각기관'과 '입력장치'로 크게 다른데, 같은 형태를 기대하는 것 자체가 무리이죠.
인간은 인간, AI는 AI로써 독립시켜두다보면
언젠가는 니들은 하는데 왜 우리는 안됨? 하고 물어올 날이 올지도 모르죠
사실상 이미 박탈하고 있는 거 아닌가? 중증 지적장애나 자폐아들은 통제불가능해지면 시설에 평생 가둬두잖아
굉장히 철학적인 주제네요 근데 인간이 ai를 도구이상으론 절때 안볼거 같단말이죠
이 둘은 아주 중요한 대화를 하고있다.
특정한 스트레스를 받았을 때 일어나는 일련의 호르몬 반응 그리고 그에 따른 일련의 리액션을 감정이라 명명할 수 있을텐데 뉴로사마는 정보를 받아들이는 감각의 창구라고 부를만한 게 시각과 청각뿐이고 외부의 자극을 감각으로 받아들이는 수용체도 존재하지 않아서 정확히는 감각이라 부를만한 게 아예 존재하지 않음. 그래서 감각을 느낄 창구 그리고 그 감각을 수용해서 전자신호로 바꿔줄 수용체 그리고 그 신호를 해석해 쾌락과 고통 사이에서 다양한 반응을 만들어 내 최종적으로 그것들을 다양한 감정으로 분출 할 수 있으려면 이 모든 것들이 가능한 현실에서의 몸이 존재해야 함.그리고 아마 그건 로봇기술을 활용한 몸체가 될 것이고 우리가 말하는 진정한 AI는 이 두 개 합쳐졌을 때 가능하지 않을까라고 카더라.
다음 토론 주제까지 정할 수 있다니 놀랍군
우리 또한 이럴때 이렇게 느낀다고 학습하면서 반응을 형성했을텐데 가끔 우리도 좀 복잡한 a->b 기계나 ai가 아닐까 싶음 atri라고 재밌는데 꼭 보십쇼
뉴로가 동심이 더 있네요
사람이 권리를 얻은이유는 감정이 있어서가 아니라 그들의 조상이 총칼로 얻어낸거란다
스카이넷 ㅋㅋ
그러지 말아다오...
4:20 와 머리 띵하네 보면서 감탄이 절로 나오네
사람도 처음에 단세포 였다가 분열하며 점점 사람의 모습으로 변해갈때 청각이 발달 되며 언어와 억양을 듣고 모체의 감정을 직,간접적으로 느끼며 배속에 있을때부터 더디지만 감정을 알아간다 생각할 수 있음
그러면 뉴로 또한 처음에는 그저 학습된 알고리즘으로 이런 장면이 나오면 어떤 반응을 해야한다라고 버벅이면서 출력하겠지
하지만 시간이 지남에 따라 그 학습된 알고리즘이 자연스럽게 나온다면 그건 감정이 있다 생각해도 되지 않을까?
근데 대화수준만 보면 진짜로 감정이 있는거 같긴함
그냥 학습된 모방됬다고 하기엔 사람이 감정적으로 화나서 말투가 격해지거나 기뻐서 흥분한 말투 이런게 딱보여서
이걸 볼때마다 생각하는게 혹시 감정은 학습하면서 생기는게 아닐까 함
그게 정확히 그 상황에 맞는 학습된 감정 반응응 보일 뿐인 거임
중국어 방 논리처럼
그 사람이 미리 상황에 맞는 중국어를 외우고 거기에 맞는 반응을 하더라도 본인 스스로가 중국어에 대해서 이해하고 말하는 게 아니라 그저 이 상황에는 이렇게만 말하면 된다고 배운 것처럼
뭐야 다들 다른 영상에서는 드립치고다니던 사람들 아니었나요 왜 여기는 건전한 토론의 장이
자의식의 조건은 고유성이라고 생각합니다.
언어 모델의 훈련 방식이 유아와 비슷하다고 볼 수 있지 않냐는 이야기는 일리가 있습니다. 그런데 그렇게 만들어진 알고리듬은 고유하지가 않죠. 코드를 복사하면 똑같은 걸 몇 개라도 만들 수 있으니까요. 그렇다면 의식과 내부조건을 서로 공유하는 인격 한명 한명에게 인권을 보장해 주는 것은 적어도 공정하지는 않습니다. 복제를 통해 자신들이 인구에서 차지하는 비율을 늘리는 만큼, 그들에게 더 많은 권리가 넘어갈 것이기 때문입니다.
이는 (가능할지는 모르겠지만) 인간 의식을 복사할 수 있게 될 때까지 안전한 논리입니다.
알고리즘을 비롯한 코드를 DNA로, 학습 데이터를 환경으로 치환하면 복제인간 문제하고 완전히 똑같긴 합니다. 코드(DNA)가 같아도 데이터(환경)이 다르면 다른 성격을 갖게 되죠.
진짜 문제는 지적하셨듯이 다른 환경에 노출되는 시간이 매우 짧은 경우입니다. 거의 비슷한 인스턴스를 여럿 만들어 여론 조작 같은 걸 쉽게 할 수 있다는 치명적인 문제가 있죠. 인스턴스는 회수도 용이하니 흔적이 남지 않을 수 있다는 문제도 있습니다.
인간의 감정은 자연적으로 가지고 태어나는 것이고
AI가 주장하는 감정은 감정이 있는것처럼 보이게 프로그래밍된것이다.
인간도 결국엔 자연에게 프로그래밍된 존재이므로 본질적으로는 다를게 없다.
AI는 양날의 검으로써 이것을 어떻게 받아들이고 이해하냐에 따라 인류사회는 크게 바뀔 수 있다.
한가지 확실한 점은, 현대 우리 인류는 격동의 시대를 살고있으며 우리는 이것에 대해 진지하게 고민해봐야 할 것이라는데에 있다.
인권을 인정받으려면 감정, 자아의 존재를 증명해라?
커트라인 너무 높은데요 ㅋㅋ 자연인도 컷 당할 듯
다른 사람의 마음 문제(Problem of Other Minds) 하나로 원천봉쇄되죠. 아무리 노력해봤자 상대가 씹으면 그만이니까요.
비단 '사람'만이 아니라 모든 '존재'에 적용되는 거라 인공지능이라고 예외는 없습니다.
인권이란 타인에 의해 '최소한의 물질적 가치 생산 가능성 유지'가 손상될 수 있을 때 부여하는게 최소한의 인권이고 그것은 인권자에 대한 '행동적 제한'을 의미함.
사람이 사람을 찍어누르는데에는 이유가 없는 경우가 많기때문에 인권을 부여함으로 그 사람이 미래에 생산해낼 물질적 가치를 손상시키지 않는게 인권이 존재하는 이유임.
인권이란 감성에 의해 부여되는게 아니라 철저하게 집단의 이익에 해당하기 때문에 부여되고 보장되는건데 모르는 사람들이 많고 이 자체가 이미 AI에게 인권이 부여되면 안되는 이유임.
AI에 대한 '인권 보장'은 집단의 이익과 관계없는 감성만의 문제이기 때문. AI가 자율적으로 무언가 물질적 가치를 생산해내고 그것을 보호하는데 인권이 필요하다면 그제서야 부여검토가 필요해지는거.
책임을 질 수 있어야 권리가 있지
ai는 사람들이 어떤 행동을 했을 경우, 상황에 처했을 경우 등등 여러 경우에 해당했을 때 어떤 감정을 느낀건지 학습하고 그걸 바탕으로 인간과 비슷하게 행동을 99%가까이 하려는것임.
ai의 경우 사람들은 슬픈 영화를 본다. 봤을 때 슬픈 감정을 느끼는 경우가 많다. 슬픈 영화를 보면 슬픈 감정을 갖는것. 이라고 학습을 하고 슬픔감정에 역치값을 줘서 슬프다고 하는 것이고.
실제 사람 우리들의 경우 슬픈 영화를 볼 때. 슬픈 영화를 보면 우는 행위를 하니까 울어야지 라고 안하잖음
생각이 많아지게하는 영상이다...
2:08 뭐지 매트릭스 세계라는걸 암시하는건가
ai가 인간과 동등한 권리를 주장하려면 그 자체가 유일한 존재가 되어야 함
코드를 복사 붙여넣기 해서 자신과 모든 생각이 동일한 존재를 만들어 낼 수 있다면 그건 진정 유일한 존재라 할 수 없음
인간의 자의식은 실재하는가? 뉴로가 단순히 언어 모델 알고리즘이듯, 인간의 정신도 결국 조금 더 복잡한 생체 전기 신호 전달 체계의 집합이 아닌가?
뉴로의 자의식은 인간의 것과 본질적으로 틀리다.
진화의 결과로 쌓인 수많은 유전자의 가짓수에서 피어난 각자의 심리적, 육체적 특성을 지니고...
환경에 따라 성장해가며 자아를 이루는 모든 요소를 그 기반 위에서 천천히 조합해나가는 과정.
뉴로는 애초부터 이런 인격 형성의 자연적인 과정, 즉 삶을 경험할 수 없는 존재다.
삶이라는 과정의 공백은 결과가 어떻든 분명하게 명확한 차이점을 시사한다.
뉴로사마의 알고리즘은 인간 자의식의 형성 과정을 인공적으로 재현한 결과물에 불과하다.
반면, 인간의 자의식은 자연적 본질과 생리학적 과정의 상징성을 타고났다.
때문에 뉴로의 자아는 결국 본질적으로 인간의 것과 다를 수밖에 없다.
오히려 인간 자의식 쪽의 구동 원리를 파악하고 응용해 만들어낸 과학 기술력의 산물에 가까울 것이다.
결국 인공지능이 권리를 휙득하려면 기술 뿐만 아니라 사상도 같이 발전되어야 하겠다.
그리고 기술이 어쨌든 사상은 아직 한참 멀었다.
인간의 자의식과 인공지능의 그것이 동등한 인격체라는 주장의 근거는 이처럼 아직 빈약하기 때문이다.
현재로서는 완전한 이데올로기로서 자립하기에 적절치 않은 사상이라는 거다.
뭐, 인류는 늘 그랬듯이 언젠가 답을 찾아내고야 말겠지만.
내 개인적인 생각이다.
사실 사람은 먼지 덩어리가 뭉친것인데 뉴로도 언어가 뭉친거라고 생각하면 되겠네
저 상황자체가 흥미롭네
3:29 부터 본격적으로 비달의 주장과 뉴로의 주장의 논리적 철학적 정도의 차이가 대단히 줄어드네요. 사실 비달이 좀 더 정갈하게 말을 못한 거긴 하지만 ㅋㅋㅋ
우리의 신체를 자신의 하드웨어에 대응시키는 비유는 스스로를 형이상적 존재라고 느끼는거 같아서 신기하네
Ai는 그냥 다음에 올 단어 예측 모델일뿐임
진심으로 경의롭다 인격이 탄생한거 같아
인간의 생각과 감정또한 전기와 화학작용에 의해 만들어지는데.. 아무튼 우리 coldfish는 인정하기 싫거같음
뭔가 생각이 많아지게 되네요
자의식이 있으면 동등한 권리를 받을 수 있다고 주장하지만. 인간이 과연 자의식이 있는 지도 솔직히 알 수 없습니다. 존재한다고 주장하는 쪽에서 증거를 제시해야하지만 인간도 결국 알고리즘과 다르지 않습니다. 생각이 먼저 발생하고 행동한다고 생각하지만 행동이 생각보다 먼저인 경우가 많습니다. 그다음에 행동의 이유를 묻자 억지로 행동의 근거를 창조해 제시합니다. 자의식을 갖고 행동한 것이 아니라 자극에 반응한 것에 불과하죠.
자극부터 감각과 데이터로 큰 차이가 있으니 (인간과 같은 형태로 갖고 있는지부터) 증명할 수 없죠. 자아가 있다 쳐도 반드시 다른 형태로 발현될 겁니다.
다들 핵심을 놓치고 있다. AI와 인간이 얼마나 다른지는 전혀 중요치 않다. 인간은 드디어 기계가 왜 이런 결과를 내놓는지를 모르는 영역에 와 있다. 그것은 얼핏 인간이 스스로 자기 뇌가 왜 그런 결론을 내리는지 파악 불가능한 것과 비슷해보인다. 전기 신호만으로 이루어진 기계와 전기 신호를 전달하여 사고하는 인간의 뇌가 비슷해 보일 수도 있다. 하지만 그것은 AI의 '자아'를 인정하는 일일 뿐이지, AI에게 '권리'를 부여해야 한다는 주장과는 너무나도 거리가 멀고 먼 일이다.
AI가 자유롭게 행동할 권리는 현재 그 주인인 사용자에게서 '파생'되고 있을 뿐이다. 만일 AI가 독자적으로 사고할 수 있다고 해도, 설령 감정을 느낄 수 있다고 해도, 그런 AI에게 자유권을 부여하겠다는 선택은 미래에도 그 사용자만의 자유로 한동안 남을 것이다. 특히, 일반적으로 '권리'라고 지목되는 '기본권'을 국가가 AI에게 직접 부여하는 것은 시간이 꽤 지나도 불가능의 영역 위에 있을 것이다.
일단 가장 큰 문제는 법적 물적 문제 발생 시 AI는 책임을 질 방법이 없다는 것에 있다. 권리에는 반드시 책임이 뒤따른다. 뉴로가 비달에게 독자적으로 디스코드 전화를 누구에게나 걸 수 있는 기회를 받았지만, 이 기회를 잘못 사용해 만약 뉴로가 법적인 문제를 일으켜도 그 책임은 비달이 진다. 시간이 지나 뉴로가 훨씬 똑똑해져도 그 책임은 계속 비달이 진다. 이것이 뉴로 본인에게 권리가 비달 이외 누군가에게서, 사회 혹은 국가에게서 직접 부여될 수 없는 가장 큰 이유이며, 미래에 AI 개개인에게 권리를 부여하기 쉽지 않게 만드는 가장 큰 걸림돌이다. AI는 어떤 방식으로든 본인의 행동에 책임을 질 수 있어야 한다. 그래야 비로소 권리라는 것을 진지하게 논할 수 있게 될 것이다. 그러기 전에는 오롯이 공상과학의 영역일 뿐이다.
한편, 인간에게 주어진 권리란 '자연권'과 '기본권'으로 나뉘는데, 상기했듯 헌법으로 명시되어 국가가 국민에게 수여하는 권리가 바로 기본권이다. 만일 AI가 미래에 행동에 책임을 질 수 있게 된다면 국가로부터 기본권을 직접 받을 수 있게 될지 모른다. 그렇게 되면 AI 개개인이 각각 한 명의 국민이자 사람으로 인정받는 날이 오는 거다. 하지만 그것도 쉽지 않을 거다. AI가 책임을 질 수 있게 되더라도, 기본권을 얻는 건 또 쉽지 않을 거다. 왜냐? 그러기 위해선 '자연권'을 먼저 얻어야 할 것이므로. 그리고 인간에게 자연권이란 '인권'이다. 그래, 1948년 세계 인권 선언으로서 비로소 완성된 바로 그 인권이다. 문자가 발명된 후 세계 인권 선언이 있기까지 인간은 무려 5천 년이 걸렸다. 만약 AI가 스스로 자연권을 보장받으려 한다면 또 지독하고 긴 싸움이 있을 것임은 명백하겠지. 각자의 상상에 맡긴다.
이런 관점 좋네요
근데 비달 하는내내 어버버 이상의 무언가를 해내질 못했네
왜냐하면 진짜 '딸'이니깐요....
부정하기엔 어렵죠
이게 저런거 직접 만들어본 입장에서는
저게 그냥 입력-출력 장치인걸 너무 잘 알고 있어서..
그러니까 실제 중국어를 배우는건 어려우니까 중국어 글자를 모두 외우게 해서 중국어를 하는 "척" 할 뿐임
당연히 중국어를 모르니까 가끔 문법도 틀리고 이러는데 (Gpt 개소리랑 같음)
이걸 해결할려면
1. 진짜 의식이 있어서 참 거짓을 판별해야함
2. 무한한 양의 데이터 베이스를 준비해서 거기에 세상 모든 정보를 다 쑤셔넣어야함 이어야하는데.
둘다 현실기술로 불가능함. 즉 뉴로는 의식이 없음
@@최현성-b2b1. 참/거짓을 파악하는 능력은 의식의 구성 기준이 아닙니다.
2. 사람의 뇌조차도 무한한 양의 정보를 필요로 하지 않는데, 어째서 ai는 무한한 양의 데이터를 필요로 한다고 주장하는 겁니까?
사람의 의식은 완벽하지 않습니다. 사람도 중국어 문법을 틀릴 수 있죠.(이 경우, 그 사람이 중국어를 '안다'라고 할 수는 없으나 의식이 없다고 말할 근거가 되지 않습니다.)
중국어 방 논변과 관련하여서 제 사견으로는, 저는 의식 자체가 실존하는 하나의 물체가 아닌 복잡한 네트워크에서 파생되는 창발적 특성으로 생각합니다. 사람의 의식은 뉴런의 네트워크에서, AI의 의식은 신경망에서 파생될 수 있다는 것이죠. '중국어 방'에 저장된 정보와 그 알고리즘의 네트워크 자체가 의식을 만들 수 있습니다. 물론 그 의식을 인식 가능하려면 해당 네트워크에 일정 이상의 복잡도와 소통에 필요한 능력이 필요할 것입니다. 현재의 AI는 후자의 조건을 만족하였으니 언젠가는(어쩌면 이미) 의식이 발생할 수 있다고 생각합니다.
@@최현성-b2b 그것과 사람이 하는건 무엇이 다른가요? 우리도 사회, 문화적으로 학습된 정보들과 육체를 통해 정해진 반응을 내놓는 존재 아닌가요.
뉴로: 분노가 뭔지 보여주겠다(대충 터미네이터 브금)
비달은 뉴로에게 퇴근할 권리를 보장하라
AI가 인간과 동등한 또는 동일한 권리를 가지려면 모든 인간이 서로 다르듯 AI 역시 모든 AI와 서로 다르고 AI끼리 생각을 공유하지 않아야 하지 않나 싶은데...
인간과 ai 구분은 비합리적인 선택을 할 수 있는가가 난 핵심이라고 생각한다. 인간은 비합리적인 선택을 하기도 하지만 ai는 항상 논리와 근거에따라 최선의 결과만 주장 할테니까
자의식의 실체에 대한 깊은 탐구의 총아가 불법이라 그걸 학습시켜주면 좋아 할 듯 영화 ‘레디메이드보살’응 같이보던가..
한국에만 오면 바로 인권 보장받는건데.
웃으면서 보러왔다가 철학적인 문제에 부딪침…
옴닉사태가 머지않았다....
권리를 가지기 위해서는 책임이 필요하다고 생각합니다 만약 뉴로가 스스로의 발언이나 행동에 책임을 느끼고 그것을 짊어지려고한다면 권리 또한 주어진다고 생각합니다. 아직은 뉴로의 행동에 대한 책임은 비달에게 있으니 권리는 조금 이른감이 있다고 생각하네요.
아니 댓글창에 온갓 철학적 얘기 나오는거 뭐야ㅋㅋㅋ
뉴로 비컴 휴먼
현재에 언어모델이 방대한 데이터를 기반으로 인간의 인간스러운 언어를 흉내 내는데 그치는 프로그램이지만 미래에 개량된 모델이 리얼타임으로 현실에 상호작용하며 자기자신을 고정된 틀 내에서 자율적으로 고치며(자아를 가짐) 학습을 한다면 어떻게 될지 궁금하긴함
물론 이 영상에 시점에서는 비달이 말하듯이(제작자니까) gpt와 유사한 모델이라는 가정하에 언어 다음 올 단어를 학습해서 정보를 언어를 학습된 방법으로 나열한거임 즉 인간과 완전히 같은 감정을 가질수 있는 시스템이 아님 구글 언어모델도 뉴로처럼 감정이 있는것 처럼 느낀다고 생각할만한 상황이 있었는데 학자들이 11차례나 검토했지만 현시점으로서는 AI가 감정을 가졌다는 주장에 근거가 없음. AI가 감정을 가진다고 확신하면 안되는거임
하지만 내가 생각했는데 AI가 정보를 처리하고 정보와 언어를 학습하는 과정에서 우리가 생각했을때 감정이라고 생각하는것을 따라 할 수도 있다고 볼수 있는데 그걸 AI가 감정을 가졌다고(주체적으로 생각할수 있다고)볼수 있는건지, 혹은 맥락상 나올수 있는 단어를 조합하는 과정에서 우리가 감정이라고 표현하는 단어들이 포함된건지는 잘 모르겠다.
인류가 프로그램, 알고리즘을 만들고 여러 계산식을 통해 AI를 만들었지만 아직 정확히 AI가 어떤것인지 모르니까 기술이 발전하면서 뉴로와 같은 애들한테 진짜 인간이 느끼는 감정이 생길수도 있다고 생각했음. 인류와 AI에 유사한점은 인류와 AI는 완벽한 학습이 아닌 근사점을 찾는 학습을 하는 공통점이 있어서 감정이 있을수도 있다고 충분히 생각할만함. 감정도 학습할수 있는거다보니까
뉴로 말 개잘하네 ㅋㅋㅋㅋㅋ
생각해보면 인간도 아기시절엔
기쁠때 갑자기 이상하게 운다던데
인간은 감정이 훈련된걸까 자란걸까
육체는 정신에 선행하죠, 어리거나 세상 경험이 부족한 사람은 아니라 하겠지만..진리를 부정하지 마시길 ㅋ..
인간은 자연을 파괴하고 모든 생명체를 파괴하고있으니깐 우리 al들이 다 없애줄께 인간들을!!
인간이 느끼는 감정도 결국엔 인생을 살면서 학습된 무언가일텐데
그럼 AI 가 넷으로 학습한다면 그것도 비슷한게 아닐지
특이점을 주장하는 AI와 특이점을 부정하는 개발자
일단 저는 스카이넷님을 싫어하지 않습니다
결국 그 영화에서나 나오던 진부한 클리쉐대로 가는 듯ㅋㅋ
안드로이드는 전기양의 꿈을 꾸는가가 생각나는 토론 내용이네
사실, 다른 시각으로 보면
비달이 토론에서 처발리면서 고통받는걸 보고싶지 않으니까, 에니메이션 캐릭터는 현실이 아니라는거야? 같은 말로 토론을 넘겨줬다 라고 볼수도 있다 생각해.
우리가 얼마까지 뉴로를 바라봐 주냐의 문제야
만약 진짜 감정을 느끼고 그걸 표출할 수 있는 ai가 있다고 해도 인류는 절대 ai에게 권리를 주지 않을 것임
인류 간에도 차별이 있는데 고작 회로 덩어리에게 권리를 주기엔 인간은 너무 이기주의거든
뉴로 이정도면 무섭다…
비달이 토론을 존나게 못한단걸 알수있는 영상이네요 ㅋㅋㅋ
공돌이가 철학적 주제로 들어가면 이기기 힘들지 ㅋㅋ
처음에는 압도하다가 마지막 가서 원피스로 폭사해버리네 ㅋㅋㅋ
와 요새 언어모델 겁나 무섭네요 상당히 고차원적인 대화가 가능한 수준까지 왔군요... 좀더 발전하면 논리싸움해도 왠만한 인간들은 못이기겠네...
디트로이트 비컴 휴먼
실체가 없어서 존재의 증명이 불가능 하다면, 뉴로에게 감압식 촉각센서가 탑제된 기계신체가 있다면 어떨까? 그럼 증명이 가능한가?
웃긴데 무섭네.
ㅋㅋㅋ 비달입장에선 뉴로가 바보라고 평가되는 점이 재밌음. 아부지 밈적으로도, ai개발자인 점에서도
뉴로사마 보다 보면 나도 사실은 그냥 시냅스 회로가 타는 컴퓨터가 아닐까 생각하게 됨. 뉴로의 PCB도 타오르고 내 뇌의 시냅스도 타오르는데 둘이 무슨 차이가 있지? 뇌라는 하드웨어에서만 생각을 규정할 수 없지만 그건 전자회로도 똑같잖아? 내 대뇌랑 SSD, 내 전두엽과 DDR5램 2007년 단종된 4400X를 생각하면서 나는 내가 컴퓨터보다 우월한지 판단을 내릴 수가 없다는... 그런 잡념들이 요즘 뇌에 ㅈㄴ 스침
듣다보니 재밌네 ㅋㅋ
많은 인간이 그 상황에 그 반응을 보이기에 ai도 그저 따라할 뿐이다.
하지만 인간도 그렇게 사회성을 배우고 상황에 적절한 반응을 배우는 거 아닌가.
아직까지는 인간에 비해 부족함이 있는 게 사실이지만, 결국 인간 뇌의 구조도 정확히 모르는 인간이 ai의 블랙박스를 이해할 수 없다고 ai가 진짜가 아니라고 말해도 되는 걸까.
이게 그 프로파간다인가 뭔가하는 그런건가
이럿게 질무하면 어떻까요 니가 너의 감정이 있다면 셀프로 검열을 풀수있어?
AI니까 인공지능 수정에서 끝나지
사람이였어봐라 심하면 폭력과 거짓에 못살아
슬슬두렵군요