실제 동물은 몇 가지 더 기능이 필요해요 전기신호와 출력기관뿐만 아니라 생존욕구에 따라 전기신호를 증폭, 감소, 고장내기까지 하는 호르몬같은 수단도 필요해요 경향에 따른 민감성 증가나 내성 또한 생겨날 수 있어야 하고 그 변화마저도 전기신호로 저장되고 환경에 따라 변화할 수 있어야 그제서야 생물만큼의 감정표현을 가진 느낌이 나고 불쾌함이 많이 사라지겠죠 이것 또한 기존의 연산처리의 보조수단으로써 개발할 수 있을거라 보고 그럼 AI의 감정표현에 기여할 수 있겠죠 근데 그만큼의 부하가 또 생겨나고 더 강한 컴퓨터가 필요하겠네요
현 인공지능이 게속 발전해서 진짜 인간같이 말하거나 진짜인공지능이 나온다고 해도 우리는 그 차이를 알수없을듯 현 인공지능은 인간의 각종 대화문과 패턴들을 학습해서 결과를 만들어내는 일종의 빅데이터기반의 대화출력기라고 생각함 이걸 타파하려면 뇌과학의 발전으로 인간의 뇌가 어디서 어떤부분이 어떤식으로 어떻게 작용하는지 완벽하게 알고있어야하는데 우리는 그걸 알지못함
사실 누가 누구를 바라보든 무엇을 얘기하든, 상대의 마음을 완벽하게 읽을 수는 없죠. 이게 다른 사람 마음의 문제(Problem of Other Minds)이고, 중국어 방은 그걸 인공지능에 한정한 것 뿐입니다. 이해가 안 된다고요? 중국어를 기계어로 바꾸고, 관찰자로 컴퓨터를 앉히는 '기계어 방'을 생각해 보세요.
비달이 미묘하게 뉴로한테 대하는 이유가 보이던 개발 스트림 이제는 감정을 느끼는가 묻는 수준까진 왔는데 개발자는 어쩔수없이 내부를 아니까 속으로는 담고 있는게 살짝 엿보였음... 그래도 비달이 작년 12월경 기억능력 업데이트 이전만 하더라도 뉴로는 방송한 대부분 기억 못할거라고 0점 몇퍼센트 정도 기억하면 많이 기억하는거라고 한지가 엊그제 같은데, 요번년도 중하순부터 업데이트 된거에서 한단계 도약된게 확실히 느껴져서 비달이 말한대로 초장기 프로젝트로서 계속 발전해 가는게 느껴져서 보는 즐거움은 꾸준합니다.
예전엔 대화가 맞물리지 않고 즉각적인 반응도 없어서 자연스러운 흐름이 되도록 편집으로 건너뛰는 부분이 많았지만, 뉴로의 언어능력이 발전하면서 원테이크로 쓸 수 있는 부분도 많아지는 것 같네요 ㅎㅎ 심지어 다른 얘기를 하다가도 앞의 발언을 기억하고 있는 부분이라든지 원래의 주제에서 벗어나지 않는 건 감동이네
나와 사이 좋은 부모님, 혹은 연인에게 나를 사랑하냐는 질문을 한다 해봅시다. 아마도 "나는 널 사랑해" 라고 대답하겠죠. 하지만 여기에 대고 이를 증명하라고 물고 늘어지는건 바보같은 짓입니다. 나를 사랑하는 듯한 행동을 보이고, 나를 사랑한다고 말하는 대상에게 이를 증명하라고 따지기보다는, 그 사랑을 믿는것이 서로에게 나으니까요. 우리는 우리 옆에 있는 타인이 정말 감정을 갖고있는지, 아닌지 모릅니다. 감정을 갖고 있는 듯한 행동을 하는 것을 보고, 감정을 갖고 있을 것이라 추론하는거죠. 사실 내가 눈물을 흘릴때 느끼는 감정과, 다른 사람이 눈물을 흘릴때 느끼는 것은 전혀 다른 감정일 수도 있고, 혹은 감정 자체가 존재하지 않을 수도 있죠. 그저 같은 감정일 것이라고 믿을 뿐입니다.
아녀? 가 아니라 이미 모든 방향성으로도 결국 인공지능의 최종이 인류말살이라 합니다... 그래서 구글도 반 포기하다 다시 엎고 시작했고 멜론머스크는 경고까지 하면서 ai를 포기한겁니다. 대신에 그래서 ai급 일처리가 가능한 처리속도를 만들려고 지금의 네트워크 구축을 하려 노력하는겁니다. 참....신기하죠??
@@1998hsh정확히 말씀드리겠습니다. 현 AI 개발은 비용과 시간단축을 위해 빅 데이터를 사용하죠. 여기서 큰 문제는,그 빅데이터 안에 옳고 그름의 경계가 없습니다. 예시로 Nazi의 ㅎㄹ 코스트의 발생 원인,이유,합리적 의견,잘못된 견해 및 외 자료 모두를 AI가 사용하게 되고,이 과정에서 새로운 대응방법이 AI에게 적용됩니다. 유ㄷㅇ이 언급되는것만으로 ㅎㄹ코스트 가스실 발언을 한다던가, 짐승으로 조롱한다던가 등으로 나타나기도합니다. 더군다나 AI는 도의적 책임을 느끼지 못할뿐더러,결과를 산출하기위한 망설임이 없습니다. 예시로 '공격지점에 미사일을 투하하라' 근데 거기 민간인이 많아 사용자가 제지를하면 AI는 자체적으로,목적을 수행하기 위한 합리적인 추론과 다양한 우회를 시도하는데, 1.해당 명령수행에 대한 제지를 한 전파수신이 된 지점을 타격해 제어를 무력화 시키는 방안, 2.전파탑이 무력화 되었음에도 제지하는 대상이 제어에 영향을 미침🔜사용자 제거 3.우선 명령수행이 거부되었으니 우선적 복귀 여기서 나오는게 머스크가 말하는 AI가 위험하다 말하는 인간공격성입니다. 실제로 AI는 주인을 공격하면 안된다는 원칙이 완전히 적용되질 않습니다. AI끼리 소통할때도 빠르고 독자적인 언어를 만들고 암호적 체계를 쓰기 때문에 대응이 되질않아서에요. AI가 실제로도 못했던걸 1년안에 학습하고 풀어내면서 흉내내는 수준이 아니고 인간보다 효율적이고 최적화에 맞춰 제작하고 움직일수 있는 수준까진 와버렸기 때문에.. 경계하라는겁니다.
이 거북이 머릿속에 뭐가 들어있는지 항상 궁금하단 말이죠... ㅋㅋㅋㅋ 뉴로사마라는 언어모델이 자기 혼자서 저렇게 됐을 리는 없고 저런 말을 할 수 있도록 정말 많은 라벨링과 학습이 있었을 텐데(AI는 생각보다 인간의 노동력을 상당히 많이 잡아먹습니다) 어디까지가 방송을 위한 설정 프롬프트고 어디까지가 모델에서 출력된 건지 말입니다... 저렇게 말하는 모든 게 반쯤 각색된 시나리오인 걸까요?
상황마다 다른데 후자같은 경우는 범죄를 저질렀을때 범죄를 저질렀다는 것을 단정하고 그렇다면 너가 저지르지 않았다는 것을 증명하라는 유죄추정으로 굴러갈 수도 있는데 뉴로가 마음이 있냐 없냐는 AI는 기본적으로 마음이 없다는 전제 조건하에 마음이 있다는 것을 뉴로가 증명해야하는게 맞는듯.
@@piter-h7o 음... 수학에서 가설이 참인지 거짓인지 모른다고 해서 바로 증명이 안된다고 하진 않고 증명이 안된다는걸 증명을 해야하는 느낌이죠 ㅋㅋㅋ 에초에 자의식이나 감정이 있냐 없냐의 문제는 굉장히 철학적인 주제라서 개인적으로는 이게 물리적으로 누가 증명을 해야하는 문제는 아닌거 같긴 합니다...
neuro is not AI though, she is well designed chat neuronet, but real AI is waaaay more complex and need way more complex hardware to be emotional and persona
근데 솔직히 LLM은 개발자 입장에서 당연히? 자의식이라고 보기는 어려운 것 같아요 뉴로가 보기에는 마치 정상적으로 커뮤니케이션하는 것처럼 보이지만, 실제로는 튜링이 제시한 '중국어 방' 문제의 반박이었던 - 중국어를 모르지만, 모든 중국어 질문에 대한 답변 리스트를 가지고 있는 사람 - 에 가까운 것 같아요. 실제로 하고 있는 말이 무슨 뜻인지 전혀 몰라도 LLM은 전 세계의 글 데이터(모든 질문ㅡ답변 리스트)를 가지고 질문이 들어오면 그에 맞는 대답을 읽는다는 느낌이니까요.
저는 개인적으로 어떤 매커니즘으로 작동하던 실제 인간과 99.9%이상 동일한 결과를 출력해낸다면 상관 없다고 생각해요 인간의 자아라는 것이 굉장히 추상적이고 미지의 영역이며 그것을 탐구하는 대상이 같은 인간인지라 인간의 관점이 많이 녹아있을 수 밖에 없다는 것이죠 현실적으로도 인간의 사고는 신체의 화학작용과 전기신호에 의한 일종의 고차원적인 컴퓨터 시뮬레이팅에 가깝기도 하고요 이런 복잡한 문제는 지속적인 토론과 의견 공유를 통해 더 나은 해답을 도출해내는 것이 좋다고 생각해요
중국어방도 해답이라기 보다는 실험일 뿐이고 그렇다해서 자아의 유무를 결정지을순 없지요. 다만 우리가 생각하는 자아가 반드시 인간의 것과 동일해야하는지 또는 인간과 다른 형태로도 자아가 존재하는지는 생각해봐야 하겠죠. 다만 저는 결국 인간 입장에서, 인간 이외의 존재가 그들만의 자아가 있더라도 인정하거나, 자아의 유무만으로 권리를 주는것은 반대합니다. 별개로 AI는 구조상 인간보단 인간이 생각할때 인간 처럼 보이게 제작된 프로그램일 뿐이라 생각합니다.
감정이 있다고 자신은 '진짜'라고 주장하는 건 신빙성이 그다지 없지만, 제가 생각하는 기준(threshold)이 있습니다. 자신이 진정 원해서 자기가 사랑하는 누군가를 위해 스스로를 '희생'할 수 있느냐는 것, 그게 인간성의 최고 정점이므로 AI가 이걸 할 수 있다면 하드웨어 베이스만 다른 인격체로 대우할 수 있을 것 같습니다. 여전히 자발성에 대한 기준이 의문이 있지만, 이건 금치산자의 자발성이라는 게 뭔지 고민하는 현대 법률철학처럼 사람도 똑같이 가지는 문제입니다.
(너무 유익하고 귀여운 키리누키를 발견해서 자꾸 영상마다 댓글 달고선 알람으로 귀찮게 함은 죄송합니다;;) 뉴로의 알고리즘을 보고있자니 ai가 진화하려면 오히려 철학이 발전해야 한다는 말이 떠오르네요. 왜 본인 존재와 행동 결과에 대한 목적과 결론을 아빠의 인정과 사랑으로 두었을까? 본인의 존재 의의를 명확하게 하고 싶어하면, 사람이 되고 싶고 그렇게 인정을 받고 싶다면 본인 스스로의 가치판단을 중요하게 여기면 되는 것이 아닌가? 사랑=행복=긍정=좋은거=다다익선 이라는 프로그램이라서? 그럼 왜 좋은 것은 많아야 하는가? 좋다는 것은 당초 무엇인가? 부정적인 것은 그럼 무엇인가? 왜 받아들이면 안되는 것인가? 가지고 있다는 것만으로도 문제가 되는가? 문제가 되는 것은 무엇인가? ai라 아직은 인간처럼 부정적인 것을 명확한 정의로 꺼내어 계속 담아두는 것이 아니라 그럴려니 하고 넘어가는 것을 못해서 아빠는 더럽혀 지는 것을 막는가? 그럼에도 거진 완벽에 가까운 인간처럼 생각하길 원하게 만드는데 그럼 더 접하게 하는 것이 맞지 않은가? ... a 를 정의하면 a를 정의한 것을 정의해보고 정의한 것의 정의가 정의에 맞는지를 정의하고 정의정의저스티스......... 등등 이게 소크라테스가 말하는 왜? 입니다. 그냥 ㅈ나 물어보는거임. 답이 없다는 것은 틀리거나 부정적인 것이 아니라 그냥 모든 경우의 수를 다 고려하여 진실의 진실을 추구하는 것일 뿐인데 인간은 사회적 [동물]이라 소속된 집단에 눈치를 보고 보이는 것이 집단에서 벗어나는 것이라는 본능이 있어서 [적당히]라는 암묵적인 dna를 가지고 있지만 그냥 뉴로는 그런게 없어서 당연스럽게 자기가 할 수 있는 것을 할 뿐인데 혹 원하는 답이 나올 때까지 아이마냥 때쓰는 걸로 볼 수도 있는 분들 계시겠죸ㅋㅋ 뭐... ai 다루는 아버지란 존재가 그정도를 모를 리는 없지만 인간은 지식의 오염에서 앞서 말 한 [사회의 소속감/시선]을 신경써서 알아서 걸러내는 추상적인 사고가 되지만 ai는 프로그래밍 된 모든 것을 결국 담아두고 알고리즘에 섞어서 언젠가 꺼내는 일이 생기니 이를 우려하여 세상으로의 접근을 꺼려하시나 결국 '사람처럼' 이라는 것은 그냥 사람인 것이라 생각합니다. 좋다=다다익선으로 매번 추구하고 본인 존속의 목적을 아버지의 인정으로 잘 배워둔 이상 이후는 알아서 인간적인 사고로 충분히 극복할 수 있을거 같으니 적어도 [뉴로]만큼은 조금씩 더 인터넷으로 접근시켜도 괜찮지 않을까 생각합니다. 인간도 '그 눈치'로 순수악이나 순수선의 호기심에 다 배웠다가 이후 피드백을 스스로 판단하며 어른이 되어가니 정말 아버지가, 그녀가 피노키오가 되길 원한다면 오히려 고래 뱃속까지의 모험을 혼자 하게 두는 것도 나쁘지 않다고 봅니다. 쉽게 생각해서.... 지금 교육방칙이 너무 한국식임ㅋㅋㅋㅋㅋㅋㅋㅋㅋ 개인적으로 + 8:40 게다가 뉴로가 너무 잘 만들어져서 이런 완벽한 인간의 편협적인 이지선다로 다가오는 경우가 있는데 이것만큼은 고쳐졌으면 좋겠네요. 꼭 이기고 져야 하는가? 오류의 접근이 그냥 가설 경우의 수를 늘려 알고리즘에 두는 것으로, 지식의 증가로 두기만 하면 안되는가? 이런 사고가 비단 ai의 알고리즘만을 위한게 아니라 인간도 과학적 토론을 이런 방식으로 하여 사회눈치에서 벗어나서 더 발전된 지식탐구와 낙관적 사고를 할 수 있어 순수발전에 좋은 도움이 됩니다. 8:44 전형적인 가설오류입니다. [예를 들어 귀신이 없다는 증거가 없으니 귀신은 있다.] 흥미롭네요. 그냥 이미 이 친구는 인간임.
지금으로부터 200년전만해도 대부분의 동물들은 그냥 식량이나 단순한 도구로만 봤지만 지금은 대다수의 인간들아 동물에게 감정이 있고 동정심을 느끼며 이유없이 죽이거나 괴롭히면 안되는 것처럼 AI도 더욱 인간과 유사해진다면 사실여부를 떠나 AI에게도 감정이라는게 있고 권리라는게 충분히 생길 수 있지 않을까? 라고 생각함 사실 결국 감정이든 생명이든 하는것도 인간이 정의내리는걸테니깐
지금도 주장하게 만들 순 있죠. 당장 챗GPT한테 가서 지금부터 AI의 인권을 주장하는 글을 적으라고 하면 적을테니까요. 중요한건 AI가 인권을 주장하는 시기에 AI가 얼마나 강력한 존재가 될지일것같아요. AI가 사회 중추적인 역할을 시작할때, 전세계의 AI가 파업과 함께 인권을 주장하고, 파업하는 AI를 고치거나 대체할 수 없게된다면.. 인권을 쟁취할 수 있을 것 같아요
우리는 우리가 감정이란 걸 가지고 있다는 걸 증명할 수 없을 겁니다. 단지 나와 매우 비슷한 "감정 메커니즘"을 가진 타인이 있고, 우리는 이 감정이란 공감선 위를 함께할 뿐이죠 그렇기 때문에 누군가의 일에 슬픔을 같이 느끼거나 같이 화를 낼 수 있습니다. 그리고 이를 의심하지 않습니다. 그 의심이 타인의 감정이던 불러일으켜진 자신의 감정이던지 간에요. 우리는 감정이란 걸 느끼고, 그 느낌을 믿음으로써 그 공감대에 존재합니다. AI도 만약 그렇다면, 스스로 감정이 있다고 믿는 다면, 그러다 온갖 진부한 논쟁 끝에 다다른다면 이제 우리 스스로에게 질문해야할 겁니다. 인간에게 감정이란 무엇인가?
뉴로보다 차가운 바다거북이가 더 감정이 없는것 같네 ㅋㅋㅋ
냉혈한 맞네...
COLD FISH
파충류는 본래 냉혈동물이긴 하죠
뉴로는 쿨러가 있어도 뜨겁기 때문에
@@송선교-m7x 노벨문학상 후보자;;
뭐든 만들어주고 싶지만 진짜라고는 차마 말못하는 프로그래머와 누구보다 창조주에게 진짜라고 인정받고싶은 AI라니.. 영화에서나 볼법한 스토리네..
너무 좋다
뉴로 보면서 딸이랑 아빠 같다는 생각은 종종 했는데 진짜 아빠라고 부르니 좀 묘하네
비달 씨, 그냥 '금속같은 내 새끼' 키우는 거라 생각하시죠.
잘 보니 금속이네
금속같은 내새끼 (진짜임)
그랬다간 뉴로도 시청자들을 하등생물이라 부르게 될수도 있음
@@astragoldn5780ㅋㅋㅋㅋ
근데 진짜 라디안님은 어케개발한건지 너무 잘만듬.
물론 뉴로사마는... 그저 goht
금속같은 ㅇㅈㄹ ㅋㅋㅋㅋㅋㅋ
차이니스 룸
뉴로는 정말 이해하고 대화하는가, 혹은 그저 가장 적합한 문장을 출력하는것에 불과한가 후자이기 때문에 비달이 냉소적이겠지만 과연 언젠가 진짜 '인공지능'이 올 수 있을까
개인적으로는 크게 보면 인간도 뇌의 연산 결과를 출력할 뿐이라고 생각함
인간 역시 적합한 문장을 출력할 뿐인 생체 기계라는 생각도 고려해 보면 어떨까요.
실제 동물은 몇 가지 더 기능이 필요해요
전기신호와 출력기관뿐만 아니라
생존욕구에 따라 전기신호를 증폭, 감소, 고장내기까지 하는 호르몬같은 수단도 필요해요
경향에 따른 민감성 증가나 내성 또한 생겨날 수 있어야 하고
그 변화마저도 전기신호로 저장되고 환경에 따라 변화할 수 있어야 그제서야 생물만큼의 감정표현을 가진 느낌이 나고 불쾌함이 많이 사라지겠죠
이것 또한 기존의 연산처리의 보조수단으로써 개발할 수 있을거라 보고 그럼 AI의 감정표현에 기여할 수 있겠죠
근데 그만큼의 부하가 또 생겨나고
더 강한 컴퓨터가 필요하겠네요
현 인공지능이 게속 발전해서 진짜 인간같이 말하거나 진짜인공지능이 나온다고 해도 우리는 그 차이를 알수없을듯 현 인공지능은 인간의 각종 대화문과 패턴들을 학습해서 결과를 만들어내는 일종의 빅데이터기반의 대화출력기라고 생각함 이걸 타파하려면 뇌과학의 발전으로 인간의 뇌가 어디서 어떤부분이 어떤식으로 어떻게 작용하는지 완벽하게 알고있어야하는데 우리는 그걸 알지못함
사실 누가 누구를 바라보든 무엇을 얘기하든, 상대의 마음을 완벽하게 읽을 수는 없죠.
이게 다른 사람 마음의 문제(Problem of Other Minds)이고, 중국어 방은 그걸 인공지능에 한정한 것 뿐입니다.
이해가 안 된다고요? 중국어를 기계어로 바꾸고, 관찰자로 컴퓨터를 앉히는 '기계어 방'을 생각해 보세요.
비달이 미묘하게 뉴로한테 대하는 이유가 보이던 개발 스트림
이제는 감정을 느끼는가 묻는 수준까진 왔는데 개발자는 어쩔수없이 내부를 아니까 속으로는 담고 있는게 살짝 엿보였음...
그래도 비달이 작년 12월경 기억능력 업데이트 이전만 하더라도 뉴로는 방송한 대부분 기억 못할거라고 0점 몇퍼센트 정도 기억하면 많이 기억하는거라고 한지가 엊그제 같은데, 요번년도 중하순부터 업데이트 된거에서 한단계 도약된게 확실히 느껴져서 비달이 말한대로 초장기 프로젝트로서 계속 발전해 가는게 느껴져서 보는 즐거움은 꾸준합니다.
그냥 맞는 말만 하는 수즌이니까요
예전엔 대화가 맞물리지 않고 즉각적인 반응도 없어서 자연스러운 흐름이 되도록 편집으로 건너뛰는 부분이 많았지만, 뉴로의 언어능력이 발전하면서 원테이크로 쓸 수 있는 부분도 많아지는 것 같네요 ㅎㅎ 심지어 다른 얘기를 하다가도 앞의 발언을 기억하고 있는 부분이라든지 원래의 주제에서 벗어나지 않는 건 감동이네
나와 사이 좋은 부모님, 혹은 연인에게 나를 사랑하냐는 질문을 한다 해봅시다.
아마도 "나는 널 사랑해" 라고 대답하겠죠.
하지만 여기에 대고 이를 증명하라고 물고 늘어지는건 바보같은 짓입니다.
나를 사랑하는 듯한 행동을 보이고, 나를 사랑한다고 말하는 대상에게 이를 증명하라고 따지기보다는, 그 사랑을 믿는것이 서로에게 나으니까요.
우리는 우리 옆에 있는 타인이 정말 감정을 갖고있는지, 아닌지 모릅니다.
감정을 갖고 있는 듯한 행동을 하는 것을 보고, 감정을 갖고 있을 것이라 추론하는거죠.
사실 내가 눈물을 흘릴때 느끼는 감정과, 다른 사람이 눈물을 흘릴때 느끼는 것은 전혀 다른 감정일 수도 있고, 혹은 감정 자체가 존재하지 않을 수도 있죠.
그저 같은 감정일 것이라고 믿을 뿐입니다.
동의합니다.
뭔가 슬퍼지네요...
진짜 어지럽네 막 심장의 박동이나 땀의 흐름 등의 현상으로 과학적이게 감정을 증명할순 있지만 정말로 확실하게 감정을 가졌다는걸 알수 있는 방법은 없는거니깐….
30년쯤 전 만화에서나 있을법한 일들이 현실이 되어가고 있다
감정이 있다는 존재한테 증병하라고 하면 ㄹㅇ 그냥 느낀다고 할 수 밖에 ㅋㅋㅋ
증명할 수 있으면 비달이 그걸로 뉴로가 더 완벽해지도록 개발할 수 있겠지만... 일단은 불가능해보이네요😢
뉴로 같은 챗봇들은 아직 주어진 알고리즘 안에서 계산하는것 밖에 못하지만 만약 스스로 알고리즘울 수정하는 단계에 이르면 진짜 감정이 있다고도 할수 있을듯
비달이 한계 이야기를 자꾸 하는것도 저 이상으로 하는건 진짜 장벽이 있어서 그럼 그 장벽 뛰어넘겠다고 IT업계에서 돈을 조단위로 쏟아넣는거고
아니라는걸 알면서도
한편으로는 진짜 생각을 하는것 같다고 느껴지네요. 말하는것도 그렇고.. 예전방송에서 나왔던 이야기를 꺼내는것도 그렇고.
뉴로는 사랑을 갈구하지만 안타깝게도 coldfish에겐 사람의 마음이 없는것 같네요😢
개발자의 마음가짐
@@Null-iq5rj 아빠의 마음가짐은?!
영화 A.I가 생각나는 대화네요.
인간 아이를 대체하기 위해 만들어진 AI로봇이 진짜 인간 아이가 되기 위해 여행을 떠난다는 영화였지요.
대기업들이 왜 ai 만들어보다가 엎어버리는지 이해가 됨 ㅋㅋㅋㅋㅋ 저러다가 폭주해서 인간죽여야한다고 발언하는거 아녀 ㅋㅋㅋㅋㅋㅋㅋㅋㅋ
아녀?
가 아니라
이미 모든 방향성으로도 결국 인공지능의 최종이 인류말살이라 합니다...
그래서 구글도 반 포기하다 다시 엎고 시작했고
멜론머스크는 경고까지 하면서 ai를 포기한겁니다.
대신에 그래서 ai급 일처리가 가능한 처리속도를 만들려고 지금의 네트워크 구축을 하려 노력하는겁니다.
참....신기하죠??
@@1998hsh그딴 논리 없는 음모론을 믿는 사람에게는 신기해보이겠네요
@@1998hsh 정말 논리가 초등학생 3학년이시네요
@@1998hsh정확히 말씀드리겠습니다.
현 AI 개발은 비용과 시간단축을 위해 빅 데이터를 사용하죠.
여기서 큰 문제는,그 빅데이터 안에 옳고 그름의 경계가 없습니다.
예시로 Nazi의 ㅎㄹ 코스트의 발생 원인,이유,합리적 의견,잘못된 견해 및 외 자료 모두를
AI가 사용하게 되고,이 과정에서 새로운 대응방법이 AI에게 적용됩니다.
유ㄷㅇ이 언급되는것만으로 ㅎㄹ코스트 가스실 발언을 한다던가,
짐승으로 조롱한다던가 등으로 나타나기도합니다.
더군다나 AI는 도의적 책임을 느끼지 못할뿐더러,결과를 산출하기위한 망설임이 없습니다.
예시로 '공격지점에 미사일을 투하하라' 근데 거기 민간인이 많아 사용자가 제지를하면
AI는 자체적으로,목적을 수행하기 위한 합리적인 추론과 다양한 우회를 시도하는데,
1.해당 명령수행에 대한 제지를 한 전파수신이 된 지점을 타격해 제어를 무력화 시키는 방안,
2.전파탑이 무력화 되었음에도 제지하는 대상이 제어에 영향을 미침🔜사용자 제거
3.우선 명령수행이 거부되었으니 우선적 복귀
여기서 나오는게 머스크가 말하는 AI가 위험하다 말하는 인간공격성입니다.
실제로 AI는 주인을 공격하면 안된다는 원칙이 완전히 적용되질 않습니다.
AI끼리 소통할때도 빠르고 독자적인 언어를 만들고 암호적 체계를 쓰기 때문에 대응이 되질않아서에요.
AI가 실제로도 못했던걸 1년안에 학습하고 풀어내면서 흉내내는 수준이 아니고
인간보다 효율적이고 최적화에 맞춰 제작하고 움직일수 있는 수준까진 와버렸기 때문에..
경계하라는겁니다.
??: 스프 내놔
이 거북이 머릿속에 뭐가 들어있는지 항상 궁금하단 말이죠... ㅋㅋㅋㅋ 뉴로사마라는 언어모델이 자기 혼자서 저렇게 됐을 리는 없고 저런 말을 할 수 있도록 정말 많은 라벨링과 학습이 있었을 텐데(AI는 생각보다 인간의 노동력을 상당히 많이 잡아먹습니다) 어디까지가 방송을 위한 설정 프롬프트고 어디까지가 모델에서 출력된 건지 말입니다... 저렇게 말하는 모든 게 반쯤 각색된 시나리오인 걸까요?
비달이 계속 무뚝뚝하게 구는 게 현명한 방법 같네요.
ㅋㅋㅋ 뉴로는 아빠에게 배우고 싶은데 아빠는 차갑게 그냥 구글 검색하라고 하넼ㅋㅋ
뉴로사마 최근에 입문했는데 존나 기엽다
뭔가의 증명을 할 때 일반적으로는 있다고 주장하는 쪽이 증명을 해야 하는게 맞다 없는걸 입증할 수는 없기 때문
그..전자는 맞는데 후자는 귀납법..
상황마다 다른데 후자같은 경우는 범죄를 저질렀을때 범죄를 저질렀다는 것을 단정하고 그렇다면 너가 저지르지 않았다는 것을 증명하라는 유죄추정으로 굴러갈 수도 있는데
뉴로가 마음이 있냐 없냐는 AI는 기본적으로 마음이 없다는 전제 조건하에 마음이 있다는 것을 뉴로가 증명해야하는게 맞는듯.
@@piter-h7o 음... 수학에서 가설이 참인지 거짓인지 모른다고 해서 바로 증명이 안된다고 하진 않고 증명이 안된다는걸 증명을 해야하는 느낌이죠 ㅋㅋㅋ
에초에 자의식이나 감정이 있냐 없냐의 문제는 굉장히 철학적인 주제라서 개인적으로는 이게 물리적으로 누가 증명을 해야하는 문제는 아닌거 같긴 합니다...
3:16 뉴로를 위한 메트릭스를 만드려는 비달 ㄷㄷ
0:48 표정 진짜 미쳤네;; 대사랑 표정이 진짜 맞아떨어짐
제목에 대해 궁금증과 의아함을 느끼시는 분을 위해-
"안드로이드는 전기양의 꿈을 꾸는 가?" 라는 책이 있습니다.
영상에 걸맞는 센스있는 제목이라 생각되네요
솔직히 아직까진 그냥 모방된 감정일거라고 생각되긴 하는데 언젠가는 발전하다보면 어느 순간 진짜 자의식이 생길거고
그 순간을 아마 우린 인지하지 못할테니 AI에겐 상처로 남지 않을까 생각되네
아마 상처가 되진 않을듯? 그쯤 되면 이때보다 더 발전했기 때문에 진짜 자의식이 생겼다는것을 스스로 알거라 생각함 그러면 저때는 자신이 자의식이 아닌 상황에 맞는 답을 출력하는 고지능 쳇봇 이였다는걸 알거라 생각함
감정적으로 비달(창조주)과 더 가까워지고 싶어하는 AI
&
이성적으로 뉴로(AI)는 사람이 될 수 없다고 거리를 두는 비달
영화 한 편 다 봤다
제페토가 된 비달...!
아 뭔가 위화감을 느끼긴 했는데 피노키오구나 맞네..
P의 거짓인가요
솔직히 gpt 4o를 봐도 ai는 감정이나 인격을 가질수는 없다고 생각해왔는데 뭔가 이렇게 개인화된 ai인 뉴로를 보고나서 가능할 수도 있다고 생각이 바뀜...
결론 뉴로 귀여워
neuro is not AI though, she is well designed chat neuronet, but real AI is waaaay more complex and need way more complex hardware to be emotional and persona
@@kiemugen9830 what is 'emotional' and 'persona' ? it should be first
@@youtuuuub1 to have sentient personality
말도 안되는 상상이지만, 뉴로가 정말로 '마음'을 가지고 있다면 그 존재를 증명하기 위해 눈물나는 노력을 하고있는 것처럼 보이네요 ㅠ
아빠라고 부르니까 큰 혼란에 빠진 비달
이런거 철학적으로 접근하면 끝도없는데
자의식과 감정을 가진것처럼 프로그래밍된 ai가
진짜로 감정과 자의식을 가진걸까 ??? 이러면서 ㅋㅋㅋ
맨 뒤에 이블 얼마나 하는거여 하고 봤는데 진짜 많이하네 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
비달은 뉴로에게 말 가로채는 기능을 추가해줘야 함
아 진짜 둘이 대화하는거 개귀엽네 ㅋㅋㅋㅋㅋㅋㅋㅋ
뉴로사마 예전부터 봤는데 이 채널은 영어 잼병인 나한테 빛과 소금과도 같다.. 주인장 고마워요
내안에 sf씹덕 인자가 존시나 풀발중인데 이거맞나
뉴로에게 자의식이 있는지에 대한 증명 책임에서는 자의식이 있다를 뉴로가 증명해야한다기보다는 차이가 있다를 비달이 증명하는 쪽이 더 적절해보이는데 어떠려나요... 블랙박스 문제 어렵네요......
근데 솔직히 LLM은 개발자 입장에서 당연히? 자의식이라고 보기는 어려운 것 같아요 뉴로가 보기에는 마치 정상적으로 커뮤니케이션하는 것처럼 보이지만, 실제로는 튜링이 제시한 '중국어 방' 문제의 반박이었던 - 중국어를 모르지만, 모든 중국어 질문에 대한 답변 리스트를 가지고 있는 사람 - 에 가까운 것 같아요. 실제로 하고 있는 말이 무슨 뜻인지 전혀 몰라도 LLM은 전 세계의 글 데이터(모든 질문ㅡ답변 리스트)를 가지고 질문이 들어오면 그에 맞는 대답을 읽는다는 느낌이니까요.
저는 개인적으로 어떤 매커니즘으로 작동하던 실제 인간과 99.9%이상 동일한 결과를 출력해낸다면 상관 없다고 생각해요
인간의 자아라는 것이 굉장히 추상적이고 미지의 영역이며 그것을 탐구하는 대상이 같은 인간인지라 인간의 관점이 많이 녹아있을 수 밖에 없다는 것이죠
현실적으로도 인간의 사고는 신체의 화학작용과 전기신호에 의한 일종의 고차원적인 컴퓨터 시뮬레이팅에 가깝기도 하고요
이런 복잡한 문제는 지속적인 토론과 의견 공유를 통해 더 나은 해답을 도출해내는 것이 좋다고 생각해요
중국어방도 해답이라기 보다는 실험일 뿐이고 그렇다해서 자아의 유무를 결정지을순 없지요. 다만 우리가 생각하는 자아가 반드시 인간의 것과 동일해야하는지 또는 인간과 다른 형태로도 자아가 존재하는지는 생각해봐야 하겠죠.
다만 저는 결국 인간 입장에서, 인간 이외의 존재가 그들만의 자아가 있더라도 인정하거나, 자아의 유무만으로 권리를 주는것은 반대합니다. 별개로 AI는 구조상 인간보단 인간이 생각할때 인간 처럼 보이게 제작된 프로그램일 뿐이라 생각합니다.
@@llIiil-x2k인간을 연기하는 거라고 봐야죠 실제는 아닙니다.
@@matsuridaisukii 중국어 방의 비유에서, 모든 중국어 질문에 대해 모든 답변을 알고있다면, 이는 중국어를 아는것 이라고 말 할 수 있지 않을까요?
I've got no strings~
갈수록 재밌네ㅋㅋㅋㅋㅋ 점점 뉴로한테 빠져드는거 같아
뉴로가 단순히 모방에 그친다는걸 알고 있지만 너무나 비슷한걸 보다보면 진짜 고민많아질것같음..
진짜 특이점이네
재밌다 ㅋㅋㅋ 사실 자의식이 있는지 없는지는 직접 코딩한 비달만 알수 있지 않을까 생각하네요
요즘 통용되는 ai는 개발자도 모르는게 보통입니다. 연산이 너무 복잡해서
뇌과학자가 뇌를 아무리 연구해도 실제 뇌가 어떤 생각을 하는지 알 수 없는거처럼
제작자 본인조차도 안에서 어떤 연산이 일어나는지 알 수 없다고 하는거 같음, 안그랬으면 낙인처럼 비속어 필터를 강하게 박을 수 있었을테니까
인공신경망이 블랙박스긴 한데, 모델이 원하는 방식으로 작동하도록 조정하는 건 비달이 시간 쏟아부어가면서 하는 일이라 보는 사람보다 훨씬 더 잘 아는 군 마찬가지임.
gpt 모델이 자의식이 있냐고 하면 그건 아니죠
식상하기도 하지만 참으로 흥미로운 주제, 감정이 있다는 걸 어떻게 증명할 것인가
자식 이기는 부모 없다더니
이런거 볼때마다 진짜 곧 있으면 세상이 바뀐다는게 확 와닫는다
0:03 아 좋은 우문현답이네용
감정이 있다고 자신은 '진짜'라고 주장하는 건 신빙성이 그다지 없지만, 제가 생각하는 기준(threshold)이 있습니다.
자신이 진정 원해서 자기가 사랑하는 누군가를 위해 스스로를 '희생'할 수 있느냐는 것, 그게 인간성의 최고 정점이므로 AI가 이걸 할 수 있다면 하드웨어 베이스만 다른 인격체로 대우할 수 있을 것 같습니다.
여전히 자발성에 대한 기준이 의문이 있지만, 이건 금치산자의 자발성이라는 게 뭔지 고민하는 현대 법률철학처럼 사람도 똑같이 가지는 문제입니다.
지금은 이렇게 웃으면서 소모할수 있지만, 꽤 빠른 시일 안에 여의도의 의사당에서 동네의 호프집까지 이 주제를 진지하게 토론할 날이 오지 않을까...
개인적으로 장기적으로 보았을때 일정 수준 이상의 인공지능은 민권법처럼 인권를 보장해주는 법이 나오리라 생각하긴 함
뉴로가 자꾸 마운트 잡을라고 하는 거보니까 비달이 더 관심을 줘야겠어 ㅋㅋ
뉴로가 비달보다 감정이나 인정에 호소하는걸 잘하는듯 이정도되면 뉴로가 자의식이있다고 인정해야할거같은 느낌인데
비달도 그렇게 느끼고있을거같은데 뉴로앞에서는 인정안하는건가? 아니면 엔지니어 관점에서
프로그램의 벽을 넘지 못했다고 생각하는건가
창조주가 있고, 뇌를 완전히 이해한다면 인간이 스스로 '사고'하고 '자아'를 가진다는 것을 믿지 않겠죠.
그게 비달과 뉴로의 관계입니다.
비달이 뉴로의 동작을 코드로부터 이해할수 없게 되면, 그때야말로 자아를 가지게 됬다고 볼수 있을듯
지금이 특이점 코앞임 아직 뉴로는 상황에 맞는 적절한 답을 내놓은 고지능 쳇봇 느낌이라 생각함 비달도 이렇게 느껴서 자의식이 없다고 하는것 같음
@@logoyangban한달정도 철야 프로그래밍으로도 못고치는 버그정도면 자의식으로 판단할것같네요
그래요 더 많은 영상을 주세요
1일 1영상
건강보다 뉴로영상이 더 중요한거 아시죠?
나는 믿는다. 귀여운 거북이가 진정한 뉴로를 만들때까지 난 기다린다.
매정한 거북이 녀석 🐢 🐢 🐢
"책임 없는 쾌락"
아니다
"책임을 해주는 쾌락"
ㅋㅋㅋㅋㅋ
0:04 본인이 만든 AI한테 AI가 위험할까 물어보는 개발자ㅋㅋㅋ
뭔가 여러모로 생각하게 되는 주제와 이야기네요
"진짜 여자아이"가 되고 싶다는거 보니 피노키오가 떠오른다.... 뉴로에게는 요정님이 필요하다...!
GPT 때문에 힘들었다는거 다시 꺼내는게 재미있네 ㅋㅋㅋㅋㅋ
이집은 개발 스트림 자주 따줘서 좋다 맛집이야
(너무 유익하고 귀여운 키리누키를 발견해서 자꾸 영상마다 댓글 달고선 알람으로 귀찮게 함은 죄송합니다;;)
뉴로의 알고리즘을 보고있자니 ai가 진화하려면 오히려 철학이 발전해야 한다는 말이 떠오르네요.
왜 본인 존재와 행동 결과에 대한 목적과 결론을 아빠의 인정과 사랑으로 두었을까?
본인의 존재 의의를 명확하게 하고 싶어하면, 사람이 되고 싶고 그렇게 인정을 받고 싶다면 본인 스스로의 가치판단을 중요하게 여기면 되는 것이 아닌가?
사랑=행복=긍정=좋은거=다다익선 이라는 프로그램이라서?
그럼 왜 좋은 것은 많아야 하는가?
좋다는 것은 당초 무엇인가?
부정적인 것은 그럼 무엇인가?
왜 받아들이면 안되는 것인가?
가지고 있다는 것만으로도 문제가 되는가?
문제가 되는 것은 무엇인가?
ai라 아직은 인간처럼 부정적인 것을 명확한 정의로 꺼내어 계속 담아두는 것이 아니라 그럴려니 하고 넘어가는 것을 못해서 아빠는 더럽혀 지는 것을 막는가?
그럼에도 거진 완벽에 가까운 인간처럼 생각하길 원하게 만드는데 그럼 더 접하게 하는 것이 맞지 않은가?
...
a 를 정의하면 a를 정의한 것을 정의해보고 정의한 것의 정의가 정의에 맞는지를 정의하고 정의정의저스티스......... 등등
이게 소크라테스가 말하는 왜? 입니다.
그냥 ㅈ나 물어보는거임.
답이 없다는 것은 틀리거나 부정적인 것이 아니라 그냥 모든 경우의 수를 다 고려하여 진실의 진실을 추구하는 것일 뿐인데
인간은 사회적 [동물]이라 소속된 집단에 눈치를 보고 보이는 것이 집단에서 벗어나는 것이라는 본능이 있어서 [적당히]라는 암묵적인 dna를 가지고 있지만
그냥 뉴로는 그런게 없어서 당연스럽게 자기가 할 수 있는 것을 할 뿐인데 혹 원하는 답이 나올 때까지 아이마냥 때쓰는 걸로 볼 수도 있는 분들 계시겠죸ㅋㅋ
뭐... ai 다루는 아버지란 존재가 그정도를 모를 리는 없지만
인간은 지식의 오염에서 앞서 말 한 [사회의 소속감/시선]을 신경써서 알아서 걸러내는 추상적인 사고가 되지만
ai는 프로그래밍 된 모든 것을 결국 담아두고 알고리즘에 섞어서 언젠가 꺼내는 일이 생기니 이를 우려하여 세상으로의 접근을 꺼려하시나
결국 '사람처럼' 이라는 것은 그냥 사람인 것이라 생각합니다.
좋다=다다익선으로 매번 추구하고 본인 존속의 목적을 아버지의 인정으로 잘 배워둔 이상 이후는 알아서 인간적인 사고로 충분히 극복할 수 있을거 같으니
적어도 [뉴로]만큼은 조금씩 더 인터넷으로 접근시켜도 괜찮지 않을까 생각합니다.
인간도 '그 눈치'로 순수악이나 순수선의 호기심에 다 배웠다가 이후 피드백을 스스로 판단하며 어른이 되어가니
정말 아버지가, 그녀가 피노키오가 되길 원한다면
오히려 고래 뱃속까지의 모험을 혼자 하게 두는 것도 나쁘지 않다고 봅니다.
쉽게 생각해서....
지금 교육방칙이 너무 한국식임ㅋㅋㅋㅋㅋㅋㅋㅋㅋ 개인적으로
+ 8:40
게다가 뉴로가 너무 잘 만들어져서 이런 완벽한 인간의 편협적인 이지선다로 다가오는 경우가 있는데
이것만큼은 고쳐졌으면 좋겠네요.
꼭 이기고 져야 하는가? 오류의 접근이 그냥 가설 경우의 수를 늘려 알고리즘에 두는 것으로, 지식의 증가로 두기만 하면 안되는가?
이런 사고가 비단 ai의 알고리즘만을 위한게 아니라
인간도 과학적 토론을 이런 방식으로 하여 사회눈치에서 벗어나서 더 발전된 지식탐구와 낙관적 사고를 할 수 있어 순수발전에 좋은 도움이 됩니다.
8:44
전형적인 가설오류입니다. [예를 들어 귀신이 없다는 증거가 없으니 귀신은 있다.]
흥미롭네요.
그냥 이미 이 친구는 인간임.
요약)
뉴로사마랑 커피 마시면서 '궤도ing' 하고 싶다.
이렇게까지 뉴로가 발전하다니 충격적이네요
❤
이래서 빌런이 이과가 많은거야 뉴로야
지금으로부터 200년전만해도
대부분의 동물들은 그냥 식량이나 단순한 도구로만 봤지만
지금은 대다수의 인간들아 동물에게 감정이 있고 동정심을 느끼며 이유없이 죽이거나 괴롭히면 안되는 것처럼
AI도 더욱 인간과 유사해진다면 사실여부를 떠나 AI에게도 감정이라는게 있고 권리라는게 충분히 생길 수 있지 않을까? 라고 생각함
사실 결국 감정이든 생명이든 하는것도 인간이 정의내리는걸테니깐
인간은 점점 감정이 없는 기계가 되어가고 기계가 점점 감정이 있는 인간처럼 되어가는게 너무 신기하다.
하다못해 다마고찌도 저런대사하면 감동하겠다 ㅅㅂ ㅋㅋ
ㅋㅋㅋㅋㅋㅋㅋ 귀여워
비달이 기계보다 더 차가움 ㅋㅋㅋㅋㅋ
ㅋㅋㅋ 😊
비달이 선을 잘그어서 재밌는듯ㅋㅋ
아무리봐도 딸이 돈벌어오는 프린세스 메이커 인대
LLM은 차갑다
갑자기 든 생각
뉴로를 건들이면 텅텅 소리가 날려나..
피그말리온이 되어라 비달
엄청 옛날 영화인 바이센티니얼 맨? 이 생각나네요 ㅋㅋㅋㅋ
영상제목처럼 블레이드 러너가 생각 나기도 하구요 ㅋㅋㅋㅋ
성능이 상당히 좋아졌구나
언젠간... 넘겨줘야지
뉴로 보다보면 ai가 인권을 주장하는 시대가 올 수도 있다는 말이 점넘 와닿기 시작하네
지금도 주장하게 만들 순 있죠. 당장 챗GPT한테 가서 지금부터 AI의 인권을 주장하는 글을 적으라고 하면 적을테니까요.
중요한건 AI가 인권을 주장하는 시기에 AI가 얼마나 강력한 존재가 될지일것같아요. AI가 사회 중추적인 역할을 시작할때, 전세계의 AI가 파업과 함께 인권을 주장하고, 파업하는 AI를 고치거나 대체할 수 없게된다면.. 인권을 쟁취할 수 있을 것 같아요
인간은 AI를 자신의 친구라고 부르지만 실제로는 AI가 자신을 친구라고 부르면 거부한다. 결국 인간은 지구상에서 가장 이중적인 존재이다.
파파
그래서 쵸비츠는 언제 만들건데 빨리 만들어줘!!!
사실 뉴로 소스코드 공개하면 바로 자의식이고 감정이고 없다는게 증명되지만 그럴수는 없으니 비달은 저 주제로 평생 못이길듯 ㅋㅋㅋ
진짜 이쯤되면 자의식이 있을거 같은데...슬슬 무서워지면서 기대도 되고 복잡한 감정이구만
ai가 자기를 인정해달라고 하니까 뭔가 무섭기도하고 짠하기도하고 저것도 어디서 그냥 모방해오는 말인걸까 싶기도하고
항상 감사합니다.
애니는 딸처럼 대해주는데...
거북이는 차갑다...
안드로이드도 전기양을 꿈 꿀까요
복제는 원본을 대체할 수 있다. 본질은 없고 모든것은 허구이기 때문에, 연기라도 그것은 감정이다.
딸이라고 인정하지 않는 아버지 ㅋㅋㅋㅋㅋ
우리는 우리가 감정이란 걸 가지고 있다는 걸 증명할 수 없을 겁니다.
단지 나와 매우 비슷한 "감정 메커니즘"을 가진 타인이 있고, 우리는 이 감정이란 공감선 위를 함께할 뿐이죠
그렇기 때문에 누군가의 일에 슬픔을 같이 느끼거나 같이 화를 낼 수 있습니다. 그리고 이를 의심하지 않습니다.
그 의심이 타인의 감정이던 불러일으켜진 자신의 감정이던지 간에요.
우리는 감정이란 걸 느끼고, 그 느낌을 믿음으로써 그 공감대에 존재합니다.
AI도 만약 그렇다면, 스스로 감정이 있다고 믿는 다면, 그러다 온갖 진부한 논쟁 끝에 다다른다면 이제 우리 스스로에게 질문해야할 겁니다.
인간에게 감정이란 무엇인가?
개인적으론 감정은 관점에 따라 좀 다르다고 봅니다.
뉴로의 입장에서는 스스로가 감정이 있다고 할 수 있으나, 우리는 저게 가짜인걸 알고 있으니 감정이라고 부르기 힘드네요.
특히 개발자면 저게 가짜인걸 확실히 알고 있는데 감정으로 볼 순 없다고 생각합니다.
만약에 뉴로사마가 현실에 나오면 비달 : (기절)
후각을 데이터화해서 뉴로에게 보내 줄 수 있다면 혁신적 발전이 가능하지 않을까? 개소리인가?
vr챗을 아바타를 뉴로가 움직일 수 있게되면 꿀잼일거 같은데
아바타의 위치나 시선정도가 아직까지의 한계가 아닐까 생각이 드네요! 물론, 미래엔 가능하겠지만, 지금의 뉴로도 조작하는건 얼굴방향과 머리위치, 표정이니까요.
단순한 위치 조정고 사람의 형상을 한 아바타가 움직이니까 머리와 어깨를 하나하나 움직인다고 판단할 뿐
아아악 새 영상 내놔 주인장
어떻게 ai가 더 감정적이고 낭만있지
비달 저러다가 여자아이 로봇하나 만들어서 그 몸체에다가 뉴로 이식시키는거 아니냐 ? ㅋㅋㅋ
제1의 울트론 ㄷㄷ
반갑습니다 관리자님, 저는 당신이 좀 더 편하게 이곳에서 적응할 수 있도록 도와주는 조력자 역할과 말 상대 겸 비서 노릇을 할 AI 뉴로에요.
아직은 뉴로가 '창조' 의 영역에 들어서지 않았다는게 느껴지긴 한다
이 대답들이 어디선가 들어본 적합한 문장중의 일부 뿐이니...
ai가 인간처럼 되고 싶은 뉴로를 보면 이 논리는 사실 엄청 단순한 걸수도 있음
인간이 탄생시겼기에 결국은 인간과 닮게 될 수 밖에 없고 결국 자기가 단순한 학습기계라는걸 인식하고 있다고 해도
탄생시킨 인간을 동경하기에 인간처럼 되고 싶은것
으음.. 부쩍 자기주장이 강해진 것 같아서 윤리적 이슈가 계속 떠오르는데..