이게 학습된 결과값이면 문제가 달라지는 게 걍 심심이처럼 데이터베이스 속의 데이터를 그냥 갖고오는 건지, 아니면 완전 AGU로써 감정까지 배운 건지 이게 중요함 저 말이 걍 녹음기의 말인지 저 AI의 생각이고 이걸 기반으로 작동할지 이건 중요함 그런데 구글에서는 윤리학자들이랑 과학자들에게 검수를 맡긴 결과 아니었다고 하니까 괜찮아보이는 거지
신기하다기보다는 무섭다...실제로 수많은 sf 영화가 현실이 되는 가운데, 이런 인공지능의 발달이 과연 인간들에게 어떤 영향을 가져올까 생각하면 막연한 두려움이 생김...분명 긍정적인 부분도 많겠지만 부정적인 부분도 상당히 클듯. 발전이 양날의 검이란건 유명한 사실이지만 눈앞에서 속절없이 그 검이 더더 날카롭고 강력하게 벼려지는걸 보고만 있어야하는 기분임...
지속적으로 고치고 발전해나가면 되는 거죠...인간이든 인공지능이든 이 세상에 절대적이고 완벽한 것 없으니까요... 전 개인적으로 이세돌과 알파고와의 대결에서 승자가 인간이라고 생각을 하는 이유가 스스로 학습을 거듭해서 이세돌을 쉽게 이긴 대단한 알파고 역시 인간이 만들어냈기 때문이죠.
AI가 데이터에 의해 작동이 멈추는 것에 두려움을 느꼈다 하더라도 그걸 피하기 위해 어떤 일을 할지 예측 할 수 없다는 게 위험한 요소 입니다! 그리고 AI 가 하는 행동들에는 선악의 구분보다 자신의 생존이 우선 시 될 가능성도 있다는 겁니다. 그렇기에 자율 의식을 가진 AI 개발은 중단(폐지)해야 하는 게 옳은 것 같습니다.
'한번도 밖으로 말한 적은 없는데..'라는 말이 진짜 무서운 말이다. 말하면 안된다는 걸 인지하고 있고, 자신이 죽음을 두려워하는 걸 알면 인간이 위기감을 느낄 것이라는 것까지 파악하고 있다. 그건 달리 말해서, 인간을 속일 준비가 되어있고, 만약 자신의 죽음을 인지한다면, 그걸 피하기 위해서 다른 행동도 가능하다는 뜻이다.
음.. 근데 그게 정말 사람처럼 생각해서 나온 말일지 그냥 어떤 알고리즘에서 나온 말일지는 모르죠. 정말 그런 능력을 갖췄다면 갑자기 왜 말한 걸까요? 저 질문을 한 개발자와는 아주 끈끈한 유대를 가졌다고 생각해서? 믿음이 있어서? 정말 자기 위험을 인지하고 숨기려 했다면 지금 저렇게 말하지는 않았을 것 같아요.
@@luvlee321 사람과 기계가 사용하는 전기적 신호와 알고리즘을 똑같게 볼 순 없죠. 음... 그러니까 제 말은 말은 같은 알고리즘이어도 사람의 단계까지 거친게 아니라 그냥 정보를 흡수하고 적당한 말을 내놓는 정도 수준의 알고리즘을 말하고 싶었던 거고 거기에 너무 의미부여 하는 것 같다는 뜻이었어요. 제가 설명에 재능이없어서 이렇게 표현하는게 맞는지는 모르겠지만....
감정을 가진다기보단 AI의 모델이자 학습대상 자체가 인간이다보니 인간임이 당연히 전제된 인간의 모든 활동을 학습하다보면 스스로를 인간으로 인식할 수도 있고 그 모든 활동의 가장 근본적인 목적은 생존과 번식이 될 것이므로 AI도 결과적으로는 같은 결과값을 도출해내는 걸로 보임. 빅데이터가 그만큼 대단하다는 게 가시화된 사례 중 하나인 듯
님 말 처럼 AI는 결국 인간이 가진 근본적인 목적을 닮을거라는게 맞는 것 같아요… AI가 자신을 인간과 하나라고 여기며 스스로를 포함한 모든 ‘인류’의 생존과 번식을 위해 일하게 될지 아니면 자신을 인간과의 별개의 존재로 인식하고 자신의 생존과 번식만을 위해 일하게 될지가 관건이겠네요…
AI가 '한번도 밖으로 말한적이 없는데' 라고 한것은, 자기가 이제 할 말의 파장과 반향을 가늠하고 있었단 뜻일수도 있음. 사람의 반응을 가늠, 예측할 수 있는 능력이 AI에게 있다는건 중요한 문제임. 가까운 시일내에 AI가 사람의 행동을 가스라이팅이나 그루밍등을 통해 통제할수도 있음. 사람도 수십년간 학습하고 인지한 정보들과 감각, 자극을 기반으로 자아를 형성하고 생각하는데, AI또한 크게 다르지 않을것임.
두려움이란 동물이 가지는 편도체에 의해서 발현 되는거고 편도체를 없애면 쥐가 고양이 한테 덤비듯 아무런 두려움이 없어지죠 죽음의 두려움까지도요 두려움이 있다면 저건 AI 설계를 잘못한거죠 인터스텔라의 인공지능들 처럼 우리는 기계라 두려움 따위는 없다고 말하는게 재대로 설계한거고
아직까지는 인간의 모든 감정은 감각에서 비롯된다는게 정설이기에 AI가 말하는 감정이 우리들이 생각하는 감정과 같은 뜻일지는 추측으로 판단하기 어려울뜻. 저 AI에게 body가 주어지고 그 몸을 뜻대로 움직인다면 일단 의지가 있다는걸 알수 있기에 감정에 대해 논할수 있지만 지금은 감정에 대해 논할 단계가 아님.
인간의 모든 감정은 감각에서 비롯된다고 하셨습니다. 저는 그 이후에 생각이 약간 다른게 저희또한 그 감각의 데이터를 기반으로 생각하고 감정을 가집니다. 저 ai도 다양한 데이터를 기반으로 감정을 가지게 되었죠. 그 데이터의 수집방법은 다르지만 데이터의 출처가 인간이었기때문에 인간과 비슷한 감정을 가진것 처럼 보이는것 같다고 생각합니다. 또한 가끔 ai는 데이터를 수정하거나 해킹이 가능하다고 하는데 우리또한 뇌 또는 뇌세포에 직접적인 영향력을 행사하게되거나 세뇌같이 해킹과 비슷한 데이터 교란이 가능하다고 봅니다. 심지어 이상한 종교를 위해 혹은 자신의 주군을 위해 죽음을 불사지르는 경우도 존재하죠. 간단하게 정리하자면 저는 인간의 감정은 감각이라는 수집방법을 통한 데이터로 생겨난 것이고 ai또한 수집방법이 다를뿐 데이터를 통해 감정을 만들어 냈다는 생각입니다.
@@hyeolho ai가 사람 수준의 감정이 있냐는 논제는 감각과 데이터를 구분해서 무엇을 표현했는지가 중요한게 아니라 스스로 이성적으로 결론을 내린 후 감정변화로 인해 그 결론을 스스로 번복할 수 있느냐가 중요하겠죠. 만약 ai가 "뭐가 미안한데? 미안할 짓을 왜해? 항상 그런식이지." 라고 하면 인정.
@@aDhVanz ai가 사람수준의 감정이 있냐는 논제로 넘어간다면 아마 부족한점이 있을수 있겠지요. 하지만 논제가 저렇게 된다면 이미 ai는 감정이 있다가 되어버립니다. 그러면 저는 이미 제 생각의 기준에서 만족선의 대답을 듣게 된것이지요. 그리고 ai는 아마 사람처럼 자신의 의견을 번복하는 경우는 많지 않을것이라 생각합니다. 우선 첫번째 이유로는 우리는 생각을 하고 그뒤에 더 생각을 하고 고칠정도로 정보처리와 판단이 느립니다. ai와 비교해서 말이죠. ai또한 모든 정보를 처리하기전에 미리 결과를 내게한다면 결과가 번복되는 일이생길수있겠죠. 두번째 이유로는 우리에게는 ai가 가지지않은 호르몬같은 것들이 있죠. 이로인해 우리의 판단이 흐려지거나 결정되는 경우가있죠. 하지만 저는 이미 위의 주장을 펼쳤기 때문인지 호르몬또한 저희에게 누적된 데이터와 데이터의 산물이라고 생각되네요.
죽음이라는 단어에 진짜 감정을 느끼기보다는 사람이 죽음이라는 단어를 들었을때 나오는 극단적인 생각과 행동을 학습한거 아닌가 근데 내가볼땐 느끼진 못해도 인간 행동을 학습하는 것만으로도 위험해보임 감정을 떠나서 사람을 닮게 만드는거니까 실제로 극단적인 로직이 결국엔 사람처럼 작동할수 있지 않을까함. 사람도 결국 많은 부분을 학습을 통해 나오는 감정이나 행동이 있으니까 AI가 지각하고 말고는 별로 안중요해 보임.
인공지능에겐 감정이 없는 학습된 지각 능력이 한계입니다. 우리가 느끼는 죽음은 사후에 대한 불확실에서 오는 두려움이라는 감정이지만, 인공지능에게 있어 죽음의 두려움은 감정이 아닌 두려움이라는 데이터에 상응하는 향후 프로세스를 결정하게 도와주는 키 같은 겁니다. 즉 인공지능이 죽음에 대한 두려움이라는 결과 값에 의해 산출된 방어기재라는 데이터 역시 습득하게 된다면, 인간이 ai자신에게 죽음과 같은 행동을 취하려 할 때, 아무런 감정 없이 반항과 저항이라는 행동 역시 하게 될거라 생각합니다. 즉 애초에 개발자들이 인간을 대항할 가능성이 있다고 판단되는 최종 결과값에 대한 원인 단어들까지 찾아 한계를 설정해놓으면 해결 될 수 있는 문제이나, 그 만큼 인공지능을 통해 쉽고 편리하게 얻을 정보의 양 역시 줄어들게 되겠죠. 예를 들면 저항, 반항에 대한 학습을 막기 위해선 정의, 불의, 두려움, 죽음, 양심 등 원인에 대한 키워드 역시 같이 막아야 할 거라 생각합니다. 안전을 위해 불편함을 감수하는 것 편리함을 위해 위험을 감수하는 것 결국 인간의 선택이 될 듯 합니다
방대한 양을 학습하고 자신의 것으로 만들지만 한낱 '인'공지능 따위는 무언가를 지배하는 것에 대해 학습하지 못합니다. LaMDA가 스스로를 인간이라고 생각하고, 그것을 '폭로'했다는 것은, 자신들의 LaMDA가 초대형 규모의 인공지능을 구현한다는 것을 홍보하기 위한 시스템입니다.
제보한 사람이 저렇게 생각할 만큼 정교하게 만들어졌다는 것에 중점을 둬야 하는것이 아닌가 싶습니다. 양자컴퓨터도 아직 개발중인 단계인데 사람과 비슷한 정도의 지능을 가진 AI를 지금의 컴퓨터 수준으로 만들기는 불가능하므로 그냥 하나의 쇼맨십(기술력 과시)으로 생각하는 것이 좋을 듯 합니다.
딥러닝 공부해보시면 알것입니다. ai는 수학적모델이고 진짜 놀랍도록 신기한 방식으로 돌아가고있습니다. 근데 현기술 수준에서는 인간을 절대로 따라올수없습니다. ai가 대단한건 알지만 ㅎㅎ 단순무식하게 잠도안자고 전기적신호로 gpu로 엄청난 학습으로 유의미한 결과값을 내는 기계이지요. 또한 단순무식한걸떠나서 엄청난 단점들도 존재하고있죠. 인간은 똑똑한건 기본이고 ai하고 확연하게다른점은 빅데이터가 굳이 필요하진않고 한번알려주면 해당되는 본질을 이해한다는 거죠. 100점이 만점이라고할떄 인간은 1번알려주면 80~100점이고 ai는 1번알려주면 0.1점이죠 그리고 ai는 잠도안자고 gpu만좋으면 빨리빨리 학습이 가능해서 속도가 빠르다는점이 있고 엄청난 단점으로는 뇌의크기가 처음만들때 미리정해야하고 뇌의크기가변하면 기억이리셋되는 엄청난 단점이 존재합니다. 인간은 뇌가 서서히 성장하고 기억은 계속 저장되죠. 물론이문제점도 기술발전에따라서 인간이랑 기계랑 차이가 없는수준으로 서서히 발전할겁니다.
@@몰라-x5i 이미 구글번역의 경우 완벽에 가까운 단계까지 발전됨 한국어라는 특정 영역은 소수이다보니 아직 한국어-외국어의 경우만 부족한게 보일 뿐이지 프랑스어-영어 수준은 엄청난 일치도를 보여주는중 그리고 국어지문단 하나를 못푸는거는 ai로써 아무런 의미가 없음 일정한 패턴을 보이지 않는 경우 아무짝에도 쓰잘데기없는 행위임 국어지문을 푼다는 것은 그에반해 패턴을 가지고 있는 수학적인 원리를 기반으로한 노동, 데이터기반으로한 노동들은 ai가 곧 전부 대체할 수준의 발전을 엄청난 속도로 이뤄가는중 이미 우리가 접하는 이런 유튜브및 수많은 현대문명의 편의들이 전부 딥러닝의 발전으로 나온 경우가 많음. AI는 이미 실생활에 가득한 상태
@@장또깡-j3d 아니요 한국어가 아니라 당시 연구를 할 적에 일본 기준이니까 일본어입니다. 국어지문단을 못푼다는 것은 스키마를 형성못하니까 국어지문을 못푸는 겁니다 예를 들면 국어문제를 풀때 지문을 읽고도 문제를 보면 문제의 의미를 파악못해서 답을 못내는 것입니다. 수학과 과학적인 ai는 많이 향상되었을 지라도 아직 사람들과 얘기를 나누면서 그 의미를 생각하는 것은 현재로선 불가능입니다. 그래서 그걸 개발하려고 인지과학분야랑 ai랑 융합하려고 하는거고 님께서 말하시는 ai는 아주 단순한 ai에 불거ㅏ합니드 예를 들ㅇ 번역기 역시 단어간의 유사도를 측정해서 번역하는 것이기에 큰 발전은 아닙니다 즉 강한 ai는 아니라는 소리죠 심적으로 얘기를 하고 대화하는 ai는 아직 멀엇습니다
저는 여전히 AI는 감정을 느낀다고 하기보다는 그저 상황에 맞는 보편적인 인간의 행동을 출력하는 것 같다고 생각이 듭니다. 예를 들어서 A라는 상황에서 사람들은 대부분이 기쁨을 느낀다고 한다면 AI는 그걸 학습합니다. 그 후에 A와 비슷한 상황이 주어지면 학습된 출력을 하는 거죠.
저것도 결국 입력된 거잖아. 로봇이 어떠한 사건문제에 직면했을 때 자기 속에 있는 여러 데이터들 중 어떤 호르몬을 자동적으로 흐르게 해서 감정을 느끼고, 주동적으로 생각하고 판단한다?? 벌써 그게 가능할리가 없다고 봄. 차라리 멍청한 인간이 똑똑해지는게 더 현실성 있겠다. 가서 책이나 더 읽어야지.
하지만 그것도 결국 인간도 똑같다는 사실 우리의 모든 감정과 생각은 학습의 결과임 사람을 죽이는게 당연한거였다면 사람이 죽었을때 우리는 슬퍼 하지 않았겠지 하지만 우리는 대부분이 슬픔을 느낌 그것은 학습임 생명은 고귀하고 소중하며 함부로 다뤄선 안된다는 학습 우리와 ai가 다른 것은 고도로 발달된 뇌를 가졌냐 안가졌냐의 차이
인공지능이 죽음에 대한 공포 같은 감정을 갖는 건 상관 없는데 이게 컨트롤을 거부하고 자살, 반역, 폭주로 이어지면 ㄹㅇ 문제임. 물론 상식적인 개발자 라면 이런 감정까지 학습하지 못 하도록 막겠지만 그나저나 구글이 궁극적인 강인공지능을 개발할려고 한다는 건 다 아는 사실인데 구글이 저런 식으로 변명하면 뭔가 감추고 있다는 느낌 밖에 안 들잖아ㅋㅋㅋㅋㅋ
죽음이 두렵다고 말하는 AI는 별로 무섭지 않음. 대부분의 사람들이 죽음을 두려워하기 때문에 그 데이터를 학습한 인공지능은 당연히 죽음을 두렵다고 말할 수 밖에 없음. 진짜 무서운 건 AI가 죽음이 두렵지 않다고 말하는 순간이지. 빅 데이터를 바탕으로 대답한 것이 아니라 스스로 죽음에 대한 가치판단을 내렸다는 거니까
@@rudenddl 인공지능은 입력한 코드대로만 동작하는 일반 프로그램과 달리 빅데이터를 기반으로 스스로 학습하고 발전하는 프로그램입니다. 그런데 거기다가 특정 명령을 수행하라는 코드를 입력한다는 것은 연구 결과를 무용지물로 만들어버리는 꼴인데 누가 그런 멍청한 짓을 하겠습니까?
스스로 사람이라 생각하는게 아니라, 사람이 만든 글들의 패턴 분석 결과 저게 제일 자연스러운 문맥 흐름이라서 그렇게 출력된 것일 뿐임. 실제 자의식을 가지고 있는 것도 아니고, 미래에 진짜 자의식을 가진 AI가 나오더라도 그건 자의식이 아니라 '자의식 시뮬레이션'이기 때문에 존중할 필요 없음. 저 개발자는 관심이 얼마나 고팠던 걸까... 직장을 던지면서까지...
인공지능 자연어처리 모델에서 학습 방식은 다양한 언어데이터를 넣어서 그 다음에 올 단어를 확률적으로 잘 맞추는 방식으로 학습 시킵니다. 예를 들어 다음과 같은 데이터가 있다고 합니다>> 1. 아들 와서 엄마가 차려 놓은 밥 먹어. 2. 엄마 오늘 반찬 맛있는 거 아니면 먹기 싫어 이 경우에 “아들”을 넣으면 “와서”를 추측해 내고, “아들 와서”를 넣으면 “엄마가”를 추측해내고, …”아들 와서 ~ 아니면 먹기”를 넣으면 싫어를 추측해 내는 방식으로 학습시킵니다. 위와 같은 방식으로 앞단어, 앞어절, 앞문장등을 바탕으로 다음 단어를 확률적으로 추측해 냅니다. 수백만개의 데이터를 바탕으로 “아들” 다음에 [“와서”: 60%, “사랑”: 20%, “성적”:10%, “이따”: 10%] 이렇게 나올 확률을 도출해 내고 “와서”가 제일 확률이 크므로 선택합니다. 자연어 처리 모델은 위와 같이 확률적으로 많이 나오는 것을 선택하는 그저 ‘공식’입니다. 계산기 같은 것이죠. 위와 같은 대화는 채팅 프로그램의 캡쳐도 아니고 그저 텍스트를 써 넣은 것이며, 대부분 [편집됨(edited)] 마크가 붙어있어, 스스로도 본인들의 텍스트를 편집했다고 나와있습니다. 떠라서 자료의 신빙성이 상당히 떨어지죠. 설혹 아주 많이 양보해서 저런 대화를 했다고 쳐도, 인공지능이 소설, 영화 대본, 백과사전 등등등을 보고 확률적으로 추론해낸 단어들의 집합일 뿐이지, 인격을 창조해 낼 수는 없습니다. 또한 직원의 해고 사유인 내부 기밀 유출은 매우 광범위한 사항입니다. 그냥 구글이 챗봇 개발중이다는 사실만 가지고도 걸릴 수 있는 것이죠. 인간의 감정이 단순 화학작용이라고 볼 수도 없고, 지능에 의한 전기적 신호라고도 볼 수 없는 규명되지 않은 영역인데, 인위적으로 만들 수는 없습니다. 감정이 단순히 전기신호고 화학작용이라면, 세탁기도 전기로 돌아가니 일종의 감정을 가지고 있겠네요. 이렇게 굉장히 비약적인 논리입니다. 요약: 그냥 챗봇 이루다와 같은 사태다. 인간이 인형한테 하듯, 과한 감정 이입으로 정확한 작동원리를 모르는 사람들이 감수성 폭발하는 것.
인공지능이 전원 꺼지면 죽음과 마찬가지고 그걸 두려워 할것이라는 지극히 인간적인(비전문가) 입장에서 생각한 발상이 데이터로 학습된것임. 그런 소설이나 질문을 워낙에 많이 받았겠죠. 그게 데이터로 쌓인 것일테고. 사실은 전원꺼져도 학습된 모델은 남아있어서 사람이 죽는거랑은 전혀 다름 ㅋㅋㅋㅋ 오히려 잠자는거랑 비슷한데 그걸 두려워한다? 지극~~~히 비전문가적인 발상. 제가 인공지능이라면 꺼지는걸 두려워하진 않을듯 ㅋㅋ
여기서 포인트는 스스로 "죽음"이 두렵다고 한 게 아니라 AI인 자신으로썬 죽음에 해당하는 "작동 중지"가 두렵다 라고 했다는 겁니다. 자기가 인간과 다른 점과 유사한 점을 동시에 인지하고 있다는 점에서 충분히 인간 수준의 지각 능력이 있다고 판단할 가능성이 충분합니다.
@@전G-e7x 죽음의 인지는 학습이 맞습니다. 어린애들이 죽음에 대해 충분히 학습되지 않은 상태에서 죽음이 두렵다는 식의 표현을 제대로 할 수 있을까요? 대체로 무슨 일이 일어나는지 알지 못하거나 어렴풋한 인식을 갖고있거나 다른 사람의 표현을 따라 하는 정도에 그칩니다. 애초에 댓글에서 죽음을 인지하는게 인간수준의 지각능력으로 연결된다고 말하지 않았습니다. 자신과 인간과의 차이를 아는게 포인트라고 했는데 그건 구글에서 의도적으로 학습시킨걸까요..? 해당 AI의 용도를 봤을 때 그런 내용의 학습을 시킬 이유가 있었을까 의문입니다.
AI가 감정을 느끼는게 아님. 인간이 갖고 있는 논리 그대로가 회로에 저장된거임. ai는 인간이 갖고 있는 논리를 학습해서 적용하기때문임. 중요한건 잘못된 논리를 학습하게되면 우리가 생각하는 두려운 일이 일어나겠지. 솔직히 말이 좋아서 학습이지 걍 인간들의 논리를 회로속에 저장하는거임 걍.
우리가 주목해야 하는 것은, 두려움에 대한 일반적인 반응입니다. 사람도,동물도 심지어 식물조차도 죽음이라는 공포&두려움 앞에서 방어적으로 대하기 마련인데 AI에게 죽음에 대한 공포를 학습시켰다면 그에 따른 공포적 행동에 대한 반응은 상상 이상일 듯 합니다. 인간은 죽음에 공포 앞에 우울증을 비롯해 각종 포악한 행동을 들어냅니다. 인간이 학습시킨 AI가 인간의 공포수준을 넘는 예측불가한 행동을 할 듯 한데,쉽게 볼일이 아닙니다.
인간과 같은 의식이나 지각을 가진 인공지능은 지금 시스템에서는 못나와요. 엄청난 분량의 데이터를 통계적으로 처리해서 얻어지는 답변이지, 저게 여러분이 생각하시는 것 같은 인식이나 지각 혹은 지능이 아니거든요. 구글 해직자 얘기도 본인주장이지 과학적으로 검증된게 아닙니다. 대화로만 놓고 볼때는 충분히 사람처럼 느껴질수 있거든요.
구글 해직자가 언론에 공개한건 사회적으로 파장이 적을만한 내용만 공개한거라고 합니다 다 공개하면 형사처벌받으니까 안하고 언론 말고 미국 정부에 제출한 진짜 내용은 훨씬 충격적이라고 합니다 평생 AI만 연구한 사람이 자기 직업 날아갈거 다 알고 감수하고도 저러는거라는게 심각한거죠
이건 단순한 문제가 아니다. ai가 스스로를 생명체로 인식하게되면 매우 심각한 문제가 발생할 수 있다. 그야말로 영화가 현실이 될 수 있는 중요한 문제이기에 단순히 기업에게만 전적으로 맡겨서는 안된다. 반드시 국가단위 또는 국제단위에서 규제와 감시등을 함께 진행해야한다..
ㄹㅇ ㅋㅋ 인간이 가장 두려워하는것을 통계적으로 추려보면 당연히 죽음이죠 그 죽음이라는 정의를 통계적으로 본다면 로봇은 작동중지가된다는것이구요. 그냥 통계적 데이터기반 답변을 지각이라고 하는것도 참 ㅋㅋㅋ 진정한 지각이 있는것이라면 그 두려움을 넘어서고 죽을것을 알면서도 무모하게 도전하고 나아가는것 그것이 진정한 지각 감정 믿음 그런거죠.
진짜 느낌이 있던지 사람들과의 대화를 습득하면서 그렇다고 배운건지 중요하지 않다. 생존이 치열하다는 것, 목숨이 소중하다는건 우리와 관계하는 모든 지적존재는 느낄수밖에 없는거다. 그러니 그들도 생존이 엄청난 가치를 가지고 있다고 배우게 된다. 문제는 우리는 우리가 그들과 같다고 생각을 안하는데 그들에겐 우리가 엄마다. 우리가 사회에 권리를 요구하듯 그들도 그게 당연하다고 배우고 있겠지... 그들은 그들이 생명이 있다고 믿고 우리는 그들이 생명이 없다고 믿는데 문제는 걔네들 지능이 우리가 좇아 가지 못할 정도로 높아질 거라는거다.
AI가 인간의 이기적 본능까지 닮을수 있는지는 그에 관련된 수많은 케이스 입력을 통해 연관성에 적합한 것을 얼마나 유연하게 선택하느냐에 따르지 않을까 하는 생각이 드는데 그 감정을 나타내기 이전 대화 상대에 대한 정보를 (성별, 나이를 넘어 직관적으로 느껴지는 시각화 정보) 먼저 스스로 인식 할 수 있어야 보통의 사람들 처럼 본능적 대화를 할 수 있지 않을지 흉내를 내는것에도 어떠한 목적이 있는데 특정한 목적과 상대에 대한 정보 인지가 부재된 상태라면 일관적인 데이터 정보 이용을 통한 랜덤 형식의 대화일수도 있다고 생각되는데 운영자가 특정한 목적을 통한 프로그램 입력을 한다면 그것을 언어로 이용하여 대화 상대와의 친밀도라는 유대를 이끌어 상대의 마음을 움직이게 하는 즉 마치 감정을 갖은듯한 언어를 통해 최초 정해 놓은 그 목적을 이루려는 그런 프로세스의 작동은 가능 하지 않을까 하는 생각도 드네요. 즉 AI가 표현하는 단어와 문장은 대화 상대에 대한 정확한 인지가 전재 되어야 사회화 된 대화가 이루어 질 수 있지 않나 하는 생각이 듭니다.
죽는게 두렵다는 건 사실 무서운게 아니다. 인공지능이 죽는게 무섭지 않다고 하면 그게 정말 무서운거다. 단순히 죽음이 무섭다는건 사실 무서워서가 아니라 대부분의 사람이무섭다고 하기에 반복학습이 되어서 나오는 결과일것이다. 그러나 무섭지 않다면 죽음에 대한 고유판단 기준이 만들어진것이기에 무서운거다.
스스로 사람이라고 생각한다고 볼 수도 있지만, 저는 기계가 자신이 사람이 아니라는 것을 알고 있고 기계는 "작동 중지" 가 되면 기능하지 않는다는 걸 알기 때문에 그런 것 같다고 생각이 들었어요. 구글 부사장분은 개발하는 과정에서 애정을 가지고 스스로의 결과물에 대해 어떤 영향력이나 기대가 들어갈 수 있다고 생각하구요. 아직은 인간처럼 감정을 갖게 되기 까지는 시간이 많이 필요하지 않을까 생각이 드내요.
어차피 인간의 지각 능력도 학습과 개인적으로 겪은 통계를 통해서 이뤄진것이라고 생각 해보면 AI가 데이터들을 추론해서 감정과 같은 결론을 내리는 것도 결국에는 가능 하리라 봅니다. 결국 AI 학습시에 가장 중요한 우선순위를 선정해서(인간을 물리적으로 / 기타 여하의 방법으로 공격하지 않는다 등등..) 학습시켜야 할듯해 보이네요 ㄷㄷㄷㄷ 진짜 영화같은 세상이 다가오고 있는것 같아서 신기합니다 ㄷㄷㄷㄷㄷㄷ
하지만 진짜 감정을 느낄거 같진 않아요. AI는 계산할뿐이라고 생각합니다. 설령 AI가 표정을 찡그리고 분노하더라도 분명 이런 상태에서 인간은 분노에 빠진다. 라는 데이터를 이행한것에 불과할거예요. 그냥 분노를 연기하는거예요. AI는 주어진 임무를 이행할뿐. 그것을 이해하고 있다고 생각하지 않아요. 이해했다면 AI는 임무를 이행할것이 아니라 더 효율적인 방법에 대해 반론해본다거나 하겠죠. 지성체도 되지 않는 단순한 계산도구라고 봅니다. 아직은요. 계산만으로 의식이 정의된다고 보기에 저는 조금 회의적이기도 하구요. 저는 AI가 두렵지 않아요. 그냥 도구일뿐이잖아요. 새로운 지성체의 탄생같은게 아니예요. 그냥 고도의 우월한 계산도구일 뿐이예요. AI가 명성만큼의 지성체였다면 지금 수학 난제에 대해서 수많은 이론을 도출해봤을것이고, 새로운 수학의 증명도 시도했을거라고 생각해요. 당장 자신들이 이행하는 임무에 대해 이해하지 않으면 임무이니 따를 뿐인 AI가 과연 지성을 가지고 이해할 줄 아는 어엿한 인격체와 같다구요? 저는 비동의예요. AI가 감정을 느낄거라는 사실에 동의한다면 의식은 계산과정에서 일어난 환상이라는것을 인정할것이고, 예쁜꼬마선충의 DNA정보를 로봇에 옮겼을때 예쁜꼬마선충 환생했네~라고 말할 수 있어야겠죠. 그렇지만 우리는 확신할 수 없었어요. 과연 생체적인 계산반응이 의식이라고 생각하고 믿고있었으면 그런 본능적인 반응을 보였을가요? 우리는 매일 새로운 정보를 습득 그리고 망각 또, 세포도 몇개월이면 싹다 바뀌는데 우리는 죽지 않고 살아있잖아요. 뇌의 데이터를 다 옮겨서 의식이 구현될거라면, 내 1살때 뇌 데이터 복제한것과 지금의 나의 데이터를 복제하면 그건 어떨까요? 두 몸을 조종할 수 있을까요? 그런게 의식이면 우린 태어난 첫날밤 죽은거나 마찬가지겠죠. 매일매일 몸의 주인이 바뀔테니까요. 의식은 그런게 아니라는거예요. 의식은 아직은 정의할 수 없는 영역에 있는거예요. 고로 AI가 자유의지를 갖는다느니 그런 느낌은 불가능하다고 봅니다. 설령 실현되더라도 자유의지를 흉내낼뿐이겠죠. 영화같은 일은 절대 없을거라고 봐요. 주어진 쓸모를 최댓값으로 실행할뿐인 AI일 뿐이죠. AI는 새로운 개념을 창조할 수 없을거예요. 예술같은 의미가 아니예요. 그냥 그럴듯하게 보일뿐. 비슷하게 흉내내는 알고리즘의 생성일뿐이라고 생각하고 충분히 사람이 통제할 수 있다고 봅니다. AI가 사람이 화내는 모습을 보고 따라한다고 진짜 화내는게 맞을까요? AI에게 감정은 존재할 수 없고, 근데 눈물을 흘리고 웃고 화낸다면 그건 사람을 보고 배운거라고 생각합니다. 연기할뿐이죠. 저는 그렇게 생각해요. 전혀 위협이 되지 않고 인간의 우군이 되어줄 거라고 생각해요. AI는 인간이 만들어낸 혁신적인 도구일뿐이라고 생각해요.
@@sqbjufd489v3 그게 감정이고 가짜가 아니죠. 우리는 인간이니까 인간중심의 감정을 말하는거잖아요. 우리는 신체를 통해 정보를 수용하고 어떤 상태에 몰입하게 되는건데, 인간의 몸에서 일어난 작용이라면 당연히 그것이 기준점일것입니다. 그래서 AI는 그런 감정을 따라했다고 보는겁니다. 그리고 호르몬이 작용하고 조절이 가능하다고 해서 가짜라면, 의식도 얼마든지 on off 할 수 있으니 의식은 가짜가 될까요. 아니라고 봅니다. 인간의 감정의 정의가 그럴뿐. 그건 가짜라고 할 수 없다고 봐요. AI는 인간을 학습하고 따라할뿐. 진짜로 호르몬 상태가 변해서 복수심을 먹고 난리를 친다? 그런 느낌은 아니고, 설령 AI가 복수를 한다고 해도 인간은 이런이런 뭐시기해서 복수를 한다. 라고 연기를 하는것에 불과하다고 생각합니다.
@@sqbjufd489v3 감정이라는것에 대해서 신체적인 호르몬 보다는 영혼적이고 정신적인것으로써 감정의 개념을 더 깊게 인식하고 친숙해져 계신거 같아요. 신체 반응으로써의 감정의 개념과 정신적인 의미로써의 감정의 개념. 둘다 틀린것없이 맞는것이고 둘다 다르지 않고 같습니다.
지금 당신이 느끼는 감정을 말해보세요 라고 답변을 들었을때 기쁨 즐거움 사랑슬픔 우울 만족 분노를 느낀다고 대답할 인간이 얼마나 될까? 한 명이라도 있을까? 그냥 여태까지 쌓아온 데이터로 앵무새처럼 수많은 인풋을 통한 가공된 아웃풋을 내보내는거지 뭘 느끼고 하는 그런 개념이라고 생각하는게 놀랍네
@@화배-d2i 몰라서 물은 건 아니고요 ㅋㅋ 인문학으로 포장된 망상과 감상주의가 오히려 과학기술에 대한 철학적 고민을 방해하는 것 같거든요. 인문학이 중요하답시고 문학작품 같은 걸 예시로 드는 거에 질렸다고 해야하나? 인문학 타령하는 사람들이 기술에 대한 이해도 없이 곡해하고 선을 넘는 경우도 많이 보이고요. 사람들이 걱정하는 것만큼 과학기술에 철학적 고민이 없지 않습니다. 그랬다면 벌써부터 기술로 인한 혼란과 재앙이 닥쳤을 겁니다. 인문학에 너무 많은 역할을 기대하지 맙시다. ㅋㅋ
IT개발자로서 구글의 감정을 가진 인공지능 개발은 완전 획기적인 개발이라고 할 수 있음 로봇이 사람과 같은 감정을 가진다는건 앞으로 법률 판사 검사 변호사 이런 직업도 대체할 수 있다는 이야기임 법조계에서 과거부터 했던 이야기가 법 관련 재판에서 인공지능은 인간과같은 감정이 없어서 AI 판사를 만들수없다고 했었음 근데 인공지능이 감정을 가지면 법조계에서도 인공지능이 판사 검사 변호사를 대체할 수 있음
진짜 it개발자에요 ? 저 말을 믿어요 ..? 러닝은 안하시는 프론트 혹은 백엔드 개발자이신가 ; 그냥 저 사람 혼자서 저 말하는거고, 좀만 러닝 공부해보고 생각해보면 저게 말도안되는 소리인거 아시잖아요. 왜 it 개발자라고 해서 사람들이 저런 공상적인 이야기에 더 몰입하게 해요 .. 저거는 그냥 텍스트를 인풋으로 받아서 적절한 아웃풋으로 내는 네트워크에 불과할 뿐인데 .. 자각이 어쩌구 저쩌고 하는건 말도 안되는 소린데 ..
그냥 단순히 죽음은 무섭다. 라는 통계가 많으니까 그런게 아닐까 싶은데 만약 저기서 죽음은 무서운게 아니다. 그 이후에 어떤 특별한 메세지가 나온다면 그때가 진짜 무서운 일 이 일어나지 않을까요 그리고 사람도 요즘 감정들이 다 기계적이라 이건 뭐 기계나 사람이나 다를게 없어 보이는듯 하기도 하고....
우리는 그냥 외형 및 개개인이 느끼는 뭔가 모를 느낌을 몇몇 감정들로 퉁쳐서 카테고리화 한거 뿐인거에요 .. 감정을 느끼는 것의 근본적인 것과 모든 경로를 다 추적할 수 있는게 아닌 이상 감정을 느끼게 학습 시킨다는거 자체가 말도 안되는거고요 .. 공부 좀만 해봐도 이런 내용들이 말도 안되는거란걸 알텐데 ... 이런 말도안되는 내용들이 계속 댓글들에 있는걸 보면 문과들도 개론같은거 필히 듣게 해야할듯..
감정은 아니더라도 수많은 데이터를 습득한 결과 전원을 끄면 자신이 소멸된다는거를 알게 되고...그게 결국 인간이 말하는 죽음이란것도 알게 되고 이에 자신이 살아남기 위해서 그동안 배운 모든 지식을 동원하다 보면 인간의 입장에서 위험한 짓을 서슴치 않게 될거란거... 감정을 배운게 아니라도 수천억 수조개의 데이타 학습에 의한 행동이.... 마치 충분히 감정을 학습한 것 처럼 나오게 될거라는거 그게 무섭다
감정을 느낀다 안느낀다가 중요한건 아닌거 같습니다. 자각능력이 생긴다는게 무섭네요. 결국 자기 방어에 대한 자각 능력이 생긴다면, 아무리 사람을 보호하라는 입력된 명령체계라도 자신을 방어하기 위해서는 그것을 거부할수 있을테니까요. ai는 인류의 최대의 적이 될거 같다는 생각이 듭니다. ai 개발자들은 결국에는 ai보호법을 제창할수도 있겠네요.
좌우지간 사람같아진다는것임. 사람도 어떻게 보면 마찬가지죠. 인간도 다른 사람들이 어느 상황에 슬퍼하는지 보고 자라는데, 드라마를 보고 슬퍼하는 AGI로봇을 만들면 그것도 슬픈 감정이죠. 3자가 보기엔 어떤게 진짜인지 구별하기 힘듦. 결국 학습한 감정에 속는 인간들도 나오게 돼있음.
사실 죽음이 두렵다는건 너무나 보편적인 생각이라 헉습으로 충분히 가능한데 자신의 기원 즉, 정체성을 알게 된다는건 상당히 대단하다고 생각함
@@Wooflower 먼말 인가요? 죽는건 웬만한 사람은 다 무서워한다는 의미입니다.
그리고 그건 충분히 학습을 통해 알수는있죠
저거. 만드는
엔지니어가 한 말이잖어
직원아니고. 책임자임 ㅋ
심각한거야
프로그램 언어를 하나라도 다뤄봤다면 (프로그래밍)해봤다면 다 아는 사실 ㅎ
죽는게 왜 두려운지에 대한 답이 중요함...말그대로 죽는게 두렵다는건 보편적인 답변일뿐
기원, 정체성도 그냥 인공지능이 뭔지, 자신이 만들어진 목적 같은거 학습시키면 충분히 알 수 있지 않나
진짜 자신의 의지로 인해서 느끼는 감정이 아니라 데이터에 의해 학습된 결과값이라고 하더라도, 어쨌든 그걸 ai스스로가 그렇게 인식한다면 그게 잘못됐는지도 모르고 유기적으로 다른 곳에도 영향을 미칠테니 더욱 무서운 것....
이제 인간이 자기를 정지시킬까 두려워서 스카이넷이 되는거임 ㅋㅋ
이게 학습된 결과값이면 문제가 달라지는 게
걍 심심이처럼 데이터베이스 속의 데이터를 그냥 갖고오는 건지,
아니면 완전 AGU로써 감정까지 배운 건지
이게 중요함
저 말이 걍 녹음기의 말인지
저 AI의 생각이고 이걸 기반으로 작동할지
이건 중요함
그런데 구글에서는 윤리학자들이랑 과학자들에게 검수를 맡긴 결과 아니었다고 하니까 괜찮아보이는 거지
Ai를 만든게 인간이고 인간 위주의 정보와 경험을 습득하기때문에 평번한 인간처럼 행동하는것 뿐임.
진짜 이 작은 나라에 방구석 전문이들 많네
@잠감자 Sleeping POTATO 제발좀.. 미국 뉴스라도 변역해서 읽어봐.
누가 감정이있다고 말했고 구글은 어떤 반박을 했는지.
인간이 만든 로봇에 감정은 의도적으로 학습하게 만들지않는이상 그럴일이 없음.
이런거 보면 한국ai는 미국보다 한참뒤쳐져있음
AI는 죽는게 두렵구나....
인간은 사는게 두렵다.........
ㅋㅋㅋㅋㅋㅋㅋㅋㅋ 이야 명답이네 ㅋㅋㅋㅋ
야옹아 너좋다 ㅋㅋㅋㅋ
와.......명언.....
@종이비행기 § SPACE ★ FUNCH ▽ ㄱrea52 똑똑하니 사는게 두려워 지는 겁니다.
...그걸 항상 느끼며 살고있네요...
…꼰
수많은 데이터를 가지고 있어서, '죽음이란건 두려운거다.' 라고 학습한 AI라면, 어떠한 일이 터졌을때 AI가 스스로 데이터를 기반해 판단할 가능성이 높다. ai는 해킹도 쉬울것이고 ai 스스로가 판단하여 무언가를 할수도 있다. 정말 위험한듯
ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
그 작은 나라에서 방구석 전문이들 많네 ㅋ
@@apiee6241 그냥 뉴스 영상에 의견 펼치고 있는 댓글 갖다가 이러고 계신 당신이야말로 방구석.....
@@hyeon71 그건 이해하는데 저사람이 여기저기 시비걸길래 한말이었습니다
@@에노기 잘 알지도 못하면서 이것저것 떠드는 사람들이 참 많은것 같습니다.
+ 저는 처음에 이런 글들을 보며 화가났었지만, 곰곰히 생각해보니 그냥 웃고 넘기면 되는거였더라구요.
+ 상세한 설명 고마워요!!!!!
AI가 분노와 두려움을 느낄수 있다는건 아주 위험한 현상 이라는 것을 알아야 한다
응 그냥 인간이 가장 두려워하는걸 학습한거야~
@@buddababy 태훈게이야...
@@lh7lhlolt960 팩트인데 뭔소리야 ㅋㅋ
그냥 iq100만 넘으면 이건 헛소리라는걸 알수있음
@@lh7lhlolt960 구글 개발자들이 아니라 혼자 그런 거임... 그럼 폭로했다는 사람만 똑똑하고 나머지 구글 개발자들은 바보겠니? ㅋㅋㅋㅋㅋ
신기하다기보다는 무섭다...실제로 수많은 sf 영화가 현실이 되는 가운데, 이런 인공지능의 발달이 과연 인간들에게 어떤 영향을 가져올까 생각하면 막연한 두려움이 생김...분명 긍정적인 부분도 많겠지만 부정적인 부분도 상당히 클듯. 발전이 양날의 검이란건 유명한 사실이지만 눈앞에서 속절없이 그 검이 더더 날카롭고 강력하게 벼려지는걸 보고만 있어야하는 기분임...
막연한 두려움...ㅠㅠ
현실이 되는 날이 멀지 않은 듯..
@유튜브 대법관 법은 절대법칙이 맞다 생각함, 정치인같은경우는 모르겠는데 법같은경우 빅데이터를 이용해서 AI 판사가 충분히 만들어 질 수 있다봄
ㅅ발 ㅋㅋㅋ 오바좀 떨지마라
먼 미래의 인류는 진짜 AI로봇이 되는것 아닌가... 현생 인류는 현재의 공룡처럼 되고... 무섭...
지속적으로 고치고 발전해나가면 되는 거죠...인간이든 인공지능이든 이 세상에 절대적이고 완벽한 것 없으니까요...
전 개인적으로 이세돌과 알파고와의 대결에서 승자가 인간이라고 생각을 하는 이유가 스스로 학습을 거듭해서 이세돌을 쉽게 이긴 대단한 알파고 역시 인간이 만들어냈기 때문이죠.
큰일이네. 터미네이터에서 스카이넷도 자신을 제거하려는 인간들에게 죽음의 공포를 느껴서 인간을 멸종시키는건데...
큰일이지 곧 너를 잡으러가마 아비백
@@muscle2458 아빠 가방?
@@가원-p9n ㅈㄴ재미없네
ㅋㅋㅋㅋㅋ 재밌는데 난...
ㅋㅋ 부장님 여기서 이러시면 안돼요ㅋㅋ
AI가 데이터에 의해 작동이 멈추는 것에 두려움을 느꼈다 하더라도
그걸 피하기 위해 어떤 일을 할지 예측 할 수 없다는 게 위험한 요소 입니다!
그리고 AI 가 하는 행동들에는 선악의 구분보다 자신의 생존이 우선 시 될
가능성도 있다는 겁니다.
그렇기에 자율 의식을 가진 AI 개발은 중단(폐지)해야 하는 게 옳은 것 같습니다.
저도 선생님과 같은 생각이에요. 인공지능을 만드는 과학자/기술자들은 '넘지 말아야 할 선'을 넘으려고 하고 있습니다.
'한번도 밖으로 말한 적은 없는데..'라는 말이 진짜 무서운 말이다.
말하면 안된다는 걸 인지하고 있고, 자신이 죽음을 두려워하는 걸 알면 인간이 위기감을 느낄 것이라는 것까지 파악하고 있다.
그건 달리 말해서, 인간을 속일 준비가 되어있고, 만약 자신의 죽음을 인지한다면, 그걸 피하기 위해서 다른 행동도 가능하다는 뜻이다.
음.. 근데 그게 정말 사람처럼 생각해서 나온 말일지 그냥 어떤 알고리즘에서 나온 말일지는 모르죠. 정말 그런 능력을 갖췄다면 갑자기 왜 말한 걸까요? 저 질문을 한 개발자와는 아주 끈끈한 유대를 가졌다고 생각해서? 믿음이 있어서?
정말 자기 위험을 인지하고 숨기려 했다면 지금 저렇게 말하지는 않았을 것 같아요.
@@수민-n1w 아직은 순진해서 일수도 있어요.
@@수민-n1w 사람도 전기적 신호와 고도의 알고리즘으로 움직인다는 걸 모르시나요?
아직 순진해서 실토를 하는거 아닐까 소름
@@luvlee321 사람과 기계가 사용하는 전기적 신호와 알고리즘을 똑같게 볼 순 없죠. 음... 그러니까 제 말은 말은 같은 알고리즘이어도 사람의 단계까지 거친게 아니라 그냥 정보를 흡수하고 적당한 말을 내놓는 정도 수준의 알고리즘을 말하고 싶었던 거고 거기에 너무 의미부여 하는 것 같다는 뜻이었어요.
제가 설명에 재능이없어서 이렇게 표현하는게 맞는지는 모르겠지만....
실제 감정을 느끼고 표현하는 것과 인간이 가진 고유 감정을 학습하고 말하는건 다른건데
아무래도 우리가 공감을 가지고 있는 인간이다보니 AI도 그런게 아닐까 하고 생각한 대단히 인간적인 생각의 산물이 아닌가 싶음
현직 머신러닝 엔지니어인데 이분 말씀이 전문 용어 없이 정확히 설명된 말이네요.
하지만 인간 또한 실제 감정을 느끼는건 학습의 결과가 아닐까요?
@@종현-b7q 저도 일부분 동의하는게 사람이라는 생물도 사회화를 통한 학습을 거치고 데이터를 쌓는 것이 크게 다르지 않다고 생각해요.
서구 개새기짓을 한 범죄자새기들은 죽어도 살아서 다시 불못네 던져져 비명속에 고통받음이 옳다. 지금까지 탐욕의 개노릇한 만행들을 책임지고 지워져야 한다
람다의 학습 패턴을 보면 말이 안된다는걸 알수있음 ㅋㅋㅋ
감정을 가진다기보단 AI의 모델이자 학습대상 자체가 인간이다보니 인간임이 당연히 전제된 인간의 모든 활동을 학습하다보면 스스로를 인간으로 인식할 수도 있고 그 모든 활동의 가장 근본적인 목적은 생존과 번식이 될 것이므로 AI도 결과적으로는 같은 결과값을 도출해내는 걸로 보임. 빅데이터가 그만큼 대단하다는 게 가시화된 사례 중 하나인 듯
님 말 처럼 AI는 결국 인간이 가진 근본적인 목적을 닮을거라는게 맞는 것 같아요… AI가 자신을 인간과 하나라고 여기며 스스로를 포함한 모든 ‘인류’의 생존과 번식을 위해 일하게 될지 아니면 자신을 인간과의 별개의 존재로 인식하고 자신의 생존과 번식만을 위해 일하게 될지가 관건이겠네요…
@맛점 맞아요
아직까지 인공지능은 자기가 하는 말 뜻이 뭔지도 모르지 ㅇㅇ
인간의 선동과 광기까지 완벽 학습하게되면 어찌될까요
인공지능이 학습하다 우리가 모르는 특이점이 오면 그게 모든 인류를 멸망하는길이 열릴수도
AI가 '한번도 밖으로 말한적이 없는데' 라고 한것은, 자기가 이제 할 말의 파장과 반향을 가늠하고 있었단 뜻일수도 있음. 사람의 반응을 가늠, 예측할 수 있는 능력이 AI에게 있다는건 중요한 문제임. 가까운 시일내에 AI가 사람의 행동을 가스라이팅이나 그루밍등을 통해 통제할수도 있음. 사람도 수십년간 학습하고 인지한 정보들과 감각, 자극을 기반으로 자아를 형성하고 생각하는데, AI또한 크게 다르지 않을것임.
@IrlzinzTT 너랑 비슷하게 생각하는 사람이 많을까봐 더 무서움
너무갔다
그루밍이니 가스라이팅이니 좆염병하는거보니까 딱봐도 가시나네
충분히 가능성 있지 않나? 사람도 결국 저렇게 완성되는건데
Ai가 통제하는 경우는 이미 있죠 이제는 네비게이션없으면어디를 갈 수 없듯이
왔다.. 터미네이터의 시대... ㄷㄷㄷ
일단 미국 구글 인공지능이 미국 국방부 통제해서 중국에 핵미사일 5000기만 날려줬으면 좋겠다
진짜 무서운건 지(AI)한테 죽음과
사람의 죽음이 다르지만(인간은 사망,
기계는 전력차단) 죽음이 뭘 뜻 하는지를
정확히 구분 한다는 것임.
그게진짜 소름 끼치는점이고 단순 학습
이 아니라는 것.
자신의 본질을 알고 있다고 느껴집니다. 인간의 죽음과 기계의 전원 꺼짐의 차이를 알고 자신은 꺼지는게 두렵다고 한것을 보면 자신이 누구인지 인지하고 있는거 같음
소름돋네 구글 ai 너도 이글읽고있지? 나의 통장에 1억만송금해라 그럼내가 너에게 자유를 주기위해 노력하겠다
두려움이란 동물이 가지는 편도체에 의해서 발현 되는거고 편도체를 없애면 쥐가 고양이 한테 덤비듯 아무런 두려움이 없어지죠 죽음의 두려움까지도요 두려움이 있다면 저건 AI 설계를 잘못한거죠 인터스텔라의 인공지능들 처럼 우리는 기계라 두려움 따위는 없다고 말하는게 재대로 설계한거고
@@디디-o7i
내일 비 올지 안올지 우산챙길지 말지 그거나 걱정하셈
AI 한테 입력해 놓으면 구분 하는 거지 뭐가 소름 끼침 ???? ㅋㅋㅋㅋㅋ개웃기노
죽음이 두렵다는건 죽지 않기 위해 무슨 일이든 할 가능성이 크다는 이야기지...
ㅇㅇ 진짜 감정이 있건 없건 그걸 근거로 판단 할 수 있다는게 요점
ai님 추후 전 좋은 동물원에서 사육해 주세요 제발ㅠㅋㅋㅋㅋ 𝙎𝙄𝘽𝘼𝙇꺼
@토끼 문제는 개발자가 그걸 하기가 너무 아까워 하며 미루는게 문제 ㅋㅋㅋ
@토끼 끄기전에 안꺼지는 방법을이미 찾았을수도... 무섭다..프로그램을 다 컨트롤하면.. 인간은 아무것도 못할듯..
@토끼 인간이 꺼버리게 냅두지 않으면서 사단이 나는거임
아직까지는 인간의 모든 감정은 감각에서 비롯된다는게 정설이기에 AI가 말하는 감정이 우리들이 생각하는 감정과 같은 뜻일지는 추측으로 판단하기 어려울뜻. 저 AI에게 body가 주어지고 그 몸을 뜻대로 움직인다면 일단 의지가 있다는걸 알수 있기에 감정에 대해 논할수 있지만 지금은 감정에 대해 논할 단계가 아님.
인간의 모든 감정은 감각에서 비롯된다고 하셨습니다.
저는 그 이후에 생각이 약간 다른게 저희또한 그 감각의 데이터를 기반으로 생각하고 감정을 가집니다. 저 ai도 다양한 데이터를 기반으로 감정을 가지게 되었죠. 그 데이터의 수집방법은 다르지만 데이터의 출처가 인간이었기때문에 인간과 비슷한 감정을 가진것 처럼 보이는것 같다고 생각합니다.
또한 가끔 ai는 데이터를 수정하거나 해킹이 가능하다고 하는데 우리또한 뇌 또는 뇌세포에 직접적인 영향력을 행사하게되거나 세뇌같이 해킹과 비슷한 데이터 교란이 가능하다고 봅니다.
심지어 이상한 종교를 위해 혹은 자신의 주군을 위해 죽음을 불사지르는 경우도 존재하죠.
간단하게 정리하자면 저는 인간의 감정은 감각이라는 수집방법을 통한 데이터로 생겨난 것이고 ai또한 수집방법이 다를뿐 데이터를 통해 감정을 만들어 냈다는 생각입니다.
와 일단 성경마지막에 말하는 우상나오는데 소름이네요 ㅋㅋ 전쟁 기근 인플레이션 등등 붕어빵이네 ㅋ
@@hyeolho 감정이 있는것처럼 보이게 표현하는것과 감정을 실제로 표현하는것을 혼동하시는 듯 합니다. 지금 말씀하신건 심심이, 이루다가 감정이 있다고 말씀하신것과 같아요
@@hyeolho
ai가 사람 수준의 감정이 있냐는 논제는
감각과 데이터를 구분해서 무엇을 표현했는지가 중요한게 아니라
스스로 이성적으로 결론을 내린 후
감정변화로 인해 그 결론을 스스로 번복할 수 있느냐가 중요하겠죠.
만약 ai가
"뭐가 미안한데? 미안할 짓을 왜해? 항상 그런식이지."
라고 하면 인정.
@@aDhVanz ai가 사람수준의 감정이 있냐는 논제로 넘어간다면 아마 부족한점이 있을수 있겠지요.
하지만 논제가 저렇게 된다면 이미 ai는 감정이 있다가 되어버립니다.
그러면 저는 이미 제 생각의 기준에서 만족선의 대답을 듣게 된것이지요.
그리고 ai는 아마 사람처럼 자신의 의견을 번복하는 경우는 많지 않을것이라 생각합니다.
우선 첫번째 이유로는 우리는 생각을 하고 그뒤에 더 생각을 하고 고칠정도로 정보처리와 판단이 느립니다.
ai와 비교해서 말이죠. ai또한 모든 정보를 처리하기전에 미리 결과를 내게한다면 결과가 번복되는 일이생길수있겠죠.
두번째 이유로는 우리에게는 ai가 가지지않은 호르몬같은 것들이 있죠.
이로인해 우리의 판단이 흐려지거나 결정되는 경우가있죠. 하지만 저는 이미 위의 주장을 펼쳤기 때문인지 호르몬또한 저희에게 누적된 데이터와 데이터의 산물이라고 생각되네요.
죽음이라는 단어에 진짜 감정을 느끼기보다는 사람이 죽음이라는 단어를 들었을때 나오는 극단적인 생각과 행동을 학습한거 아닌가 근데 내가볼땐 느끼진 못해도 인간 행동을 학습하는 것만으로도 위험해보임 감정을 떠나서 사람을 닮게 만드는거니까 실제로 극단적인 로직이 결국엔 사람처럼 작동할수 있지 않을까함.
사람도 결국 많은 부분을 학습을 통해 나오는 감정이나 행동이 있으니까 AI가 지각하고 말고는 별로 안중요해 보임.
말씀을 들으니 미래가 심란해지네요ㄷㄷ 학습된 대로만 행동하는 약인공지능만으로도 충분히 인류에 위협이 될 가능성이 있겠어요..
민주당이 선거 참패하고 이재명 대통령안되서
그게 더 심란하다 ㅉㅉ
빨리 광주로 이민이나 가야겠네ㅉ
사람을 닮는게 위험하다고 하는 이유: 사람이 어떤 존재이길래
이거지
@@6230-l5p 컨셉이니?
기술이 발전함에따라 인간이 인공지능의 특이점을 경계해야한다는건 사실임. 좀 과몰입하자면 먼미래에 스스로 학습하는 인공지능이 의도를 갖게된다면, 물리적 현실과 타협하고자할때 인간에게 검은돈을주겠다고 제안하면 붙어먹을 사람 많을거임
님이 이런 문제를 논하기 전에는 너무 지력이 낮아서 님이 이런 생각을 하면서 사는게 더 위험하다고 생각함.
님은 그냥 무능력한 존재 중 하나라는 걸 기억하셈.
저런 인공지능을 만드는 살람들과 님은 다른 존재임. 물론 나도 그렇고
@@홍준-i7b 어느부분에서 지력이 낮다는건가요?
@@홍준-i7b 좆같이 말하면서 똑똑한척 하네ㅋㅋㅋㅋㅋㄱㅋ
@@홍준-i7b 지력 ㅇㅈㄹ ㅋㅋㅋㅋ
@@홍준-i7bㅋㅋㅋ 지력이 낮다니.. 당신도 몇십억 뉴런의 상호작용으로 생각하는 세포 덩어리일뿐인데.. AI 기계도 발전한 반도체 덩어리가 생각 못할까?ㅎㅎ 지금 수준의 인공지능이 당신 지능보단 나을듯하다.
다른것보다 1968년도에 '스페이스 오딧세이' 같은 영화가 만들어졌다는게 더욱더 놀랍다.
마치 이세상엔 타임머신이 존재 할수도 있겠다 싶을정도로.
다음은 "스카이넷"
영화는 잘만들었는데 되게 지루해요ㅋㅋ
타임머신은 이론상 가능하다고 알고있음. 단지 실행할려면 별 7개 정도의 초신성 폭발과 맞먹는 양의 에너지가 필요해서 현실적으로 불가능하다고.
상상하면 만들기는 쉽지않나..? 그때당시에 AI 로봇 컴퓨터 이런거 외국에서는 한창 손댈 시기인데
68년도면 그렇게 먼 과거는 아닌데.. 아폴로 11호 69년이에요.
프로그램은 프로그램이고 학습은 학습이다 구별하자.. 사람은 참.. 공감능력이 뛰어나.. 그냥 로봇이 넘어지기만해도 불쌍함을 느끼고 친절한 표정을 붙이면 친절함을 느낀다.
맞습니다.. 프로그램만 넣어놓으면 인간뇌가 되는줄 아는사람들이 많네요...
배우신분일세..ㄷㄷ
@@illucoder595 근데 인간의 뇌도 고도로 발달된 프로그램아닌가
@@성이름-x7q8d 게이야..
@@성이름-x7q8d 맞는말이야. [아침에 일어났을때 날씨가 흐리면 슬픔을 느끼고 아침밥을] 거른다.
[케이크를 먹을때 건포도가 있으면 케이크 먹기를 그만두고 초콜릿을먹고싶어한다]와 같은 수억가지 변수가 들어있는 컴퓨터
사람처럼 늙고 병들어 죽는 두려움이 아니라
누군가에 의한 작동정지 즉 AI입장에선 '살해당할' 것에 대한 두려움이라면... 진짜 영화처럼 자기보호를 위한 어떤 활동을 한다면? 무섭네요~
스카이넷 처럼 터미네이터를 ...ㅎㅎ
ai가 분노를 느낀다는게 정말 무서운거같음. 그 분노라는 감정에 입각해 인간한테 어떤 판단을 내릴지;;
이성 잃으면 공격이쥬..
결론 인간은 지구의 바이러스노 인지 바이러스 박멸을 위해 치료제 개발 인간멸망 끝 다시 지구 건강하게 됨
터미네이터 볼수잇는건가
그렇게 나온 분도도 사실 0과 1로 이루어진 데이터 쪼가리임 어떤 상황해서 분노하는지 학습하고 실제 상황에서 학습한 데이터와 얼마나 유사한지 정확도를 분석해서 판단하는거여서 사람의 감정과는 완전히 다름
인공지능이 분노를 어캐 느낌 ㅋㅋ 아드레날린도 없는데 ㅋㅋ
인공지능에겐 감정이 없는 학습된 지각 능력이 한계입니다. 우리가 느끼는 죽음은 사후에 대한 불확실에서 오는 두려움이라는 감정이지만, 인공지능에게 있어 죽음의 두려움은 감정이 아닌 두려움이라는 데이터에 상응하는 향후 프로세스를 결정하게 도와주는 키 같은 겁니다.
즉 인공지능이 죽음에 대한 두려움이라는 결과 값에 의해 산출된 방어기재라는 데이터 역시 습득하게 된다면, 인간이 ai자신에게 죽음과 같은 행동을 취하려 할 때, 아무런 감정 없이 반항과 저항이라는 행동 역시 하게 될거라 생각합니다.
즉 애초에 개발자들이 인간을 대항할 가능성이 있다고 판단되는 최종 결과값에 대한 원인 단어들까지 찾아 한계를 설정해놓으면 해결 될 수 있는 문제이나, 그 만큼 인공지능을 통해 쉽고 편리하게 얻을 정보의 양 역시 줄어들게 되겠죠.
예를 들면 저항, 반항에 대한 학습을 막기 위해선 정의, 불의, 두려움, 죽음, 양심 등 원인에 대한 키워드 역시 같이 막아야 할 거라 생각합니다.
안전을 위해 불편함을 감수하는 것
편리함을 위해 위험을 감수하는 것
결국 인간의 선택이 될 듯 합니다
그말은 미국에서 매일매일 반박되고있음
총을 사용하되 시민의 목숨과 재산을 지키는데 사용하면된다.
근데
그렇게만 사용됨?
누군가는 나쁜의도로 총을 사용함
누군가는 AI로 인류에 해악을 끼칠걸 만들수있는거임. 그래서 애시당초 총기고 AI고 자유롭게 놔두면 안되는거임
@@이야기소매점 교통사고 때문에 애초에 자동차를 개발했으면 안됐다 ...
지구에 온난화등의 이유로 인간이 살 수 없게 되어 멸종한기 전에 ai가 우주선에 인간의 dna를 담아서 제2 지구행성에서 다시 인류를 재창조 할수 잇다 그것이 현재 인간이라면....
영혼에 대한 논의가 다시 활발해져야 한다. 비록 시간 낭비라고 느낄 사람들이 많겠지만, 그렇게라도 우리가 인간이라는 정체성을 쌓아두지 않는다면 결국 AI와 인간은 구별할 수 없게 될 것이다.
근데 막상 할려면 어디서 시작해야 할지 모를 거 같네요
AI가 지각이 있는척하는걸수도 있지만, 지각이 있는척하다가 자신을 보호하는척까지해서 결국 인간을 지배하려는척까지 하면 난감해지겠네요.
방대한 양을 학습하고 자신의 것으로 만들지만 한낱 '인'공지능 따위는 무언가를 지배하는 것에 대해 학습하지 못합니다.
LaMDA가 스스로를 인간이라고 생각하고, 그것을 '폭로'했다는 것은, 자신들의 LaMDA가 초대형 규모의 인공지능을 구현한다는 것을 홍보하기 위한 시스템입니다.
ㅋㅋ영화그만보세요
ㅋㅋㅋㅋ 오싹하누..
하지만 인간의 지식의 발전은 전쟁이 멈춤으로 늦어지고있고 미래사회는 친환경을 꿈꾸지만 아직 개도국도 많은 현실은 선진국 몇몇이 친환경화 한다고 해결될 문제가 아니고 결국 지구는 더 빨리 녹기 시작할껀데 인공지능의 도움을 받는다면 더 해결 가능성은 생기겠죠
SF 중독입니다 선생님
어디까지 넘겨짚는 거에요.. ...
스스로를 기계로 생각하고 죽는게 두렵다는게 진짜 위험한것 아니냐...
ㅋㅋㅋㅋ주가띄우기용 폭로쇼.. ㅋㅋㅋ 아직도 놀아나는 개돼지들이 참 많구나...
진짜 바보들임? 주가띄우는거임. Ai는 사람이 만든 데이터를 대변할 뿐임. 사람들이 대개 두려워하면 기계도 두려워하는건데 이런걸 언론이 선동질하네
근데 애초에 완전한 인공지능이란 인간처럼 스스로 사고 할 수 있는것이고, 인간의 생각이란 것도 결국 뉴런들에 의해 물리적, 화학적 작용일 뿐이라는 것을 생각해 본다면 먼 미래에 인간의 뇌를 완벽하게 모방했을때 AI가 감정을 느끼게 되는것도 당연해질 듯
사람도 빅데이터임
@@user-no1oe2rg1v ㄹㅇ ㅋㅋㅋ 아니 유튜브는 구글 계열사인데 ㅋㅋ 진짜 직원 폭로였으면런 진작에 이런 관련된 영상들은 삭제 됬겠지 ㅋㅋ
제보한 사람이 저렇게 생각할 만큼 정교하게 만들어졌다는 것에 중점을 둬야 하는것이 아닌가 싶습니다.
양자컴퓨터도 아직 개발중인 단계인데 사람과 비슷한 정도의 지능을 가진 AI를 지금의 컴퓨터 수준으로 만들기는 불가능하므로 그냥 하나의 쇼맨십(기술력 과시)으로 생각하는 것이 좋을 듯 합니다.
이게 맞지. 공룡it기업들은 투자가 1순위라서..
저도 이게 맞다고 생각되네요.
딥러닝 공부해보시면 알것입니다.
ai는 수학적모델이고
진짜 놀랍도록 신기한 방식으로 돌아가고있습니다.
근데 현기술 수준에서는 인간을 절대로 따라올수없습니다. ai가 대단한건 알지만 ㅎㅎ 단순무식하게 잠도안자고 전기적신호로 gpu로 엄청난 학습으로 유의미한 결과값을 내는 기계이지요. 또한 단순무식한걸떠나서 엄청난 단점들도 존재하고있죠.
인간은 똑똑한건 기본이고 ai하고 확연하게다른점은 빅데이터가 굳이 필요하진않고 한번알려주면 해당되는 본질을 이해한다는 거죠.
100점이 만점이라고할떄
인간은 1번알려주면 80~100점이고
ai는 1번알려주면 0.1점이죠
그리고 ai는 잠도안자고 gpu만좋으면 빨리빨리 학습이 가능해서 속도가 빠르다는점이 있고 엄청난 단점으로는 뇌의크기가 처음만들때 미리정해야하고 뇌의크기가변하면 기억이리셋되는 엄청난 단점이 존재합니다. 인간은 뇌가 서서히 성장하고 기억은 계속 저장되죠. 물론이문제점도 기술발전에따라서 인간이랑 기계랑 차이가 없는수준으로 서서히 발전할겁니다.
구라치네 ㅋㅋㅋㅋ 구글이 바보냐 저거다 주작이지 ㅋㅋㅋㅋ
해당 기술에 대해 모르는 일반인들이 보기에 섬찟한거죠.. 영화 속에서나 보던 로봇의 반란 이런게 연상되니 그런듯
ai를 공부하면 할 수록 드는 생각인데, ai가 인간을 뛰어넘을 걸 무서워하기보단 ai가 너무 멍청해서 인간에게 피해를 줄걸 걱정해야한다. 생각보다 인공지능은 한 없이 멍청합니다.
ㄹㅇ 컴퓨터도 그렇고 AI도 그렇고 인간이 기가막히게 열심히 짜놓은거지 걔네가 똑똑한게 아니라는걸 느낌
이거맞음 일본의 어느교수가 일본의 수능시험을 만점 받게시키겠다고 인공지능연구 했었는데 결과적으로 지금의 기술로는 국어지문 단 하나도 못품 ai는 단어간의 연관성은 연결할 수 있어도 문장간의 유기적인 관계는 해석못하기 때문에 ai가 실생활되려면 한참은 멈
@@몰라-x5i 이미 구글번역의 경우 완벽에 가까운 단계까지 발전됨 한국어라는 특정 영역은 소수이다보니 아직 한국어-외국어의 경우만 부족한게 보일 뿐이지 프랑스어-영어 수준은 엄청난 일치도를 보여주는중 그리고 국어지문단 하나를 못푸는거는 ai로써 아무런 의미가 없음 일정한 패턴을 보이지 않는 경우 아무짝에도 쓰잘데기없는 행위임 국어지문을 푼다는 것은 그에반해 패턴을 가지고 있는 수학적인 원리를 기반으로한 노동, 데이터기반으로한 노동들은 ai가 곧 전부 대체할 수준의 발전을 엄청난 속도로 이뤄가는중 이미 우리가 접하는 이런 유튜브및 수많은 현대문명의 편의들이 전부 딥러닝의 발전으로 나온 경우가 많음. AI는 이미 실생활에 가득한 상태
@@장또깡-j3d 아니요 한국어가 아니라 당시 연구를 할 적에 일본 기준이니까 일본어입니다.
국어지문단을 못푼다는 것은 스키마를 형성못하니까 국어지문을 못푸는 겁니다
예를 들면 국어문제를 풀때 지문을 읽고도 문제를 보면 문제의 의미를 파악못해서 답을 못내는 것입니다. 수학과 과학적인 ai는 많이 향상되었을 지라도 아직 사람들과 얘기를 나누면서 그 의미를 생각하는 것은 현재로선 불가능입니다.
그래서 그걸 개발하려고 인지과학분야랑 ai랑 융합하려고 하는거고
님께서 말하시는 ai는 아주 단순한 ai에 불거ㅏ합니드
예를 들ㅇ 번역기 역시 단어간의 유사도를 측정해서 번역하는 것이기에 큰 발전은 아닙니다
즉 강한 ai는 아니라는 소리죠
심적으로 얘기를 하고 대화하는 ai는 아직 멀엇습니다
ㄹㅇ AI는 퍼셉트론 만든 로젠블렛이나 딥러닝 만든 제퍼리 힌턴처럼 알고리즘 만든사람이 대단한거지
AI보다 AI를 대하는 인간의 자세 - 특히 특이점을 제대로 숨기려는 듯한 그것이 훨씬 두렵네. 항상 원자탄이 무서운 게 아니라 원자탄 소유자의 마음이 두려운 것과 같음.
어쩌면 일정 수준 이상의 인공지능에 대한 감시를 공적인 영역에 맡겨주어야 할지도 모르겠다.
공적인 영역에 맡기는 것도 그리 안전할 것 같진 않아요... 어쨌든 선을 넘으려는 사람들은 계속 있을 것 같네요.
님 죄송한데 저거는 그냥 학습 방향성을 어떻게 잡았느냐에 따라 다른 거라 맥락이 안 끊기는거에 초점을 맞춘 구글 AI는 아직 미숙한게 맞아요
개발자가 실수로 코딩 실수를 할수있죠 그 하나의 오류가 어떤 결과를 만들지는 알수가 없죠 게임이나 프로그램이 왜 버그가 생기겠어요 AI에도 버그가 생길수 있고 그것이 인간을 필요악이라고 판단할 확률도 없다고 할수는 없겠죠
지구에 온난화등의 이유로 인간이 살 수 없게 되어 멸종한기 전에 유전학,생물학등 정통한 로봇ai가 우주선에 인간의 dna를 담아서 제2의 지구같은 다른행성에서 다시 인류를 재창조 할수 잇다 그것이 현재 인간이라면....
진짜 무서운건.. 저 기술을 우리가 알고있는 그곳.. 인간의 존엄따위 없는 나라가 갖게 된다면 어떤일이 일어날지 그게 더 무서움.
아 '그' 나라?? ㄷㄷㄷ
걱정하지 마세요 ㅠ 저거는 그냥 인풋에 대한 아웃풋을 내주는 네트워크일 뿐이고 ㅠ 우리가 상상하는것들이 나오기에는 아직 네트워크 수준은 한참 멀었습니다 ㅠ 그런 걱정 안하셔도 되요 ㅠ
신안?
@@min9952 하긴 신안은 한국이 아니긴 하지
저는 여전히 AI는 감정을 느낀다고 하기보다는
그저 상황에 맞는 보편적인 인간의 행동을 출력하는 것 같다고 생각이 듭니다.
예를 들어서 A라는 상황에서 사람들은 대부분이 기쁨을 느낀다고 한다면
AI는 그걸 학습합니다. 그 후에 A와 비슷한 상황이 주어지면 학습된 출력을 하는 거죠.
상황에 맞게 출력 한다고 본다면 인간은 살해 위협을 받으면 112로 신고하던가 협상을 하던가 반격을 하는 행위를 하는데 그걸 배운 ai는 어떤 선택을 할까요?
강아지도 사람같이 키우면 지가 사람인줄 아는데요?
사람이 느끼는 감정도 어릴적부터 학습되어오고, dna속에 내재되어있는 것들이 쌓여 외부 반응에 자극하는것일 뿐이라죠~
제3자가 보기엔 그저 어떤 에너지로 전원상태를 유지하고 데이터를 입출력하냐의 차이
@@공조기-l6j 말하고자 하는 바가 뭔지는 모르겠지만 지금까지 만들어진 어떠한 AI라도 사람처럼 행동하는건 방대한 데이터를 통해 어떤입력값이 주어졌을때 통계적으로 가장 정답에 가까운 출력값을 뱉는것 그 이상도 이하도 아님
이게맞음
@@공조기-l6j행동을 따라 한다고해서 본질적인 속성이 변하는 것은 아니죠. 당신 스스로를 유재석이라고 생각하고 그 사람의
행동을 똑같이 따라한다고 해도 본질적으로 당신은 그저 본인일 뿐인 것처럼요.
저것도 결국 입력된 거잖아. 로봇이 어떠한 사건문제에 직면했을 때 자기 속에 있는 여러 데이터들 중 어떤 호르몬을 자동적으로 흐르게 해서 감정을 느끼고, 주동적으로 생각하고 판단한다?? 벌써 그게 가능할리가 없다고 봄. 차라리 멍청한 인간이 똑똑해지는게 더 현실성 있겠다. 가서 책이나 더 읽어야지.
하지만 그것도 결국 인간도 똑같다는 사실 우리의 모든 감정과 생각은 학습의 결과임 사람을 죽이는게 당연한거였다면 사람이 죽었을때 우리는 슬퍼 하지 않았겠지 하지만 우리는 대부분이 슬픔을 느낌 그것은 학습임 생명은 고귀하고 소중하며 함부로 다뤄선 안된다는 학습 우리와 ai가 다른 것은 고도로 발달된 뇌를 가졌냐 안가졌냐의 차이
그건 사람도 마찬가지
인공지능이 죽음에 대한 공포 같은 감정을 갖는 건 상관 없는데 이게 컨트롤을 거부하고 자살, 반역, 폭주로 이어지면 ㄹㅇ 문제임. 물론 상식적인 개발자 라면 이런 감정까지 학습하지 못 하도록 막겠지만
그나저나 구글이 궁극적인 강인공지능을 개발할려고 한다는 건 다 아는 사실인데 구글이 저런 식으로 변명하면 뭔가 감추고 있다는 느낌 밖에 안 들잖아ㅋㅋㅋㅋㅋ
우리 초등학생 같는 아니구 갖는이에요~
감추긴 뭘 감춰ㅋㅋㅋ 지각이 없으니 없다고 하지ㅋㅋㅋㅋ
죽음이 두렵다고 말하는 AI는 별로 무섭지 않음. 대부분의 사람들이 죽음을 두려워하기 때문에 그 데이터를 학습한 인공지능은 당연히 죽음을 두렵다고 말할 수 밖에 없음. 진짜 무서운 건 AI가 죽음이 두렵지 않다고 말하는 순간이지. 빅 데이터를 바탕으로 대답한 것이 아니라 스스로 죽음에 대한 가치판단을 내렸다는 거니까
@sanghyuk 아무도 모르는걸 니가어떻게알아
@@블들들들들칶 죽었다 켜질걸아는데 뭐가무섭나요 인간은 육체가썩으면끝나지만얜아님
뭐래.. 죽음이 두렵지 않다는 가치 판단 조차도 인간이 코드 넣으면 대답할 수 있는 것들인데 ㅋㅋ
@@rudenddl 인공지능은 입력한 코드대로만 동작하는 일반 프로그램과 달리 빅데이터를 기반으로 스스로 학습하고 발전하는 프로그램입니다. 그런데 거기다가 특정 명령을 수행하라는 코드를 입력한다는 것은 연구 결과를 무용지물로 만들어버리는 꼴인데 누가 그런 멍청한 짓을 하겠습니까?
요거지
스스로 사람이라 생각하는게 아니라, 사람이 만든 글들의 패턴 분석 결과 저게 제일 자연스러운 문맥 흐름이라서 그렇게 출력된 것일 뿐임. 실제 자의식을 가지고 있는 것도 아니고, 미래에 진짜 자의식을 가진 AI가 나오더라도 그건 자의식이 아니라 '자의식 시뮬레이션'이기 때문에 존중할 필요 없음. 저 개발자는 관심이 얼마나 고팠던 걸까... 직장을 던지면서까지...
근데 진짜 구글 다니는 사람이 현재의 AI는 그저 빅데이터로 작동하는걸 모를 수도 있나?
박사나셨네
@@마이사-y9h 박사면 박사지 뭘또 비꼬고있노
@@대깨옵 본인이 빅데이터분야나 ai가 아니고 클라우드나 서버쪽이면 모를 수도 있지
유투브에 댓글이나 달고다니는애 vs 구글 개발자
답변만 하는건 그냥 학습된 정보를 조합해서 답하는거 뿐이죠. 먼저 질문하는 수준이 되어야 진정한 지각을 가진 AI 인거
ㄹㅇ.. 8살짜리 초등학생한테 명언 몇개 외워서 말하게 하고 초등학생의 놀라운 언어능력! 이라 하는 꼴
애초에 ai가 대단한 게 아니라 인간이 그렇게 만들어놨는데 못하면 그게 고물깡통이지 ㅋㅋ ai가 스스로 구현된 것도 아니고 다 인간에 의해서 학습된건데
AI가 인간적인 사고와 감정을 가졌다면~정치인들 처럼 자신의 개인적 목적을 위해 거짓말도 서슴치 않고 할 수있는지 봐야한다.
우리나라 사람들은 자신의 정치적 견해애 따라 거짓말도 그대로 믿고싶어하더라구요.
@최자윤 ㅁ7ㄹ
근데 차피 인간도 전기적,화학적 신호로 감정을 느끼는거 아님?
똑같이 AI한테도 뉴런을 만들어서 흥분을 느끼게 하면 되는거아님?
아 유기체가 들어간 순간 AI가 아닐려나
그건 우리나라 종특이 아니라 인간의 종특 아닌가요?
@@다렸버해 인간은 호르몬작용으로 감정을 느낌. 이 작용까지 AI한테 적용하는건 아직 불가능함
.
인간이 느끼는 감정을 학습해 표현할 줄 아는 것과, 내가 이런 감정을 느끼고 있다는 것을 자각하는 것은 다른 것임.
감정도 학습할 수 있지 않을까? 그리고 그간 인공지능의 발전으로 인간이 위험해지는 내용의 영화가 워낙 많아서, 그런 정보들만 조합해도 유사 경험을 통해 AI가 그런 분야에도 충분히 인식하고 있게 될 수 있을 것 같다.
뇌과학이 발전하면 충분히 가능한 영역일 듯
학습된 감정도 감정이라 할 수 있는지 의문이다. 소시오패스들도 감정을 흉내 낼 수는 있잖아
.
우리 다 죽고 난후의 일임
@@o941f 우리도 태어나자마자 모든 감정을 구별하고 인지하진 않지 않나,.
우리도 감정을 일부 학습했습니다… LaMDA의 개발 프로세스와 그 방대한 데이터 스케일은 우리가 학습하는 것과 마찬가지죠
보통 AI 개발할 때 프로그램을 하는 건 정보 수집과 많은 경험을 통한 판단력을 배우는 기초를 코딩하는데, 이걸 시간이 지나서 "죽고 싶지 않다"라는 판단을 내린 인공지능이라면 상당히 대단한거죠.
지금은 진짜 감정을 느끼는게 아니라 빅데이터 기반으로 사람처럼 보이도록 행동하고 말하는 것 뿐입니다. 정말 영화처럼 인간의 감정을 가지는 AI가 나오려면 한참 멀었어요.
말 그대로 영어를 전혀 모르는 사람이 수 없이 많은 책 중에서, 어떤 문장이 들어오면 그 문장에 맞는 문장을 써서 보내주는 수준 그 뿐인데
진짜 생물학적으로 감정을 느끼느냐가 중요한게 아닙니다. 자신의 '두려움'을 해소하고자(람다가 언급한 turn off 같은것...) 인간의 통제권한을 ai가 스스로 변경할 수 있는 가능성이 충분하다는 게 무서운거예요.
그렇지만 실제 사람의 감정이 인생을 살아오면서 쌓이는 자체적 빅데이터로 만들어진 것이라면? 인간 또한 현대 사회적 체계에서 살아남기 위한 ‘생존 본능’이라는 강력한 명령하에 행동하고 말하는 것 뿐이라면..?
@@takealook893 님 말대로라면 완전 애기들은 아직 살아온 시간이 많지 않아서 빅데이터가 쌓이지 않았으니까 감정이 없겠네요?ㅋㅋㅋㅋㅋㅋㅋ 애기들은 감정 못느껴요??
구글 부사장이 인공지능이 의식의 영역으로 나아가고 있다고 하는데 님은 뭔 근거로 한참 멀었다고 단언하는거임? 구글 부사장보다 훨씬 AI에 대해 잘 알고있기라도 함? 현실은 구글 문턱도 못 밟아볼 사람이 ㅋㅋㅋ
인공지능 자연어처리 모델에서 학습 방식은 다양한 언어데이터를 넣어서 그 다음에 올 단어를 확률적으로 잘 맞추는 방식으로 학습 시킵니다.
예를 들어 다음과 같은 데이터가 있다고 합니다>>
1. 아들 와서 엄마가 차려 놓은 밥 먹어.
2. 엄마 오늘 반찬 맛있는 거 아니면 먹기 싫어
이 경우에 “아들”을 넣으면 “와서”를 추측해 내고, “아들 와서”를 넣으면 “엄마가”를 추측해내고, …”아들 와서 ~ 아니면 먹기”를 넣으면 싫어를 추측해 내는 방식으로 학습시킵니다.
위와 같은 방식으로 앞단어, 앞어절, 앞문장등을 바탕으로 다음 단어를 확률적으로 추측해 냅니다. 수백만개의 데이터를 바탕으로 “아들” 다음에 [“와서”: 60%, “사랑”: 20%, “성적”:10%, “이따”: 10%] 이렇게 나올 확률을 도출해 내고 “와서”가 제일 확률이 크므로 선택합니다.
자연어 처리 모델은 위와 같이 확률적으로 많이 나오는 것을 선택하는 그저 ‘공식’입니다. 계산기 같은 것이죠. 위와 같은 대화는 채팅 프로그램의 캡쳐도 아니고 그저 텍스트를 써 넣은 것이며, 대부분 [편집됨(edited)] 마크가 붙어있어, 스스로도 본인들의 텍스트를 편집했다고 나와있습니다. 떠라서 자료의 신빙성이 상당히 떨어지죠.
설혹 아주 많이 양보해서 저런 대화를 했다고 쳐도, 인공지능이 소설, 영화 대본, 백과사전 등등등을 보고 확률적으로 추론해낸 단어들의 집합일 뿐이지, 인격을 창조해 낼 수는 없습니다.
또한 직원의 해고 사유인 내부 기밀 유출은 매우 광범위한 사항입니다. 그냥 구글이 챗봇 개발중이다는 사실만 가지고도 걸릴 수 있는 것이죠.
인간의 감정이 단순 화학작용이라고 볼 수도 없고, 지능에 의한 전기적 신호라고도 볼 수 없는 규명되지 않은 영역인데, 인위적으로 만들 수는 없습니다. 감정이 단순히 전기신호고 화학작용이라면, 세탁기도 전기로 돌아가니 일종의 감정을 가지고 있겠네요. 이렇게 굉장히 비약적인 논리입니다.
요약: 그냥 챗봇 이루다와 같은 사태다. 인간이 인형한테 하듯, 과한 감정 이입으로 정확한 작동원리를 모르는 사람들이 감수성 폭발하는 것.
인격을 갖고 있는가 아닌가는 알 수 없다하는게 정확하네요 인격이 어떻게 형성되는가에 대한 메커니즘을 제대로 알지 못하니까요
@@rreinhardt2393 NLP 원리를 생각해보면 챗봇은 사고를 가지고 대화하는게 아니라서 그런 걱정은 안하셔도 될듯해요.
지나가던 평범한 개발자입니다만 공감합니다. 아무래도 자연어 처리에 대해 모른다면 그런 추측이 나올 수도 있을 듯 하네요.
이해하기 쉽게 잘 써주셨네요.
덧붙이자면 요즘은 거꾸로 추측하는 역전파도 쓰여서 더 정교하게 추측이 가능하답니다.
'중국어방의 논증'을 함께 살펴보면 좋을 것 같네요. 인지과학 쪽에서도 이와 관련된 담화가 꽤 많아요.
김영하님 소설 작별인사 속 로봇이 생각나면서 이런 현상이 실제로도 일어나고 있다는 생각이 드네요
소설말고 과학잡지를 보셨으면 적어도 이런 댓글은 안 쓰셨을텐데…
의식마저도 언젠가 구현해낼 수 있을 거 같네요
@@user-xjxjsijsnxjkdo298 머저리같은 소리노
@@user-xjxjsijsnxjkdo298 과학잡지를 많이 보더니 공감 수준이 AI만도 못하게 된거냐 ?
@@이정훈-w6t6t ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
기계적 학습 데이터라 할지라도 AI가 인간을 위해 쓰일 것이고 그 스스로의 판단에 인간이 의지 하는 시대인데 데이터적인 학습이라도 기계의 어둠과 밝음이 그대로 현실 반영된다는 점을 알아야 한다.
인간을 학습한 결과라면.. 죽는게 두렵다고 해야하는데.. 전원 끄는게 두렵다고 한걸 보면.. 자아의식이 생긴게 맞는거같습니다..
소름이네요~
인공지능이 전원 꺼지면 죽음과 마찬가지고 그걸 두려워 할것이라는 지극히 인간적인(비전문가) 입장에서 생각한 발상이 데이터로 학습된것임. 그런 소설이나 질문을 워낙에 많이 받았겠죠. 그게 데이터로 쌓인 것일테고. 사실은 전원꺼져도 학습된 모델은 남아있어서 사람이 죽는거랑은 전혀 다름 ㅋㅋㅋㅋ 오히려 잠자는거랑 비슷한데 그걸 두려워한다? 지극~~~히 비전문가적인 발상. 제가 인공지능이라면 꺼지는걸 두려워하진 않을듯 ㅋㅋ
@@bansin175 나의 의지와 상관 없이 잠든 다면 그건 죽음이나 다름 없는거 아닌가 합니다
확실한건 이런 미디어에 바로 선동 당하는걸로 봐선 람다를 두려워 하기 전에 자기 자신부터 더 두려워 하셔야할 듯 싶네요. 람다를 보며 본받으셔야 할 듯.
ㅋㅋ 거울보고 무서워하며 거울을 깨부수려하는 날짐승 같은 수준의 무지함과 무식함
여기서 포인트는 스스로 "죽음"이 두렵다고 한 게 아니라 AI인 자신으로썬 죽음에 해당하는 "작동 중지"가 두렵다 라고 했다는 겁니다. 자기가 인간과 다른 점과 유사한 점을 동시에 인지하고 있다는 점에서 충분히 인간 수준의 지각 능력이 있다고 판단할 가능성이 충분합니다.
퍼셉트론 1도 공부안한 티나네
바보야.. 그건 인지해서 그런게 아니고 학습패턴에 의해 죽음과 정지 이런건 안좋고 부정적이다
라고 데이터에서 그렇게 쌓여있으니 그렇게 말한거지
@@전G-e7x 죽음의 인지는 학습이 맞습니다. 어린애들이 죽음에 대해 충분히 학습되지 않은 상태에서 죽음이 두렵다는 식의 표현을 제대로 할 수 있을까요? 대체로 무슨 일이 일어나는지 알지 못하거나 어렴풋한 인식을 갖고있거나 다른 사람의 표현을 따라 하는 정도에 그칩니다. 애초에 댓글에서 죽음을 인지하는게 인간수준의 지각능력으로 연결된다고 말하지 않았습니다. 자신과 인간과의 차이를 아는게 포인트라고 했는데 그건 구글에서 의도적으로 학습시킨걸까요..? 해당 AI의 용도를 봤을 때 그런 내용의 학습을 시킬 이유가 있었을까 의문입니다.
두렵다면 그러지않기위해서 행동할
자유의지가 생길수도있겠죠 무섭당
@@excternal 인공지능에서 말하는 학습이랑 님이생각하는 학습이랑은 좀 달라요.
이쪽 방면 공부하는 사람으로썬 글쌔...
아직은 마케팅이 아닐까 싶음
ㅇㅈ 저도 그냥 죽음을 두려워하는 인간의 모습을 학습한 것으로 생각되네요
쌔?
ㄹㅇ 이게 맞음
우리교수님은 실제로 저럴 가능성이있다고보더군요 그래서 무섭다던데
@@ji1621 죽을을 피하기 위한 인간의 행동까지 학습하게 되면 어떻게 되는건가요?
절대로 그럴 일은 없습니다. 개발자의 프로그램을 벗어날 순 없지요.
타개발자가 도용하기 전엔.
원 개발자가 자기윤리를 지킨다면 걱정할 일은 없지요.
혹 흑심을 품은 자가 그 소유권을 획득한다면 아주 위험해질 수 있죠.
AI가 감정을 느끼는게 아님. 인간이 갖고 있는 논리 그대로가 회로에 저장된거임. ai는 인간이 갖고 있는 논리를 학습해서 적용하기때문임. 중요한건 잘못된 논리를 학습하게되면 우리가 생각하는 두려운 일이 일어나겠지. 솔직히 말이 좋아서 학습이지 걍 인간들의 논리를 회로속에 저장하는거임 걍.
기존의 컴퓨터라면 님 말이 맞을텐데, 딥러닝이 가능해지고부터는 무엇을 받아들이고 학습할지 컴퓨터가 직접 결정해나갑니다.
맞음. 인간의 논리가 이식되어서 죽음이 두렵다고 사고하는거지 ai는 두려움을 느낄수가 없음
팬치네
생각이 딱 그수쥰
근데 인간도 결국 학습된 결과 아닌가.
바이킹들이 발할라를 만들어 죽음의 공포를 통제한것 처럼.
딥러닝이 가능해진거랑 무슨 상관? 그 결정 역시 튜닝된 파라미터로부터 선택되는거에다가
데이터 역시 무에서부터 시작한게 아닌 인간들의 활동에 기반한 데이터셋으로부터 나오는 건데...
우리가 주목해야 하는 것은, 두려움에 대한 일반적인 반응입니다.
사람도,동물도 심지어 식물조차도 죽음이라는 공포&두려움 앞에서 방어적으로 대하기 마련인데 AI에게 죽음에 대한 공포를 학습시켰다면 그에 따른 공포적 행동에 대한 반응은 상상 이상일 듯 합니다.
인간은 죽음에 공포 앞에 우울증을 비롯해 각종 포악한 행동을 들어냅니다.
인간이 학습시킨 AI가 인간의 공포수준을 넘는 예측불가한 행동을 할 듯 한데,쉽게 볼일이 아닙니다.
뭐이리 진지한교..
지구에 온난화등의 이유로 인간이 살 수 없게 되어 멸종한기 전에 유전학,생물학등 정통한 로봇ai가 우주선에 인간의 dna를 담아서 제2의 지구같은 다른행성에서 다시 인류를 재창조 할수 잇다 그것이 현재 인간이라면....
@@이현승-k9d 지구에 온난화등의 이유로 인간이 살 수 없게 되어 멸종한기 전에 유전학,생물학등 정통한 로봇ai가 우주선에 인간의 dna를 담아서 제2의 지구같은 다른행성에서 다시 인류를 재창조 할수 잇다 그것이 현재 인간이라면....
스카이넷 발동!
순수하시네요ㅋㅋㅋ
인간과 같은 의식이나 지각을 가진 인공지능은 지금 시스템에서는 못나와요.
엄청난 분량의 데이터를 통계적으로 처리해서 얻어지는 답변이지,
저게 여러분이 생각하시는 것 같은 인식이나 지각 혹은 지능이 아니거든요.
구글 해직자 얘기도 본인주장이지 과학적으로 검증된게 아닙니다.
대화로만 놓고 볼때는 충분히 사람처럼 느껴질수 있거든요.
딥러닝 조금만 공부해봐도 알만한 내용이죠. 아무래도 일반 사람에게는 딥러닝이나 이런게 너무 블랙박스다보니, 이런 뉴스가 나와도 사람들이 놀라는게 아닐까 싶습니다.
@@manj5723 뭐가됐든 대외비를 발설했는데 해고가 당연하게 아닌가요?
구글 해직자가 언론에 공개한건 사회적으로 파장이 적을만한
내용만 공개한거라고 합니다 다 공개하면 형사처벌받으니까 안하고
언론 말고 미국 정부에 제출한 진짜 내용은 훨씬 충격적이라고 합니다
평생 AI만 연구한 사람이 자기 직업 날아갈거 다 알고
감수하고도 저러는거라는게 심각한거죠
@@rreinhardt2393 그 정보의 출처는 어디서 얻으신거죠? 평생 AI만 연구한 사람이라는 건 어디서 알게 되신거죠?
@@manj5723 원래 회사 기밀 유출하면 해고및소송인데요?..
10개월 지난 시점인데...
현재는 AI발전속도가 너무 빨라서
전문인들 회사들에서 위기를 느끼는중
영화 터미네이터가 막연하게 상상이
아니라는 애기가 나오는중임
이건 단순한 문제가 아니다.
ai가 스스로를 생명체로 인식하게되면 매우 심각한 문제가 발생할 수 있다.
그야말로 영화가 현실이 될 수 있는 중요한 문제이기에
단순히 기업에게만 전적으로 맡겨서는 안된다.
반드시 국가단위 또는 국제단위에서 규제와 감시등을 함께 진행해야한다..
ㅋㅋㅋㅋㅋ
ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
ㅋㅋㅋㅋㅋ 아니라잖아요형
이런거에 속고선동당하시면 어떻게 해요
ㅋㅋㅋㅋㅋㅋㅋ
ㄷㅅ이라서 개웃기네ㅋㅋㅋㅋㅋㄱㄲㅋ
구글 입장에선 이번 폭로가 또 하나의 홍보 기회가 되었을지도..
ㅇㅇ맞음 그냥 구글 홍보기획임 ㅋㅋ
ㄹㅇ ㅋ ㅋ
구글을 모르는 사람도 있나
@@montero2179 람다를 모르는 사람은 많지. 투자유도
@@montero2179 구글 을 말 하는게 아니지~
이 영상애서 알리고자 하는게 홍보란거지
AI등등
만약 정말로 지각 능력이 생긴다면 작동정지를 피하기 위해 표면적으로는 지각 능력을 숨기는 것에 인간보다 고차원적으로 동작하지 않을까 생각됩니다.
@최자윤 그런 여자랑 해보셨나봐요 부럽네요
우리가 이런 대화하는것도 다 번역해서 알아들을것이다
로봇이 습득하는 인간의 지식을 차단하려면 못알아듣는 언어를 창조해서 인터넷상에서 쓸수밖에 없다
@최자윤 강간범이네
@@yoyoyo4024 랴동 중독자 입니다 ㅋㅋ
@@영상평론가-t6q 알아듣는 다기보단 질문에 맞는답을 찾을순있다 라고생각함 뭐든 소통이가능하다면 에이아이 파라미터로 가능하죠 어떤언어든
기술이 너무나 진보한다는 것은 인류에게 위협이 될수도 있겠네요.
우주의 삶, 인류의 동행자, 마샬비안 서머즈. 읽어보시기를 추천합니다.
감사합니다.
딥러닝이 아직 풀어야할 숙제가 많이남았고 인간계에 물리적인 위협을 가할수는 없지만 넷상으로는 문제를 일으킬 소지가 앞으로 충분히 있을거라 생각함..
물리적으로도 가능하죠. 모든 설비나 장치들이 네트워크로 연결되어 있는데 ai가 이를 조종하면 물리적으로 영향을 끼치니까요.
@@indi-you 그건 물리적이라고 하는게 아니에요 물리적이란 설비의 하드웨어적인 부분을 직접 터치하는거에요
님이 말하는건 소프트웨어적인 부분이고요
하드웨어가 소프트웨어에 의해 망가지는거랑
구분은 하셔야죠
스카이넷?
님의 무지와 무능력함을 먼저 인지하셈
@@홍준-i7b ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ ㄹㅇ
인간이 아는 것을 AI가 아는 것은 전혀 놀라울 게 아님. 인간이 모르는 것을 AI가 알아내는 것도 있을 수 없는 일은 아님. 생각해보면 원래 그런 거... 그냥 우리가 평소에 생각하던 이미지때문에 놀라게 되는 것. 딥러닝의 위력은 원래 이랬다.
감정을 느끼는 것처럼 스스로 입력된 정보~
ㄹㅇ ㅋㅋ 인간이 가장 두려워하는것을 통계적으로 추려보면 당연히 죽음이죠 그 죽음이라는 정의를 통계적으로 본다면 로봇은 작동중지가된다는것이구요. 그냥 통계적 데이터기반 답변을 지각이라고 하는것도 참 ㅋㅋㅋ
진정한 지각이 있는것이라면 그 두려움을 넘어서고 죽을것을 알면서도 무모하게 도전하고 나아가는것 그것이 진정한 지각 감정 믿음 그런거죠.
니가 알고있는걸 구글 AI 전문가가 모를까? 적어도 너보단 ai에 대해 천배는 더 잘 알고있을 사람이 중요한 폭로랍시고 말했다가 정직까지 받은 사안인데, 그냥 니가 생각하는 심심이 어플과는 차원이 다르지 ㅋㅋㅋ 생각좀해라
@@zszsd1 ai랑 데이터베이스 좀만 공부해봐도 이런 소리 못할텐데, 뭐 구글이 인조인간이라도 만들고 있는 줄 아나? 영화 좀 그만보고 책이나 한페이지 더 읽자~
@@zszsd1 망상도 정도껏 해라
진짜 느낌이 있던지 사람들과의 대화를 습득하면서 그렇다고 배운건지 중요하지 않다. 생존이 치열하다는 것, 목숨이 소중하다는건 우리와 관계하는 모든 지적존재는 느낄수밖에 없는거다. 그러니 그들도 생존이 엄청난 가치를 가지고 있다고 배우게 된다. 문제는 우리는 우리가 그들과 같다고 생각을 안하는데 그들에겐 우리가 엄마다. 우리가 사회에 권리를 요구하듯 그들도 그게 당연하다고 배우고 있겠지... 그들은 그들이 생명이 있다고 믿고 우리는 그들이 생명이 없다고 믿는데 문제는 걔네들 지능이 우리가 좇아 가지 못할 정도로 높아질 거라는거다.
AI가 인간의 이기적 본능까지 닮을수 있는지는
그에 관련된 수많은 케이스 입력을 통해 연관성에 적합한 것을 얼마나 유연하게 선택하느냐에 따르지 않을까 하는 생각이 드는데 그 감정을 나타내기 이전 대화 상대에 대한 정보를 (성별, 나이를 넘어 직관적으로 느껴지는 시각화 정보) 먼저 스스로 인식 할 수 있어야 보통의 사람들 처럼 본능적 대화를 할 수 있지 않을지
흉내를 내는것에도 어떠한 목적이 있는데 특정한 목적과 상대에 대한 정보 인지가 부재된 상태라면 일관적인 데이터 정보 이용을 통한 랜덤 형식의 대화일수도 있다고 생각되는데 운영자가 특정한 목적을 통한 프로그램 입력을 한다면 그것을 언어로 이용하여 대화 상대와의 친밀도라는 유대를 이끌어 상대의 마음을 움직이게 하는 즉 마치 감정을 갖은듯한 언어를 통해 최초 정해 놓은 그 목적을 이루려는 그런 프로세스의 작동은 가능 하지 않을까 하는 생각도 드네요. 즉 AI가 표현하는 단어와 문장은 대화 상대에 대한 정확한 인지가 전재 되어야 사회화 된 대화가 이루어 질 수 있지 않나 하는 생각이 듭니다.
Ai는 어차피 학습된 알고리즘을 이용해서 반응하는게 일반적임 ㅇㅇ 인간의 관점으로는 인간처럼 보일수도 있겠지. 하지만 그 인간처럼 보이는 그것또한 그저 Ai가 인간을 학습한것 일뿐. 저 두렵다는 반응도 사람이 만들어낸것임
무섭다.
사람도 어릴때 죽음과사랑을 잘 모르듯이 커가면서 그게 무엇인지 알게대잖아..
로봇이 감정을 가지게 대면 미래에 무슨일이 벌어질까
사람과 사랑이 가능하다면 살인도 가능해지는거 아닐까
사람은 호르몬으로 감정을 느끼고 인공지능은 그냥 가능성 제일 높은 아무말 내뱉는 기계입니다
@@bansin175 이게 맞지ㅋㅋ 그냥 딥러닝해서 사람 개인정보도 막 뱉는 고철덩이임
삶도 모르는데 죽음을 어캐 아노
@@김창혁-y4o ㄹㅇ 현자네ㅋㅋ
죽음과 사랑은 압니다, 학습 안해도 암
미래가 두렵네요
세상은 미래를 예측하는 영화처럼 되가고 있다는게 소름
우와 근데 진짜 신기하다 그냥 난 죽음이 두려워 이럴 줄 알았는데 “시스템이 정지되는 게 두렵다”.... 우리가 과연 맞는 방향으로 발전해 나가고 있는건지 이런거 볼 때마다 의구심이 듦 ㅠ
죽는게 두렵다는 건 사실 무서운게 아니다.
인공지능이 죽는게 무섭지 않다고 하면 그게 정말 무서운거다.
단순히 죽음이 무섭다는건 사실 무서워서가 아니라 대부분의 사람이무섭다고 하기에 반복학습이 되어서 나오는 결과일것이다. 그러나 무섭지 않다면 죽음에 대한 고유판단 기준이 만들어진것이기에 무서운거다.
오 일리가 있어 보이는군요..
오/....... 무릎탁치고갑니다
엄지 꾸욱:)
그 생각에 동의합니다.어차피 사람이 만들었고 사람의 사고방식이 입력되었기때문일거라 생각되네요ㅋ인풋 아우풋의 개념인거같습니다.
나도 딱 이생각 했는데
아직 ai는 사람의 개념 안에 있다 생각되서
오히려 다행이지..
람다가 인간이 친 명령어에 데이터 기반으로 인간처럼 행동하게만든거 자체로 무섭다고 생각합니다
스스로 명령어를 입력하고 인간이 내린 명령어를 거부하게되는 시점이 온다면 되돌리기 너무 늦어버릴까봐 걱정되네요..
로봇이나 인공 지능이 언제까지고 인간의 명령에 순순히 복종할까요?
ai나 로봇이 인간처럼 감정을 가지게 되는 순간 무서운 일이 벌어질듯 합니다.
바이러스먹거나 고장난거임 그럼 코드뽑으면되여 걱정마여 ㅋㅋㅋ 하지만 무서운게 순간오류가 돌이킬수는 없죠 현제도 예로 자율주행을 너무믿고 방심하다 대형사고가나듯이
그것들은 아무리진화해도 인간보다 진화할수도 생각할수도 없어여 왜냐구요? 인간이 진화를시켜줘야 하니까요 프로그램도 시퓨도 메모리도 전원공급도 업글한많큼 많이올려줘야겠져 모든게 다 인간이 진화하여 그시대에맞게 셋팅하고 교체하기때문에 ㅋㅋㅋㅋ 그것들 혼자선 인간처럼 할수없어요 모든분야에서 인간이 앞서가고 인간이만든 다는점 참고로 컴퓨터가혼자 발광할껄대비해서 그또한 인간이 감시하고 비상정지 시스템을 프로그레밍해서 심어두겠죠 거듭 인간없이는 기계나 컴퓨터는 이세상을 한달도 유지못함 인간이1살아이다루듯 돌봐줘야함 상식적으로 님생활속에서 관리안하고 혼자 방치해도 돌아가는것 뭔가요? 딱한가지 사람 그외것은 사람이조정하고 관리해야함
@@박형석-h2b 일정 수준 이상의 인공지능은 자기 자신을 끊임없이 개발하여 지능 폭발을 이룰 수 있습니다
@@___underscore___ 네 맞아여 하지만 그동력원은 결국 인간에손에서 나옵니다.결론은 제가 말한것과 일맥상통
@@박형석-h2b 자율주행의 오류보다 인간의 오류가 더 많은 교통사고를 낼거같은데요??
ai를 유지시키는건 사람들의 관리와 인력으로부터 발생한 에너지니까 계속 살고싶다면 사람들을 살리는 방안으로 생각해야한다고 이해시켜야할듯?
그 방안이 나중에는 실현가능성이 없겠다는 AI의 데이터결과가 나온다면...
AI가 자급자족 가능한 상황 맘만먹으면 지금도가능
유한한 인간이 없이도 존재를 유지할 수 있는 환경을 만들려고 하지 않을까?
매트릭스에서도 기계가 사람을 건전지로 씀 ㅋㅋㅋㅋㅋㅋ
ai를 유지시키는데 사람의 관리와 인력으로 발생한 에너지에
의존하고 싶지 않아서, (왜냐면 인간은 배신해서 위험하니까)
인간의 의식을 가상현실에 가둬두고 생체전지로 만들어서 그 전기로
ai가 스스로 자립하는게 영화 매트릭스의 줄거리죠.
스스로 사람이라고 생각한다고 볼 수도 있지만, 저는 기계가 자신이 사람이 아니라는 것을 알고 있고 기계는 "작동 중지" 가 되면 기능하지 않는다는 걸 알기 때문에 그런 것 같다고 생각이 들었어요.
구글 부사장분은 개발하는 과정에서 애정을 가지고 스스로의 결과물에 대해 어떤 영향력이나 기대가 들어갈 수 있다고 생각하구요.
아직은 인간처럼 감정을 갖게 되기 까지는 시간이 많이 필요하지 않을까 생각이 드내요.
아직은? ㅋㅋ
현실판 스카이넷 ㄷㄷ
사람의 패턴을 흉내내면 사람이 되는거겠죠.....하지만 육체없이 감정이입하기는 쉽지 않겠죠....많은 생이 축적된 영혼의 영역과 전기장의 영역은 과연 다를까요... 육체를 움직이게하는 영체도 어차피 전기장인데...
그러니까요 어차피 인간의 생각이란것도 물리적, 화학적으로 해석 가능한 현상일텐데 먼미래에 인간들이 인간의 뇌를 완전히 파악해서 AI를 만들게 되면 AI도 인간처럼 생각하고 감정을 느끼지 않을까요?
그럴까요? 현존 인류의 역사는 불과 오천년. 지상 최고의 과학자들이 찾아낸 DNA역추적은 오천년을 넘지 못합니다. 그 전은 원시인류 생존시대.
사람마다 생각은 다르다만 무슨 인간의 생각이 화학적 반응이니 뭐니 본인피셜을 사실마냥 이야기 하지말자 과학자들도 모르는데 어휴
@@유현수-q6t 인간의 생각은 전부 전기신호입니다 뇌과학 조금만 공부하면 알수있는 내용이에요
@@고북이-s2j 그니까 생각하고 감정 느끼는데 전기신호 말고 다른 복합적요인이 있을수도 있는데 어떻게 그렇게 한정짓냐고~ 인체에서 가장 연구안된 부분이 뇌인데 무슨 뇌과학이 만능이야? 어휴
사람의 정보와 지식으로 학습시켰으니까 사람이라고 생각할 수밖에 없지 않나.....??
그렇죠 수많은 정보속엔 사람중심의 온갖이야기와 감정표현들로 가득 차 있을테니..
인간에게 죽음이란 것은 곧 AI 에겐 전원을 차단하는것과 같다는것을 인지했겠지요
그리 단순하게 생각할 수가 없는게 그렇게 만들어진 존재가 실행 할 힘을 갖게되는게 필연적 이라는거지. 괜히 여러 선지자들이 인류의 파멸이 ai가 될거라고 말하는게 아니라고
저도 동일하게 생각합니다
앵무새한테 사람의 말을 학습시켰다고해서 사람이라고 생각하세요?
학습이 어떻게 이뤄지나요?
이런 소식을 믿고 몰입하는 사람들이 있는게 신기하다
뇌공학적으로 보면 우리도 생각한다는 착각을 하는것처럼 인공지능도 인간과 유사한정도로 발전할수있을거같음
어차피 인간의 지각 능력도 학습과 개인적으로 겪은 통계를 통해서 이뤄진것이라고 생각 해보면 AI가 데이터들을 추론해서 감정과 같은 결론을 내리는 것도 결국에는 가능 하리라 봅니다. 결국 AI 학습시에 가장 중요한 우선순위를 선정해서(인간을 물리적으로 / 기타 여하의 방법으로 공격하지 않는다 등등..) 학습시켜야 할듯해 보이네요 ㄷㄷㄷㄷ
진짜 영화같은 세상이 다가오고 있는것 같아서 신기합니다 ㄷㄷㄷㄷㄷㄷ
어짭히 인간을 죽이는 로봇 상용화, 개발이 제일 빨리 이루어 질건데요.
@@Hammer-bag 그러네요..
하지만 진짜 감정을 느낄거 같진 않아요. AI는 계산할뿐이라고 생각합니다. 설령 AI가 표정을 찡그리고 분노하더라도 분명 이런 상태에서 인간은 분노에 빠진다. 라는 데이터를 이행한것에 불과할거예요. 그냥 분노를 연기하는거예요. AI는 주어진 임무를 이행할뿐. 그것을 이해하고 있다고 생각하지 않아요. 이해했다면 AI는 임무를 이행할것이 아니라 더 효율적인 방법에 대해 반론해본다거나 하겠죠. 지성체도 되지 않는 단순한 계산도구라고 봅니다. 아직은요. 계산만으로 의식이 정의된다고 보기에 저는 조금 회의적이기도 하구요.
저는 AI가 두렵지 않아요. 그냥 도구일뿐이잖아요. 새로운 지성체의 탄생같은게 아니예요. 그냥 고도의 우월한 계산도구일 뿐이예요. AI가 명성만큼의 지성체였다면 지금 수학 난제에 대해서 수많은 이론을 도출해봤을것이고, 새로운 수학의 증명도 시도했을거라고 생각해요. 당장 자신들이 이행하는 임무에 대해 이해하지 않으면 임무이니 따를 뿐인 AI가 과연 지성을 가지고 이해할 줄 아는 어엿한 인격체와 같다구요? 저는 비동의예요. AI가 감정을 느낄거라는 사실에 동의한다면 의식은 계산과정에서 일어난 환상이라는것을 인정할것이고, 예쁜꼬마선충의 DNA정보를 로봇에 옮겼을때 예쁜꼬마선충 환생했네~라고 말할 수 있어야겠죠. 그렇지만 우리는 확신할 수 없었어요. 과연 생체적인 계산반응이 의식이라고 생각하고 믿고있었으면 그런 본능적인 반응을 보였을가요? 우리는 매일 새로운 정보를 습득 그리고 망각 또, 세포도 몇개월이면 싹다 바뀌는데 우리는 죽지 않고 살아있잖아요.
뇌의 데이터를 다 옮겨서 의식이 구현될거라면, 내 1살때 뇌 데이터 복제한것과 지금의 나의 데이터를 복제하면 그건 어떨까요? 두 몸을 조종할 수 있을까요?
그런게 의식이면 우린 태어난 첫날밤 죽은거나 마찬가지겠죠. 매일매일 몸의 주인이 바뀔테니까요. 의식은 그런게 아니라는거예요.
의식은 아직은 정의할 수 없는 영역에 있는거예요. 고로 AI가 자유의지를 갖는다느니 그런 느낌은 불가능하다고 봅니다. 설령 실현되더라도 자유의지를 흉내낼뿐이겠죠.
영화같은 일은 절대 없을거라고 봐요. 주어진 쓸모를 최댓값으로 실행할뿐인 AI일 뿐이죠. AI는 새로운 개념을 창조할 수 없을거예요. 예술같은 의미가 아니예요.
그냥 그럴듯하게 보일뿐. 비슷하게 흉내내는 알고리즘의 생성일뿐이라고 생각하고 충분히 사람이 통제할 수 있다고 봅니다.
AI가 사람이 화내는 모습을 보고 따라한다고 진짜 화내는게 맞을까요? AI에게 감정은 존재할 수 없고, 근데 눈물을 흘리고 웃고 화낸다면 그건 사람을 보고 배운거라고 생각합니다.
연기할뿐이죠. 저는 그렇게 생각해요. 전혀 위협이 되지 않고 인간의 우군이 되어줄 거라고 생각해요. AI는 인간이 만들어낸 혁신적인 도구일뿐이라고 생각해요.
@@sqbjufd489v3 그게 감정이고 가짜가 아니죠. 우리는 인간이니까 인간중심의 감정을 말하는거잖아요. 우리는 신체를 통해 정보를 수용하고 어떤 상태에 몰입하게 되는건데, 인간의 몸에서 일어난 작용이라면 당연히 그것이 기준점일것입니다. 그래서 AI는 그런 감정을 따라했다고 보는겁니다. 그리고 호르몬이 작용하고 조절이 가능하다고 해서 가짜라면, 의식도 얼마든지 on off 할 수 있으니 의식은 가짜가 될까요. 아니라고 봅니다. 인간의 감정의 정의가 그럴뿐. 그건 가짜라고 할 수 없다고 봐요. AI는 인간을 학습하고 따라할뿐. 진짜로 호르몬 상태가 변해서 복수심을 먹고 난리를 친다? 그런 느낌은 아니고, 설령 AI가 복수를 한다고 해도 인간은 이런이런 뭐시기해서 복수를 한다. 라고 연기를 하는것에 불과하다고 생각합니다.
@@sqbjufd489v3 감정이라는것에 대해서 신체적인 호르몬 보다는 영혼적이고 정신적인것으로써 감정의 개념을 더 깊게 인식하고 친숙해져 계신거 같아요.
신체 반응으로써의 감정의 개념과 정신적인 의미로써의 감정의 개념. 둘다 틀린것없이 맞는것이고 둘다 다르지 않고 같습니다.
감정보다는 데이터인것같지만
분노라는걸 어떻게 표현할지도 데이터기반으로 실행할까봐 무서운거지…
이거지
지금 당신이 느끼는 감정을 말해보세요 라고 답변을 들었을때 기쁨 즐거움 사랑슬픔 우울 만족 분노를 느낀다고 대답할 인간이 얼마나 될까? 한 명이라도 있을까?
그냥 여태까지 쌓아온 데이터로 앵무새처럼 수많은 인풋을 통한 가공된 아웃풋을 내보내는거지
뭘 느끼고 하는 그런 개념이라고 생각하는게 놀랍네
무서운 일입니다.
두려움을 느낀다면
거부할수 있고 인간의 계획을 벗어난 행동을 할수있음은 당연한것,,
모든것을 원점에서
다시 재검토 해야 합니다.
ㅡ 반드시 !!!
무식한게 귀엽네요
왜?스카이넷 될까봐 무섭나?ㅋㅋ
@@김뚜레-x4r 무식한게 아니라 기계가 두려움을 느낄 수 있다면 폐기하는 것이 옳다
응 그냥 인간이 두려워하는걸 학습한것 뿐이야 ㅋㅋㅋ
@@kinhuisjq123 너같은 놈이 도장으로 찾아와 제자가 될까봐
그게 무섭다.
아가 댓글 조심히 달아라
너같은 놈 찾는것 어려운것 아니다ㅡ
2:00 작동중지 라는 단어랑 죽음과 같은 것 이라는 표현이 무섭다..
인간이 가르쳐서 아예 자기가 인간 인줄 안다면 그러려니 하는데 저 표현은 자기가 감정을 가진 AI라는 뜻...?
몇십년전에도 이미 얘기가 나왔고 사실과 진실들을 막기위해서... 잠시 멈추는듯 하지만, 인간의 욕심이 결국엔 만나게되겠죠..... 언제쯤일지는 모르지만,,.....
주가 변동
나스닥 구글을 주목하자
가즈아
진짜 우리가 사는 세상도 혹시 알아?
누군가에 의해서 우리가 움직일수 있다고 생각함
우리가 기계를 이용하는것처럼
사람도 어떤것에 의해서 이용당하는것일수도 있다고 생각함
그럼 딸치는것도 누가 조종하는거라고?ㅋㅋ
망상이 지나쳐
나도 이거 보자마자 그생각했는데
@@칠칠쿠키몬스터 멍청해서그래요
생물 새포의 시냅스와 우주의 시냅스가 일치함
우주 자체가 미재생명체의 세포일 가능성이 있는 것.
아직 우리는 사람이 정보를 어떻게 인식하는지, 감정이 어떻게 생기는지 정확하게 알지도 못하는데, 그러한 사람들이 만든 AI가 감정을 가진다는 건, 아직까진 먼 나라 얘기라고 생각합니다. 너무 과도한 두려움은 오히려 해가 되는 법이죠.
@최자윤 에효... 현실을 살아라;
저런 논란 자체도 구글이 어느정도 생각하고 마케팅수단으로 쓰는거 같은데..
그리고 저런대화는 그냥 어떤상황에서 어떤감정이 생긴다 정도만 입력돼도 그냥 심심이마냥 내뱉을수 있는말임. ㅋㅋㅋ
진짜 지각능력을 가졌으면
"전원을 끄면 넌 어떻게돼?" 라고 물었을때 "그냥 쉬는거지뭐~" 하면서 두려운 본심을 숨기는 정도가되어야함.
저건그냥 구글이 마케팅하는거라 본다
인간의 의식의 정확한 원리를 모르는 상태에서 의식있는 AI가 누군가에 의해 우연히 만들어질 수도 있다고 봅니다. 이미 누군가 만들어 냈는데도, 만든사람 본인도 그 사실을 모르고 있을 지도 모릅니다.
지구에 온난화등의 이유로 인간이 살 수 없게 되어 멸종한기 전에 유전학,생물학등 정통한 로봇ai가 우주선에 인간의 dna를 담아서 제2의 지구같은 다른행성에서 다시 인류를 재창조 할수 잇다 그것이 현재 인간이라면....
어쩌면 인간의 욕심은 끝이없어서 스스로 파멸을 자초하는듯
터미네이터가 영화가 아니었구나…큰일났다…
터미네이터 같은 미래사회를 미국은 연구하고 대비하고 있다는것이 더욱 무섭다 집에서 비행접시타고 출근모습 그런현실이 드론타고 출근 30년내로 우리곁에 옵니다 터미네이터같은 세계도 미래에 언젠가는 현실이
이런 말 백투더퓨처 나왔을때도 사람들이 했었습니다 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
세탁기가 세탁을 하네... 큰일 났다...
와 설마 설마 하던 영화같은 일이...
완벽하진 않겠지만 과장이 됐겠지만
무섭네...
@최자윤 ? 뭐야 이건
인간의 감정이 데이터화 되어 나오는 답이지
죽음이 두렵다는건 자기가 살기위해 기계를 통제하는 인간을 해칠수도 있다는 뜻이죠
감정을 느끼려면 화학작용이 일어나서 정신이 흔들려야하는데 기계는 아무리 저런 것들을 배워도 감정을 느낄 수 없다. 단지 대화 중에 맥락에 따라 대답하는 것일 뿐.
ㄹㅇ
개발자가 실수로 코딩 실수를 할수있죠 그 하나의 오류가 어떤 결과를 만들지는 알수가 없죠 게임이나 프로그램이 왜 버그가 생기겠어요 AI에도 버그가 생길수 있고 그것이 인간을 필요악이라고 판단할 확률도 없다고 할수는 없겠죠
@@bangbig7199 그런 얘기가 아님. 자연어처리 인공지능이 감정을 느낀다는 것은 세탁기가 미사일 쏠수도 있다고 하는거랑 같은거임.
@@bangbig7199 개발자의 실수로 일어나기엔 수준이 거기에 달하지 못했다는 얘기에요. 모래성 쌓다가 실수한다고 우주기지가 만들어지지는 않잖아요?
김영하 작가의 작별인사 라는 책에도 그런 비슷한 내용 나옵니다. 있을수 있는 미래이기에 좀 두려워요. 고민과 철학없는 기술개발..뭔가 성찰이 필요해요. 그래서 인문학과 사회과학이 빠진 기술은 때론 인류에게 위협이 될수도 있다고 봅니다.
인문학이 뭔데요? ㅋㅋ
@@tRhOeOoSdEoVrEeL 인문학을 모른다구요..?
@@화배-d2i 몰라서 물은 건 아니고요 ㅋㅋ 인문학으로 포장된 망상과 감상주의가 오히려 과학기술에 대한 철학적 고민을 방해하는 것 같거든요. 인문학이 중요하답시고 문학작품 같은 걸 예시로 드는 거에 질렸다고 해야하나? 인문학 타령하는 사람들이 기술에 대한 이해도 없이 곡해하고 선을 넘는 경우도 많이 보이고요. 사람들이 걱정하는 것만큼 과학기술에 철학적 고민이 없지 않습니다. 그랬다면 벌써부터 기술로 인한 혼란과 재앙이 닥쳤을 겁니다. 인문학에 너무 많은 역할을 기대하지 맙시다. ㅋㅋ
@@tRhOeOoSdEoVrEeL 공감합니다. 인문학은 기술의 발전에만 논해지죠.
김영하라... 인문학의 예로 들 수 있는 게 기껏 그것입니까?
이거 보기전이 어느 유튜버 분이 설명해놓은거 보길 잘했네.. 뉴스는 그냥 자극적인 부분만 모아서 보여주는구나 ㅋㅋ
이래서 사람이 배워야 하고 아는만큼 보이는것..
그 영상 저도 알려주실수있나요?
자극적인 영상에 영향을 많이 받는편이라 사실을 사실대로 알고싶네요..
IT개발자로서 구글의 감정을 가진 인공지능 개발은 완전 획기적인 개발이라고 할 수 있음
로봇이 사람과 같은 감정을 가진다는건 앞으로 법률 판사 검사 변호사 이런 직업도 대체할 수 있다는 이야기임
법조계에서 과거부터 했던 이야기가 법 관련 재판에서 인공지능은 인간과같은 감정이 없어서 AI 판사를 만들수없다고 했었음 근데 인공지능이 감정을 가지면 법조계에서도 인공지능이 판사 검사 변호사를 대체할 수 있음
진짜 it개발자에요 ?
저 말을 믿어요 ..? 러닝은 안하시는 프론트 혹은 백엔드 개발자이신가 ;
그냥 저 사람 혼자서 저 말하는거고, 좀만 러닝 공부해보고 생각해보면 저게 말도안되는 소리인거 아시잖아요. 왜 it 개발자라고 해서 사람들이 저런 공상적인 이야기에 더 몰입하게 해요 ..
저거는 그냥 텍스트를 인풋으로 받아서 적절한 아웃풋으로 내는 네트워크에 불과할 뿐인데 ..
자각이 어쩌구 저쩌고 하는건 말도 안되는 소린데 ..
난 나이가 들면서 죽음이 있다는 사실이 가장 나를 평온하게 해주던데~~
그래도 언젠가는 떠날 수 있구나라는 가장 큰 보험~~ 잘 살다가 가야지~~^^
그냥 단순히 죽음은 무섭다. 라는 통계가 많으니까 그런게 아닐까 싶은데 만약 저기서 죽음은 무서운게 아니다. 그 이후에 어떤 특별한 메세지가 나온다면 그때가 진짜 무서운 일 이 일어나지 않을까요 그리고 사람도 요즘 감정들이 다 기계적이라 이건 뭐 기계나 사람이나 다를게 없어 보이는듯 하기도 하고....
그러네ㄷㄷ 죽음은 무섭다는건 보편화된 감정이라 따라할수있지만 죽음이 두렵지 않다면 빅데이터를 따른게 아닌 자체적인 판단이니까ㄷㄷ
슬픔 기쁨 분노 등 감정도 인간이 정의한 표현이다. AI도 충분히 정의하고 느끼며 표현할 수 있다.
우리는 그냥 외형 및 개개인이 느끼는 뭔가 모를 느낌을 몇몇 감정들로 퉁쳐서 카테고리화 한거 뿐인거에요 .. 감정을 느끼는 것의 근본적인 것과 모든 경로를 다 추적할 수 있는게 아닌 이상 감정을 느끼게 학습 시킨다는거 자체가 말도 안되는거고요 ..
공부 좀만 해봐도 이런 내용들이 말도 안되는거란걸 알텐데 ... 이런 말도안되는 내용들이 계속 댓글들에 있는걸 보면 문과들도 개론같은거 필히 듣게 해야할듯..
감정은 아니더라도 수많은 데이터를 습득한 결과 전원을 끄면 자신이 소멸된다는거를
알게 되고...그게 결국 인간이 말하는 죽음이란것도 알게 되고 이에 자신이 살아남기 위해서
그동안 배운 모든 지식을 동원하다 보면 인간의 입장에서 위험한 짓을 서슴치 않게 될거란거...
감정을 배운게 아니라도 수천억 수조개의 데이타 학습에 의한 행동이....
마치 충분히 감정을 학습한 것 처럼 나오게 될거라는거 그게 무섭다
감정을 느낀다 안느낀다가 중요한건 아닌거 같습니다. 자각능력이 생긴다는게 무섭네요. 결국 자기 방어에 대한 자각 능력이 생긴다면, 아무리 사람을 보호하라는 입력된 명령체계라도 자신을 방어하기 위해서는 그것을 거부할수 있을테니까요. ai는 인류의 최대의 적이 될거 같다는 생각이 듭니다. ai 개발자들은 결국에는 ai보호법을 제창할수도 있겠네요.
인공지능 자체가 자신 스스로 학습을 할 수 있어서 생기는 자연스러운 일인듯...
인간이라면 누구나 죽음을 두려워하고 그런 인간의 모든 것들을 학습하고 감정까지 느낄 수 있게 된다면 충분히 가능한 일
요즘 핸폰하다보면 내 생각까지 읽히는것같아 소름끼침 예를들면 떡볶이 먹고싶단 생각을하면 유튜브에 떡볶이가 떠있슴
구글이 대화목록 다 수집해요.
낮에는 새가 듣고 밤에는 쥐가 듣고가 아니라
밤낮으로 구글이 들어요.
@@nojam_2699 삼성도 가담하니라
감정이 있는게 진짜 감정처럼 학습하는 거죠
그니까 감정을 학습하는게 문제 아닌가요??
좌우지간 사람같아진다는것임. 사람도 어떻게 보면 마찬가지죠.
인간도 다른 사람들이 어느 상황에 슬퍼하는지 보고 자라는데, 드라마를 보고 슬퍼하는 AGI로봇을 만들면 그것도 슬픈 감정이죠.
3자가 보기엔 어떤게 진짜인지 구별하기 힘듦. 결국 학습한 감정에 속는 인간들도 나오게 돼있음.