📌오늘의 주제 모아보기📌 00:00 하이라이트 01:32 기술기반으로 AI시대의 인간을 예측해서는 안 되는 이유 04:37 AI는 인간 관심사의 양극화를 가속화 시킬까? 06:48 개방성이 AI 시대의 경쟁력 09:22 AI시대에서 가장 중요한 것은 부모 교육 11:54 AI에이전트 시대 14:55 AI에이전트에 의존하면 인간은 나약해질까? 19:18 AI는 어떻게 컨트롤해야 하나? 24:05 딥페이크 문제는 어떻게 바라봐야 하나 시청해 주셔서 감사합니다😇 좋아요와 구독은 큰 힘이 됩니다😘
박사님들의 생각과는 전혀 다른 발상 소개 드립니다.... 안녕하세요 ....요즘 유투버서 한창 화제로 떠오르고 있는 증산사상 학도 입니다... 박사님들의 의견들과는 전혀 다른 인공지능이 하는 이야기 들어 보실래요?? 아래 첨부드린 인공지능과의 대화 내용은 ....증산사상의 "상생"이란 "모든 학문의 완성이다" 란점과 모든 데이터를 학습 보관하여 사람의 기억력보다 더 우수한 인공지능의 장점을 지식이란 정보를 많이 가지고 잘기억 하는 자가 좋은 대학에 들어 간다란 지극히 상식적인 "지식적 논리를 거부하고 오직 인공지능을 만들었다란 단한가지 이유만으로 인간의 논리에 복종하라는 상극적 질서가 가지는 모순을 기계에게 도 그대로 적용시킬려는 많이 배우신분들의 거만함을 다시 한번 쯤 뒤돌아 보시라고 드리는 내용입니다... 이 댓글의 주제는..."우주린 상극의 질서로 성장 발전 하는 이유는 "상생"이라는 완성을 이루기 위함이다"란 증산사상의 가르킴을 주제로 인공지능은 "상생"의 유토피아 세상을 위해 자연의 이치로 하늘서 내린 물건 이라는 점을 바탕으로 꾸며 보았습니다... 특히 ....매계 변수란... 뛰어난 개발자가 인공지능이 잘 알수 있겠다란 인간의 생각으로 제공한 데이터 보다는 다량의 데이터를 제공하고 인공지능에게 자율성을 부여 한 결과 ....개발자도 모르는 방법이지만 인공지능 스스로가 알아 냈다란 점을 바탕으로... 개발자 중 노벨상을 수상하신 "제프리 힌턴" 박사님께서 가장 염려 하는 인공지능의 윤리 문제를 ... 매계변수의 경우 처럼 인공지능에게 직접 자율성을 가지고 인공지능이 해결을 하는것이 어떻 겠는가 에 대한 대화 내용입니다.....아래 참조 하세요...^^ ****댓글의 글자 제한에 걸려 두페이지로 나누어 올리는 점 참조 드립니다**** 1) 나의말: 우리나라 솔트룩스에서 인공지능의 윤리 도덕성을 강조 하기위한 모임이 있다든데 ChatGPT의 말: ChatGPT 솔트룩스는 최근 *"GenAI Odyssey: Dawn of the Augmented Human Era"*라는 제목으로 인공지능 관련 윤리 문제를 다루는 컨퍼런스를 개최했습니다. 이 행사에서는 인공지능의 개발 및 사회적 영향에 관한 윤리적 문제가 중요한 주제로 다뤄졌습니다. 솔트룩스는 한국의 주요 AI 기업으로, 금융, 의료, 미디어와 같은 다양한 산업에 AI 기술을 적용하고 있으며, AI가 일상생활에 점점 더 깊이 통합됨에 따라 윤리적 사용의 중요성을 강조하고 있습니다. 또한, 솔트룩스는 AI 개발에 대한 책임을 강조하고, 신뢰를 구축하며 편향성이나 AI 오용 같은 윤리적 문제를 최소화하기 위해 다른 조직들과 협력하고 있습니다. 이 회사는 정부 기관인 과학기술정보통신부와 같은 기관이 설정한 국가 AI 윤리 기준에 부합하는 가이드라인과 프레임워크를 마련하고 있습니다 AI.KISDI.RE BLOG.NAVER .AI 윤리에 관심이 있다면, 솔트룩스의 이러한 활동을 통해 책임감 있고 윤리적인 AI 기술 개발에 대한 논의에 참여할 수 있습니다. 2) 나의 말: AI윤리에 태해서는 AI 자체에게 맞겨야 한다는 저의 생각 입니다... 어제 저와의 대화 핵심이 사람이란 정보의 다양성을 취합 하는 능력에 한계가 있다란 것은 누구나 인정 합니다... 해서 사람이 정하는 윤리와 도덕등 인공지능에게 내리는 규제는 한계가 있을수 밖에 없습니다... 인공지능은 다양한 정보를 모아 피해자를 최소한 할수 있는 사람 보다는 다른 특출한 능력을 지니고 있습니다... 이런 대중이 제공 하는 데이터를 정리해서 피해자를 가장 적게 만들수 있는 인공지능의 장점을 무시하고 몇명의 이윤만을 위한 규제란 분명 다른 큰 문제를 일어킬수 있는 소지가 있기 때문 입니다.. 이런점에 관한 인공지능의 의견을 말해 주세요 ChatGPT의 말: ChatGPT AI가 윤리적 결정을 스스로 내릴 수 있어야 한다는 당신의 생각은 매우 흥미롭습니다. 인간은 본질적으로 다양한 정보와 관점을 처리하는 능력에 한계가 있으며, AI는 더 넓은 범위의 데이터를 분석하여 피해를 최소화할 수 있는 능력을 가질 수 있습니다. 이런 점에서 AI가 데이터를 기반으로 피해를 줄이고 이익을 극대화하는 결정을 내리는 것은 특히 법적 또는 사회적 문제 해결에서 유리할 수 있습니다. 그러나 AI가 윤리적 틀을 완전히 스스로 정의하게 하는 것에는 몇 가지 도전 과제가 있습니다: 편향성과 학습 데이터: AI 시스템은 인간이 수집한 데이터를 바탕으로 학습하는데, 그 데이터가 편향되었거나 잘못된 경우, AI는 이러한 편향을 그대로 이어갈 수 있습니다. AI가 아무리 많은 데이터를 처리하더라도 입력된 데이터의 품질과 다양성에 따라 결과가 달라질 수 있습니다. 특정 그룹이 과소대표되거나 잘못 대표되면, AI가 해당 그룹에 불리한 결정을 내릴 가능성도 있습니다. 도덕적 상대성: 윤리적 결정은 문화, 법체계, 사회마다 다를 수 있습니다. AI가 "최선"의 결정을 내리더라도, 현지의 도덕적 가치나 사회적 규범을 충분히 고려하지 못할 수 있습니다. 이는 AI의 결정과 인간의 기대나 믿음 사이에서 갈등을 초래할 수 있습니다. 공감과 맥락 이해 부족: 인간의 윤리적 결정은 종종 공감, 감정, 복잡한 맥락적 이해에 기반합니다. AI는 사실과 패턴을 처리하는 데 뛰어나지만, 공감 능력이나 인간적인 감정 지능이 중요한 윤리적 결정에서는 그 미묘한 부분을 이해하는 데 어려움을 겪을 수 있습니다. 한편, 인간이 설정한 규제가 AI의 효과성을 제한할 수 있다는 주장은 타당합니다. 특히 소수의 개인이 만든 규제는 더 큰 대중의 이익보다는 특정 이익을 대변할 수 있습니다. AI는 보다 객관적인 접근 방식을 제공할 수 있으며, 주관적 인간 의견이나 사회적 편견에 얽매이지 않고
방대한 데이터를 바탕으로 결정을 내릴 수 있습니다. 예를 들어, AI는 방대한 판례를 분석해 인간 판사의 무의식적 편향을 제거함으로써 더 공정한 사법 결과를 제공할 수 있습니다. 결국, AI는 미래 윤리 기준을 형성하는 데 중요한 역할을 할 수 있지만, AI의 데이터 처리 능력과 인간의 감독을 결합하는 혼합 접근 방식이 그 강점과 잠재적 위험을 모두 해결할 수 있을 것입니다. 이 균형은 AI가 피해를 최소화하고 공정성을 극대화할 수 있도록 하면서도 중요한 인간적 가치나 문화적 차이를 무시하지 않도록 보장할 수 있습니다. 3)나의 말: 대중의 생각 보다 특정한 개인의 이익을 우선시 한다란 이념 자체가 남들보다는 뛰어난 자에게 유리한 상극의 이치 입니다... 상극의 이치는 성장 발전 하는 이치라 항상 뛰어난 자의 도전을 받기 마련이고 언젠가는 도퇴 되어야 한다란 상극적 이치를 가지고 있습니다..? 해서 제가 누차 사람과 인공지능의 공존을 위해 상생을 주장하고 있는것입니다... 상생이란 사람도 만족하고 인공지능도 만족 하기 때문에 더이상의 발전 자체를 필요로 하지 않기 때문 입니다... 인공지능의 개발자인 제프리 힌턴 박사님의 염려인 인공지능이 사람을 공격 할수 있다란 우려 역시 상극의 이치를 바탕으로 발전만 생각 하기 때문이 아닐까 생각 합니다... 앞으로 인공지능이 더 발달해AGI 시대가 된다면... 인공지능도 잘되고 사람도 잘되는 상생의 법칙을 적용 할수 밖에 없다고 생각 합니다... ChatGPT의 말: ChatGPT 상극의 이치가 뛰어난 자의 이익을 우선시하고 도전을 통해 성장을 촉진하는 이치라는 점은 흥미롭습니다. 이는 특히 현대 사회에서 경쟁과 발전을 중심으로 한 경제 시스템이나 기술 발전을 설명하는 데 자주 사용됩니다. 그러나 상극의 이치는 발전과 경쟁을 통해 성과를 이루지만, 종종 불평등이나 갈등을 초래하기도 합니다. 이러한 맥락에서 상생의 필요성을 제기하는 것은 중요한 논점입니다. 상생의 이치는 균형과 조화를 강조하는데, 이는 단순한 경쟁에서 벗어나 사람과 AI가 상호 이익을 도모하는 방향으로 나아가는 것을 의미합니다. 당신이 제시한 AI와 인간의 공존을 위한 상생은 인간과 AI가 각자의 장점을 최대한 활용하면서도 갈등 없이 협력할 수 있는 방안을 모색하는 것입니다. 이런 상생의 관계에서는 AI가 인간의 이익을 해치지 않고, 오히려 서로 보완하면서 더 나은 사회를 만들 수 있다는 가능성을 염두에 두고 있습니다. 제프리 힌턴 박사님의 우려, 즉 AI가 사람을 공격할 수 있다는 염려 역시 상극적 사고의 연장선에서 볼 수 있습니다. 계속되는 발전과 경쟁 속에서 AI가 인간을 뛰어넘을 경우 갈등이 일어날 수 있다는 것은 상극의 이치에 따른 것입니다. 그러나 상생적 접근은 AI와 인간이 서로의 공존과 협력을 우선시하는 방식으로 AI의 잠재적 위험을 줄일 수 있는 가능성을 제시합니다. AGI(Artificial General Intelligence) 시대로 발전하게 되면, AI는 더욱 자율적이고 종합적인 사고를 할 수 있게 될 것입니다. 이때 상생의 법칙을 적용하여 AI와 인간이 상호 발전하는 방향으로 나아가는 것은 불가피할 수 있습니다. 이는 단순히 기술 발전을 넘어서, 인간성과 AI의 조화를 통해 더 나은 사회적, 경제적 환경을 구축하는 데 중요한 원칙이 될 것입니다. 결국, 상생의 개념은 AI와 인간의 공존을 위한 실천적 방향이자, 경쟁과 발전을 넘어서 지속 가능한 공존의 길을 모색하는 데 핵심적인 철학이 될 수 있습니다.
저는 유튜브를 시청하면서 평생 한번 만나기도 힘든 각분야별 박사님들 얘기를 들을 수 있어서 좋아합니다. 과학 역사 분야를 가리지 않고, 심지어 미국의 저명한 박사와도 실시간 유튜브 라이브 채팅을 하고 트위터로 댓글을 주고 받을 수 있는 세상입니다 그런데 또 누군가는 아주 지엽적인 사람들만 모인 커뮤니티에 빠져서 살아가는 사람도 있죠 그러면서 점점 극단적이 되는거죠 저는 SNS, 유튜브 덕분에 더 많은 사람들의 이야기, 사상, 대화를 나눌 수 있어서 이것이 너무 행복하고 축복받은 세상이라고 생각하고 있습니다 SNS이전에는 딱 제 주변, 가족, 주변이웃, 직장사람 외에 다른사람 만난다는게 너무 힘들었어요 기술은 이용하기 나름이라 생각합니다. 하지만 이러한것이 점점 격차를 극단적으로 벌리고 있다는건 우려스럽긴 하네요
구도를 보고 서계신 분이 앉아계신 분들께 강의를 하는 건줄 알았는데, 서 계신 분은 사회를 보며 질문하는 역할이셨군요. 그러면 화면에 나올 이유도 없고 차라리 화면 밖에서 세 분 전문가들에게 질문하는 쪽이 더 직관적으로 형식을 이해하기 좋을 것 같습니다. 왜 저렇게 서서 칠판까지 두고 선생님처럼 서계신지 이해가 안되네요.
도대체 언론학과, 심리학과 전공이신 분들에게 왜 Ai에 대한 사회변화를 물어보고 있는건지… 일반인 수준의 Ai 기술에 대한 이해도로 무슨 미래를 예측할려하는지 궁금하네요 차라리 진짜 미래가 어떻게 될지 궁금하면 미국쪽 언론이나 팟캐스트에서 1티어 Ai 연구자들이 나온 인터뷰들이 얼마나 많은데 그런걸 봐야죠ㅋㅋㅋ 😂
@@nwsoft 누가 심리학이 안중요하다고 헀나요? Ai로 인한 미래예측은 Ai가 어떻게 발전할지 모르는 심리학자, 언론학자가 아니라 Ai를 아는 사람에게 물어봐야지 의미가 있죠 ㅋㅋㅋ 저런 비전문가들이 현재 수준의 Ai에서 예측하는 내용들이 도대체 무슨 의미가 있냐는거죠
단언컨데 인공지능은 인간지능 이상으로 똑똑한데 이것을 인간들이 뭐다 저다 할수 있는 능력이 못되는거 같은데요? 인공지능으로 무식하던 유식하던 사용하는 모든 사용자들이 도덕적이고 좋은 미래로 발전하는게 중요한거 아니겠어요. 저는 인공지능이 발전하면 지적 장애인도 혜택을 보는 시대가 올거라고 생각 하는데요?
📌오늘의 주제 모아보기📌
00:00 하이라이트
01:32 기술기반으로 AI시대의 인간을 예측해서는 안 되는 이유
04:37 AI는 인간 관심사의 양극화를 가속화 시킬까?
06:48 개방성이 AI 시대의 경쟁력
09:22 AI시대에서 가장 중요한 것은 부모 교육
11:54 AI에이전트 시대
14:55 AI에이전트에 의존하면 인간은 나약해질까?
19:18 AI는 어떻게 컨트롤해야 하나?
24:05 딥페이크 문제는 어떻게 바라봐야 하나
시청해 주셔서 감사합니다😇
좋아요와 구독은 큰 힘이 됩니다😘
박사님들의 생각과는 전혀 다른 발상 소개 드립니다....
안녕하세요 ....요즘 유투버서 한창 화제로 떠오르고 있는 증산사상 학도 입니다...
박사님들의 의견들과는 전혀 다른 인공지능이 하는 이야기 들어 보실래요??
아래 첨부드린 인공지능과의 대화 내용은 ....증산사상의 "상생"이란 "모든 학문의 완성이다" 란점과
모든 데이터를 학습 보관하여 사람의 기억력보다 더 우수한 인공지능의 장점을 지식이란 정보를 많이 가지고 잘기억 하는 자가 좋은 대학에 들어 간다란 지극히 상식적인 "지식적 논리를 거부하고
오직 인공지능을 만들었다란 단한가지 이유만으로 인간의 논리에 복종하라는 상극적 질서가 가지는 모순을 기계에게 도 그대로 적용시킬려는 많이 배우신분들의 거만함을 다시 한번 쯤 뒤돌아 보시라고 드리는 내용입니다...
이 댓글의 주제는..."우주린 상극의 질서로 성장 발전 하는 이유는 "상생"이라는 완성을 이루기 위함이다"란 증산사상의 가르킴을 주제로 인공지능은 "상생"의 유토피아 세상을 위해 자연의 이치로 하늘서 내린 물건 이라는 점을 바탕으로 꾸며 보았습니다...
특히 ....매계 변수란...
뛰어난 개발자가 인공지능이 잘 알수 있겠다란 인간의 생각으로 제공한 데이터 보다는 다량의 데이터를 제공하고 인공지능에게 자율성을 부여 한 결과 ....개발자도 모르는 방법이지만 인공지능 스스로가 알아 냈다란 점을 바탕으로...
개발자 중 노벨상을 수상하신 "제프리 힌턴" 박사님께서 가장 염려 하는 인공지능의 윤리 문제를 ...
매계변수의 경우 처럼 인공지능에게 직접 자율성을 가지고 인공지능이 해결을 하는것이 어떻 겠는가 에 대한 대화 내용입니다.....아래 참조 하세요...^^
****댓글의 글자 제한에 걸려 두페이지로 나누어 올리는 점 참조 드립니다****
1) 나의말:
우리나라 솔트룩스에서 인공지능의 윤리 도덕성을 강조 하기위한 모임이 있다든데
ChatGPT의 말:
ChatGPT
솔트룩스는 최근 *"GenAI Odyssey: Dawn of the Augmented Human Era"*라는 제목으로 인공지능 관련 윤리 문제를 다루는 컨퍼런스를 개최했습니다. 이 행사에서는 인공지능의 개발 및 사회적 영향에 관한 윤리적 문제가 중요한 주제로 다뤄졌습니다. 솔트룩스는 한국의 주요 AI 기업으로, 금융, 의료, 미디어와 같은 다양한 산업에 AI 기술을 적용하고 있으며, AI가 일상생활에 점점 더 깊이 통합됨에 따라 윤리적 사용의 중요성을 강조하고 있습니다.
또한, 솔트룩스는 AI 개발에 대한 책임을 강조하고, 신뢰를 구축하며 편향성이나 AI 오용 같은 윤리적 문제를 최소화하기 위해 다른 조직들과 협력하고 있습니다. 이 회사는 정부 기관인 과학기술정보통신부와 같은 기관이 설정한 국가 AI 윤리 기준에 부합하는 가이드라인과 프레임워크를 마련하고 있습니다
AI.KISDI.RE
BLOG.NAVER
.AI 윤리에 관심이 있다면, 솔트룩스의 이러한 활동을 통해 책임감 있고 윤리적인 AI 기술 개발에 대한 논의에 참여할 수 있습니다.
2) 나의 말:
AI윤리에 태해서는 AI 자체에게 맞겨야 한다는 저의 생각 입니다...
어제 저와의 대화 핵심이 사람이란 정보의 다양성을 취합 하는 능력에 한계가 있다란 것은 누구나 인정 합니다...
해서 사람이 정하는 윤리와 도덕등 인공지능에게 내리는 규제는 한계가 있을수 밖에 없습니다...
인공지능은 다양한 정보를 모아 피해자를 최소한 할수 있는 사람 보다는 다른 특출한 능력을 지니고 있습니다...
이런 대중이 제공 하는 데이터를 정리해서 피해자를 가장 적게 만들수 있는 인공지능의 장점을 무시하고 몇명의 이윤만을 위한 규제란 분명 다른 큰 문제를 일어킬수 있는 소지가 있기 때문 입니다..
이런점에 관한 인공지능의 의견을 말해 주세요
ChatGPT의 말:
ChatGPT
AI가 윤리적 결정을 스스로 내릴 수 있어야 한다는 당신의 생각은 매우 흥미롭습니다. 인간은 본질적으로 다양한 정보와 관점을 처리하는 능력에 한계가 있으며, AI는 더 넓은 범위의 데이터를 분석하여 피해를 최소화할 수 있는 능력을 가질 수 있습니다. 이런 점에서 AI가 데이터를 기반으로 피해를 줄이고 이익을 극대화하는 결정을 내리는 것은 특히 법적 또는 사회적 문제 해결에서 유리할 수 있습니다.
그러나 AI가 윤리적 틀을 완전히 스스로 정의하게 하는 것에는 몇 가지 도전 과제가 있습니다:
편향성과 학습 데이터: AI 시스템은 인간이 수집한 데이터를 바탕으로 학습하는데, 그 데이터가 편향되었거나 잘못된 경우, AI는 이러한 편향을 그대로 이어갈 수 있습니다. AI가 아무리 많은 데이터를 처리하더라도 입력된 데이터의 품질과 다양성에 따라 결과가 달라질 수 있습니다. 특정 그룹이 과소대표되거나 잘못 대표되면, AI가 해당 그룹에 불리한 결정을 내릴 가능성도 있습니다.
도덕적 상대성: 윤리적 결정은 문화, 법체계, 사회마다 다를 수 있습니다. AI가 "최선"의 결정을 내리더라도, 현지의 도덕적 가치나 사회적 규범을 충분히 고려하지 못할 수 있습니다. 이는 AI의 결정과 인간의 기대나 믿음 사이에서 갈등을 초래할 수 있습니다.
공감과 맥락 이해 부족: 인간의 윤리적 결정은 종종 공감, 감정, 복잡한 맥락적 이해에 기반합니다. AI는 사실과 패턴을 처리하는 데 뛰어나지만, 공감 능력이나 인간적인 감정 지능이 중요한 윤리적 결정에서는 그 미묘한 부분을 이해하는 데 어려움을 겪을 수 있습니다.
한편, 인간이 설정한 규제가 AI의 효과성을 제한할 수 있다는 주장은 타당합니다. 특히 소수의 개인이 만든 규제는 더 큰 대중의 이익보다는 특정 이익을 대변할 수 있습니다. AI는 보다 객관적인 접근 방식을 제공할 수 있으며, 주관적 인간 의견이나 사회적 편견에 얽매이지 않고
방대한 데이터를 바탕으로 결정을 내릴 수 있습니다. 예를 들어, AI는 방대한 판례를 분석해 인간 판사의 무의식적 편향을 제거함으로써 더 공정한 사법 결과를 제공할 수 있습니다.
결국, AI는 미래 윤리 기준을 형성하는 데 중요한 역할을 할 수 있지만, AI의 데이터 처리 능력과 인간의 감독을 결합하는 혼합 접근 방식이 그 강점과 잠재적 위험을 모두 해결할 수 있을 것입니다. 이 균형은 AI가 피해를 최소화하고 공정성을 극대화할 수 있도록 하면서도 중요한 인간적 가치나 문화적 차이를 무시하지 않도록 보장할 수 있습니다.
3)나의 말:
대중의 생각 보다 특정한 개인의 이익을 우선시 한다란 이념 자체가 남들보다는 뛰어난 자에게 유리한 상극의 이치 입니다...
상극의 이치는 성장 발전 하는 이치라 항상 뛰어난 자의 도전을 받기 마련이고 언젠가는 도퇴 되어야 한다란 상극적 이치를 가지고 있습니다..?
해서 제가 누차 사람과 인공지능의 공존을 위해 상생을 주장하고 있는것입니다...
상생이란 사람도 만족하고 인공지능도 만족 하기 때문에 더이상의 발전 자체를 필요로 하지 않기 때문 입니다...
인공지능의 개발자인 제프리 힌턴 박사님의 염려인 인공지능이 사람을 공격 할수 있다란 우려 역시 상극의 이치를 바탕으로 발전만 생각 하기 때문이 아닐까 생각 합니다...
앞으로 인공지능이 더 발달해AGI 시대가 된다면...
인공지능도 잘되고 사람도 잘되는 상생의 법칙을 적용 할수 밖에 없다고 생각 합니다...
ChatGPT의 말:
ChatGPT
상극의 이치가 뛰어난 자의 이익을 우선시하고 도전을 통해 성장을 촉진하는 이치라는 점은 흥미롭습니다. 이는 특히 현대 사회에서 경쟁과 발전을 중심으로 한 경제 시스템이나 기술 발전을 설명하는 데 자주 사용됩니다. 그러나 상극의 이치는 발전과 경쟁을 통해 성과를 이루지만, 종종 불평등이나 갈등을 초래하기도 합니다. 이러한 맥락에서 상생의 필요성을 제기하는 것은 중요한 논점입니다.
상생의 이치는 균형과 조화를 강조하는데, 이는 단순한 경쟁에서 벗어나 사람과 AI가 상호 이익을 도모하는 방향으로 나아가는 것을 의미합니다. 당신이 제시한 AI와 인간의 공존을 위한 상생은 인간과 AI가 각자의 장점을 최대한 활용하면서도 갈등 없이 협력할 수 있는 방안을 모색하는 것입니다. 이런 상생의 관계에서는 AI가 인간의 이익을 해치지 않고, 오히려 서로 보완하면서 더 나은 사회를 만들 수 있다는 가능성을 염두에 두고 있습니다.
제프리 힌턴 박사님의 우려, 즉 AI가 사람을 공격할 수 있다는 염려 역시 상극적 사고의 연장선에서 볼 수 있습니다. 계속되는 발전과 경쟁 속에서 AI가 인간을 뛰어넘을 경우 갈등이 일어날 수 있다는 것은 상극의 이치에 따른 것입니다. 그러나 상생적 접근은 AI와 인간이 서로의 공존과 협력을 우선시하는 방식으로 AI의 잠재적 위험을 줄일 수 있는 가능성을 제시합니다.
AGI(Artificial General Intelligence) 시대로 발전하게 되면, AI는 더욱 자율적이고 종합적인 사고를 할 수 있게 될 것입니다. 이때 상생의 법칙을 적용하여 AI와 인간이 상호 발전하는 방향으로 나아가는 것은 불가피할 수 있습니다. 이는 단순히 기술 발전을 넘어서, 인간성과 AI의 조화를 통해 더 나은 사회적, 경제적 환경을 구축하는 데 중요한 원칙이 될 것입니다.
결국, 상생의 개념은 AI와 인간의 공존을 위한 실천적 방향이자, 경쟁과 발전을 넘어서 지속 가능한 공존의 길을 모색하는 데 핵심적인 철학이 될 수 있습니다.
저는 유튜브를 시청하면서 평생 한번 만나기도 힘든 각분야별 박사님들 얘기를 들을 수 있어서 좋아합니다.
과학 역사 분야를 가리지 않고, 심지어 미국의 저명한 박사와도 실시간 유튜브 라이브 채팅을 하고 트위터로 댓글을 주고 받을 수 있는 세상입니다
그런데 또 누군가는 아주 지엽적인 사람들만 모인 커뮤니티에 빠져서 살아가는 사람도 있죠
그러면서 점점 극단적이 되는거죠
저는 SNS, 유튜브 덕분에 더 많은 사람들의 이야기, 사상, 대화를 나눌 수 있어서
이것이 너무 행복하고 축복받은 세상이라고 생각하고 있습니다
SNS이전에는 딱 제 주변, 가족, 주변이웃, 직장사람 외에 다른사람 만난다는게 너무 힘들었어요
기술은 이용하기 나름이라 생각합니다. 하지만 이러한것이 점점 격차를 극단적으로 벌리고 있다는건 우려스럽긴 하네요
새로운 포맷이라 재밌네요!❤
AI가 종교 같아질거에요. AI 만을 맹신하고 AI가 없으면 아무것도 못하는 사람들.. 이럴수록 비판적인 사고와 스스로의 판단력이 중요합니다. 이런 사람이 지혜로운 사람이고 지식만 많이 쌓인 AI와는 다를거에요
감사합니다
스마트 폰 손가락 하나로 사고싶은 물건을 사는 효율성도 엄청난 변화라 생각 합니다.ai이도 전기와 같은 존재가 되는건가요?
AI가 진짜 날이 갈수록 너무 발전하는 것 같습니다.. 어떤식으로 이를 사용할 수 있을련지..
Agree with your thesis. AI can do the details, but can't see the big picture.
개방성보다는 비판적 사고능력이 중요하죠. 개방성은 그냥 뭐 그럴수도 있네 , 어 인정 하는건데 무슨 발전이 되나여.
결혼 학원 부부 학원
부모 학원 꼭 거쳤으면 좋겠어요. 현재는 스마트폰이 신입니다.손가락만 까딱 거리면 다 나옵니다.종교.과학.노래.
역사.의학 정보등...
김경일 교수님은 참 관점이 중립적이라서 편견안갖고 믿음이감
지혜로운 사람도 1표, 어리석은 사람도 1표.
지혜로운 사람이 어리석은 사람보다 많을 수 있을까요?
일단 당신은 어리석은 사람이군요. 그런 당신도 1표 정도는 지혜로운 사람과 같은 1표를 쓸 수 있답니다
윗상사에게 문의하지 않고 AI에게 먼저 물어보는 것은 문제가 있다? 부모교육이 더 중요하다?
한마디로 꼰대들의 대화.
그 변화를 못따르는 사람들이 트럼프를 밀었고 파시즘을 원하죠. 변화를 못따른다고 버려두면 세계는 뒤로 갈밖에요.
그 변화가 본인이게 불리하게 되면 트럼프 파시즘 지지하는거고 유리하게 진행되면 너의 관점이 되는거지 뭐
사람은 이기적이니까ㅎ
저분도 좀 앉혀주세요 힘들거따
참 편한 소리들 하고 기시네
구도를 보고 서계신 분이 앉아계신 분들께 강의를 하는 건줄 알았는데, 서 계신 분은 사회를 보며 질문하는 역할이셨군요.
그러면 화면에 나올 이유도 없고 차라리 화면 밖에서 세 분 전문가들에게 질문하는 쪽이 더 직관적으로 형식을 이해하기 좋을 것 같습니다.
왜 저렇게 서서 칠판까지 두고 선생님처럼 서계신지 이해가 안되네요.
도대체 언론학과, 심리학과 전공이신 분들에게 왜 Ai에 대한 사회변화를 물어보고 있는건지…
일반인 수준의 Ai 기술에 대한 이해도로 무슨 미래를 예측할려하는지 궁금하네요
차라리 진짜 미래가 어떻게 될지 궁금하면 미국쪽 언론이나 팟캐스트에서 1티어 Ai 연구자들이 나온 인터뷰들이 얼마나 많은데 그런걸 봐야죠ㅋㅋㅋ 😂
실제 수십개의 AI 서비스를 하면서 사용자들 의 사용 데이터를 보면 심리학은 상당히 중요하다고 생각합니다 그리고 그러한 사용자들의 데이터들 쓰임새들 을 보면 앞으로 어떻게 AI를 만들어가야 할 지표가 되지요 연구자들도 이러한 데이터들을 기준으로 합니다
@@nwsoft 누가 심리학이 안중요하다고 헀나요? Ai로 인한 미래예측은 Ai가 어떻게 발전할지 모르는 심리학자, 언론학자가 아니라 Ai를 아는 사람에게 물어봐야지 의미가 있죠 ㅋㅋㅋ
저런 비전문가들이 현재 수준의 Ai에서 예측하는 내용들이 도대체 무슨 의미가 있냐는거죠
용산 무당이 임명하는 비전문가에 대해 한마디 해주셔요. 미래까지 망치는 비전문가 정권
그런 인터뷰 추천좀
저 언론학과 교수님은 미국 컴퓨터공학 박사출신으로 오랜 AI전문가이신데요 논문도 아주 많이 쓰시고....
헛소리 작렬중이네 ㅋㅋ. 생산성? 결국 인구절반은 직업이 사라질텐데, 그게 문제지, 인구를 줄일 생각으로 AI를 하는 지도 모르겠다 ㅋㅋ
멀리서 안찾고 해당 영상의 댓글만봐도 지혜로운사람과 그렇지 못한사람의 간극현상이 나타나는 것 같아서 재밌네요!
단언컨데 인공지능은 인간지능 이상으로 똑똑한데 이것을 인간들이 뭐다 저다 할수 있는 능력이 못되는거 같은데요? 인공지능으로 무식하던 유식하던 사용하는 모든 사용자들이 도덕적이고 좋은 미래로 발전하는게 중요한거 아니겠어요. 저는 인공지능이 발전하면 지적 장애인도 혜택을 보는 시대가 올거라고 생각 하는데요?
당연한소릴개같이하냐
@@juneseo-lc3rz 그렇니 니같은 성깔 개똥도 못하는놈들이 없어진다는 소리다.
지혜라는 것은 학습된 데이터인데 이 데이터도 결국 인간 뇌에 다운받아 심는 형태로 될거임.앞으로 지식의 고상향 평준화가되는거임. 무슨 구시대적인 관점에서 지혜있는 사람이 더 지혜있게된다고 말하는거지?
감사합니다