이게 좀 무서운게 이제 거짓말이라고 하기 시작했다는 것 같습니다. 예전에 저런 챗봇이 사실과 다른 정보를 이야기하면 틀린 정보를 줬다고 할텐데 이젠 거짓말 한다라고 말하기 시작한게 아마 사람들도 무의식적으로 동등한 지식이나 지능을 갖춘 대화가 가능한 대상으로 여기고 있다는 것 아닐까 싶네요
거꾸로 말하면 인간의 언어를 좀 더 가다듬는 게 필요하다는 얘길 수도 있죠. 더 많은 단어를 알고 외국어도 배워야 한다는. 왜냐하면 . 벡터 간의 차를 통해서 단어 간의 연관성을 알 수 있다고 했는데 인간의 언어에는 분명 느낌은 있는데 말하고 싶은 단어가 없는 경우가 있죠. 뭔가 가려운데 긁을 수 없는 느낌처럼. 벡터 간의 차로 계산 가능한 직관적으로는 그 위치에 있어야 할 단어가 인간의 언어 사전에서 누락된 경우.
인공지능에 대한 이해를 도와 주셔서 감사합니다. 인공지능의 영향으로 많은 인간의 질적향상이 일어 날 것입니다. 동시에 소스 제공자에대한 존중도 일어나야합니다. 박사님은그림ai를 말하면서 그림 소스가 데이터로만 존재해있기 때문에 그림를 자체를 사용한것은 아니라 하셨지만, 엄밀히 말하면 그림을 데이터화 했을 뿐 소스가된 그림을 사용하지 않았다 할수없습니다. 스테이크를 곱게갈아 다짐육을 만들어 미트볼을 만들었다고 스테이크를 사용하지 않았다 할수없는것 처럼요. 기술이 발전될수록 지속가능한 시장을 만들기위해선 제공자와 사용자사이에 윤리적 보장이 뒷바침되어야만 합니다
여기서 좋은 w를 찾는다고 하는데, 이 좋은 w가 에러함수를 그려봤을 때 global minimum이 아니라, local minimum을 찾죠... local minimum에서 벗어나기 위해 step size를 키우는 등 여러가지 노력들을 하긴 하는데, 신기한건 global minimum을 꼭 찾지 않아도 local minimum으로도 웬만한 퍼포먼스가 나온다는 것. 왜 그러는진 몰?루?
그 걱정은 조만간 없어질겁니다. 사실 GPU는 그런 것 때문에 나온 게 아니라서 전력을 굉장히 많이 잡아먹거든요. 그리고 채굴 형태의 그래픽카드가 가격이 올라간 결정적인 이유는 한 사람이 많은 그래픽 카드를 구매해서 그렇습니다. 하지만 GPT의 발전은 GPU를 많이 병렬방식을 넣는 것보다 NPU이라는 주문형 반도체를 만드는 게 좀 더 전성비와 가성비가 좋은데다가 개인이 GPT의 발전을 위해서 GPU를 대량으로 구매하는 경우는 없을 겁니다. 채굴 형태의 그래픽 카드는 꽤 많은 채굴러들이 대량으로 구매했기에 품귀현상이 발생한 겁니다. 지금 그래픽 카드 가격이 올라가는 건 GPT 영향이라기보단 인플레이션이 미치는 상황에 아직도 1200원대 중반에 해당하는 환율 영향이 더 크죠
ChatGPT가 한글을 잘 지원 안해서 아직 우리나라에서는 그냥 신기하다 정도인거 같은데 새로운 버전이 나와서 한글도 지원하고 유료 버전이 나와서 훨씬 더 퀄리티가 높아지면 앞으로 창작 분야나 큰 대회, 시험 등에서 인간과 인공지능을 구별하는 것이 큰 과제가 될 것 같네요. 우리나라 뿐만 아니라 전세계적으로도요...
저번 영상에서 유튜브 제목을 chatGPT가 만들어낸 것처럼 이번 chatGPT 시리즈 두개의 제목을 넣고 다음 제목을 생성해달라니까 "ChatGPT의 미래: 인공지능 생성 모델의 활용과 개선점 (보이저엑스 남세동 대표) [ChatGPT 시리즈 3/3]" 라고 생성해주네요. 너무 재밌고 신기합니다.
수십테라 데이터를 가지고 학습을 해서 신경망이 0.7 테라 정도로 만들어지면 그건 이제 모델링이 끝난 인간의 뇌와 같은 인풋아웃풋이 있는 인간이 뜯어볼 수 없는 엄청나게 큰 하나의 공식과 같은 것으로 만들어지고 거의 인간과 같은 늙지않고 영원히 존재할 수 있는 뇌가 하나 만들어 지는 것... 인간의 뇌를 참고해서 만든게 딥러닝 신경망이니 어쩌면 인간은 더 단순할 수도 있다..
아니 그니까 '안될' 에 곱하고 빼서 과학 을 도출해내는 W값이 있는데 그 W값으로 '대한'에 계산하면 민국이 나온다구?? 그게 숫자로 이루어진 모든 데이터가 W라는 공식을 거치면 각각의 경우의 알맞는 정답이 나오게 하는 단 하나의 매우매우 복잡한 공식을 찾는 과정이라고?? ㄷㄷㄷㄷ 그런 공식이 존재한다는겨??
쉽게 설명하면 1,000개의 차원이란, 어떤 단어를 구성하는 1,000개의 좌표, 또는 속성이나 스텟에 비유 할 수 있겠네요. 어떤 요소를 수천-수만가지의 속성/좌표로 수치화할 수 있다면, 특정한 수천-수만가지의 속성/좌표로 어떤 요소를 표현해낼 수도 있겠죠. 그리고 이 값들을 어떻게 연산함으로서, 이에 연관된 새로운 요소를 표현할 수도 있을 거고요. 그렇기에 그림 AI같은 것도 등장할 수 있겠죠. 재밌는 것은, 그 수많은 단어(요소)들을 어떻게 하나의 좌표계에 나열할 수 있었느냐 같습니다. 그리고 만일 사람에 의한 학습으로 배치된 단어(요소)의 범위 밖으로 한참 벗어난 좌표는 어떻게 될까요? 새로운 단어(요소)를 만들어낼까요? 아니면 그 영역이 바로 현 AI의 한계점이 될까요? 재밌네요.
수천년 바둑을 둬온 인간은 1년여의 개발 기간을 가진 알파고에게 패했습니다.하지만 그 뒤 나온 알파 제로는 알파고를 상대로 3일만에 백전백승합니다.이제는 인간이 AI에게 바둑을 배우는 시대가 됐죠. 괴델의 불완전성 정리의 증명도 결국 모든 것을 수로 바꿀 수 있다는 것에서 출발합니다.수로 바꿀 수 있다는 것은 연산이 가능하다는 것이고, 연산이 가능하다는 것은 2진법으로 바꿀 수 있다는 것이고, 이것은 컴퓨터가 처리할 수 있다는 얘기죠.인간의 창의성과 논리?인간의 고유의 능력은 아니라 생각합니다. 특이점은 2045년 안에 옵니다!
질문이 있습니다 결국 딥러닝이란 건 무수히 많은 데이터를 가중치(w)에 따라 관계 짓는(벡터의 차) 것이라고 축약할 수 있겠는데요 (엄밀하게 말하면 많은 왜곡이 있는 설명이겠지만요) 그렇다면 언어 기준으로, 기존의 방대한 데이터를 왜곡할만 한 페이크 데이터가 전 세계적으로 잔뜩 주입된다면, 딥러닝의 가중치 값에도 영향이 생길 우려가 있을까요? 예를 들면, 인류의 데이터는 지금껏 ‘남과 여’와 ‘킹과 퀸’을 유사 관계로 사용해왔는데, 축적된 이러한 데이터를 위협할만 한 양의 가짜 데이터(예 : 남과 여의 관계는 퀸과 킹의 관계다)가 전 세계적으로 주입된다면, 가중치가 달라져 인공지능이 제대로 된 역할을 하지 못하게 되는 것이 아닌가 싶은 겁니다 이 생각이 맞다면 앞으로는 데이터 전쟁이 일어날 우려도 있을까요?
이해하시부분이 맞습니다. 페이크 데이터가 많이 주입된다면 모델이 이상하게 학습이 되겟죠. 하지만 모델이 학습을 할때, 페이크 데이터인지 아닌지를 안다면 우려하신 부분은 어느정도 감내할 수 있다고 생각합니다. 실제로도 chatgpt는 chatgpt가 생성한 문장인지 아닌지를 가릴 수 있는 부분도 포함하고있습니다.
@@newwave2873 바이러스와 백신의 관계처럼 앞으로 AI기술 역시 발전과 함께 그에 따른 안티테제도 함께 발전할 것 같은데요, 그렇다면 미래에는 데이터 교란을 목적으로 페이크 데이터를 이용한 테러나 범죄를 일삼는 집단이 생길 가능성도 있을까요? 새로운 지식을 접하니 이런저런 흥미로운 생각들이 마구 떠올라서 재밌네요
@@Leenuuuu 미래의 상황은 어떻게 될지는 모르겟지만, 데이터가 페이크인지 아닌지는 모델이 판단할 수 있는 방법은 여러가지가 있긴합니다. 그리고 또한 페이크 데이터들이 있다고 안좋은 것이 아니라 좋은 측면으로 봣을땐 데이터를 늘려서 학습을 하는 부분도 있어서 정확도도 오를수 있는 측면도 있습니다.
갓난아이가 이해도 못하면서 계속 웅얼웅얼 따라하다가 결국 언어를 배우고 교육을 받고 사고를 하는 발달 과정과 매우 흡사하네요. 인간의 뇌도 수많은 뉴런들의 시냅스 연결만 있을 뿐 어떻게 고등 사고를 하는지 모르는 것처럼~ 인공지능, 인공신경망도 인간의 신경망과 유사한 환경을 만들어주니 비슷한 양상을 보이는군요. 인간의 영감이나 창의성도 결국 학습한 지식들 속에서 숨은 질서와 유사성을 찾는건데 데이터와 처리속도가 월등한 AI 가 그런 응용까지 된다면 진짜 인간의 지능과 대등해지거나 뛰어넘는 날이 올지도 모르겠습니다.
AI가 언어 학습에 대한 과학자들의 이해를 바꾸고 있다. / 검색하시면 나오는데 흥미롭습니다. 실제 사용하는 일상언어는 정규적이지 않고 혼란스러움 언어학자들은 이런 제멋대로인 특성을 억제하기 위해서 일종의 접착제 역할로서 "문법"이 필요하다고 생각했음 하지만 대규모 AI 언어 모델은 방대한 양의 언어 데이터 기반으로 언어를 구사하며, 놀랍게도 대부분 문법의 도움이 없이 가능 만들어낸 문장의 단어 선택이 이상하거나 무의미 한 경우도 있지만, 대부분 문법적으로 정확 다음 단어를 생각해내는 능력에 있어서 이 AI모델과 사람의 뇌는 비슷하게 동작함 GPT-3는 인간의 2만년 분량의 언어 경험으로 훈련되어서 그렇다고 생각할 수 있지만, 연구에 의하면 약 1억 단어로 훈련된 GPT-2도 인간의 두뇌가 다음 단어를 생각하는 것과 비슷하게 가능 (1억 단어는 평균적인 어린이가 10년간 듣는 단어량과 비슷함) 이게 증명하는 것은, 단순히 노출 만으로도 충분히 좋은 문법의 문장을 생성할수 있을 만큼 언어를 잘 배우고, 인간의 두뇌 처리와 유사한 방식으로 학습할 수 있다는 것 수년 동안 많은 언어학자들은 기본 제공되는 문법 템플릿 없이는 언어학습이 불가능 하다고 믿어왔음 하지만 새로운 AI 모델들은 그렇지 않다는 것을 증명함. 문법적인 언어를 생성하는 능력이 언어적 경험으로 배울수 있다는 것을 보여줌 즉, 아이들이 언어를 배우는데 있어서 문법보다는 언어 경험이 더 중요하다는 것
우리가 정신병 같은 케이스가 아닌 정상적인 사람의 케이스를 모아놓으면 통계적으로 일정한 범위가 나올테고... 그 범위에서 AI가 움직인다면 사람이 하는것과 차이를 사람이 느낄수 있을까? 그리고 그 범위에서 뛰어난 사람이 결과를 만들어내는걸 AI가 압도적인 시행횟수를 모아놓은걸로 결과를 만들어 낼수 있지 않을까?
인간의 다른 부분을 이해하지 않고 언어 데이터만 가지고도 실제 쓰이는 현실언어의 모델을 인공지능이 스스로 만들어냈다는 거구나.... 측정 가능한 정보(숫자놀음)이기만 하면 인공지능으로 뭐든 실제 사용되는 세상을 아주 정확히 예측하는 모델을 만들 수 있다는 거네요(단 데이터가 대량으로 있는 경우에만). 뭔가 빠진거 같은게.... 이게 언어에 대한 모델이 아니라 언어 서술(언어들 사이의 관계성에 대한) 모델인거 아닌가요?
알파고 생각하면 계속 달라질거 같아요. 같은 바둑규칙을 적용하고 흑백돌을 364개의 점에 올려놓는 게임도 매번 다른 기보가 튀어나오잖아요. 똑같은 영어로 똑같은 첫 질문은 바둑으로 치면 초반수순이니 거의 같을수 있겠지만 그걸 계속 반복하다보면 무수한 경우의 수가 나올거고 결국엔 다른 문장, 대답이 나올거 같습니다.
벡터라는 용어하고 차원이라는 용어가 좀 상황에 맞지않고 안어울리는 표현이라는 생각이 듭니다. 왜냐하면 그래픽용어에 벡터라는 표헌이 있고 우리가 아는 2차원, 3차원이라는 용어하고 컴퓨터에서 다루는 수백가지 항목의 변수를 차원으로 표현한다면 말이 안되기 때문입니다. 그러니까 우리가 흔하게투사용하는 차원이라는 용어는 1차원은 선의 세계이고 2차원은 면의 세계 3차원은 입체의 세계이고 4차원은 입체에 시간을 더한 동영상 같은 세계인데 여기서 차원을 하나씩 더할때마다 아예 개념 자체가 바뀌는 것이 차원이라는 용어인데 컴퓨터에서 다루는 차원은 그냐으항목 하나만 는것이라 수맥, 수천, 수만가지를 더해도 그냥 데이타 하나가 더 는것처럼 처리가 가능하기때문에 ai에서 사용하는 용어로 차원이라는 말은 전혀 어울리지 않는 표현입니다. 오히려 이것보다 더 적합한 용어가 많이 있겠지만 함수라는 표현이 차원이라는 표현보다는 좀더 실제를 표현하는데 어울린다고 생각합니다. 예를들어 자동차라는 함수에 어떤 항목 즉 크기, 무게, 재료, 용도, 응용 등 어떤 항목을 넣어도 자동차라는 함수에 포함시킬수 있지만 차원이라는 용어에 집어넣으면 전혀 말이 안되는 상황이 됩니다.
ChatGPT 시리즈
1편(ChatGPT 원리) ruclips.net/video/6-55fAV90TE/видео.html
3편(A.I. 감정을 이해?) ruclips.net/video/UlNi1jFcSSA/видео.html
아이큐ㅡ 170인 봇한데ㅣ 아직 멀었다. 20년 이상은 걸릴듯. 쓸만한.인공지능은
챗gpt 너무 재밌다... 좀 복잡한 거 물어보면 바로 급발진하면서 장문을 갈겨버리는 게 흡사 이 채널의 누군가를 보는 것 같아. .
네? 무슨 말씀이신지 도저히 이해가네요
ㅋㅋㅋ
궫GPT
@@taehunkim3756 네?ㅋㅋㅋㅌㅋㅋㅋ
@@iwillneverbeamemory5462 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
유니 랩짱님 눈미소만봐도 좋은데,
Chat GTP! 내용까지 재미있네요!
설명 정말 기가 막하게 하시네요... 딥러닝이니 프로그래밍이니 하나도 모르는 사람인데 이해가 쏙쏙 됩니다
피타고라스!
이거 설명보니까 예전 매트릭스 영화 속 세계가 디지털로 분화되는 그 비주얼표현이 참 적절했던거였구나 하는 생각이 드네요 재밌습니다
결국 우리 세계도 모두 숫자로 구성되어있겠죠?
이 분 채소 천재임.
임베딩 벡터 놀음에 대해 처음 들었고 쭉 기억할 거 같음...
하 대표님 진짜 너무 쉽습니다... 유레카!!! ㅋㅋㅋㅋㅋ 대박이다 진짜 ㅋㅋㅋㅋㅋ
"인공지능과 자연어 처리 기술은 비즈니스 환경에서도 혁신을 가져올 수 있을 것 같아요. 자동화와 효율성 향상에 도움이 될 것입니다."
와... 1편 보고 2편 보는중인데 감탄밖에 안나오네요... 점점 인간의 지능, 감성의 영역마저 숫자화 될 수 있다는게 놀랍습니다
오랜만에 봐도 설명이 기깔나는 남세동 대표님
인공지능을 다룰려면 벡터맨이 돼야합니다.
해외에서 학교다니는데 엄청 편리해용
엄청 신기하다. ' 숫자 ' 라는 표현으로 세상을 정의해버렸네요.
이게 좀 무서운게 이제 거짓말이라고 하기 시작했다는 것 같습니다.
예전에 저런 챗봇이 사실과 다른 정보를 이야기하면 틀린 정보를 줬다고 할텐데 이젠 거짓말 한다라고 말하기 시작한게 아마 사람들도 무의식적으로 동등한 지식이나 지능을 갖춘 대화가 가능한 대상으로 여기고 있다는 것 아닐까 싶네요
컴퓨터 번역이 좋아진게 단순히 통계가 늘어서 인 줄 알았는데 숫자로된 공용어를 사용할 수 있게 되버린거 였네요. 영어 공부를 안해도 될 날이 멀지 않아 보이네요.
거꾸로 말하면 인간의 언어를 좀 더 가다듬는 게 필요하다는 얘길 수도 있죠. 더 많은 단어를 알고 외국어도 배워야 한다는.
왜냐하면 . 벡터 간의 차를 통해서 단어 간의 연관성을 알 수 있다고 했는데
인간의 언어에는 분명 느낌은 있는데 말하고 싶은 단어가 없는 경우가 있죠. 뭔가 가려운데 긁을 수 없는 느낌처럼.
벡터 간의 차로 계산 가능한 직관적으로는 그 위치에 있어야 할 단어가 인간의 언어 사전에서 누락된 경우.
@@nathanlee8329 맞습니다. 언어학을 전공하는 분들에겐 기존에 영어의 위상보다 더 중요한 언어가 등장한거니 더 깊이 연구 되어야 겠지요.
와 진짜... 어떻게 이렇게 쉽게 설명할수있지.. 이런 영상을 집에 누워서 볼 수 있는게 정말 감사할뿐이네요!!
1부에 이어 너무 이해하기 쉬운 영상 감사드립니다.
이시기에 정말 빠르고 유익하고 좋은 정보 프로그램 최고~!
지능의 정체에 대한 철학적 설명이네요
대표님이 쉽게 잘 설명 + 옆에서 어시를 잘해주니까 이해도 쉽고 재밋네요
인공지능에 대한 이해를 도와 주셔서 감사합니다. 인공지능의 영향으로 많은 인간의 질적향상이 일어 날 것입니다. 동시에 소스 제공자에대한 존중도 일어나야합니다. 박사님은그림ai를 말하면서 그림 소스가 데이터로만 존재해있기 때문에 그림를 자체를 사용한것은 아니라 하셨지만, 엄밀히 말하면 그림을 데이터화 했을 뿐 소스가된 그림을 사용하지 않았다 할수없습니다. 스테이크를 곱게갈아 다짐육을 만들어 미트볼을 만들었다고 스테이크를 사용하지 않았다 할수없는것 처럼요. 기술이 발전될수록 지속가능한 시장을 만들기위해선 제공자와 사용자사이에 윤리적 보장이 뒷바침되어야만 합니다
여기서 좋은 w를 찾는다고 하는데, 이 좋은 w가 에러함수를 그려봤을 때 global minimum이 아니라, local minimum을 찾죠... local minimum에서 벗어나기 위해 step size를 키우는 등 여러가지 노력들을 하긴 하는데, 신기한건 global minimum을 꼭 찾지 않아도 local minimum으로도 웬만한 퍼포먼스가 나온다는 것. 왜 그러는진 몰?루?
원리는 정확히 모르지만 원하는 결과가 나온다는게 엄청 소름돋네요. 다들 잘 모른다는 것을 감추는건지 말 안하는건지 그냥 두리뭉실하게만 넘어가더니 확실히 이렇게 짚어주시니 궁금했던 것들이 많이 해소됐습니다.
예전에 뇌에관한 책을 읽은적 있는데 거기서 설명한 뇌가 움직이는 방식이랑 비슷하네용
정확하게 그 뇌의 움직임을 모방하려고 하는 게 딥러닝의 핵심입니다.
그럼 각 언어에서 나오는 벡터의 차이가 문화의 차이라고 이해할 수 있겠네요...
GPT의 발전이 게이머에게 비극인 이유가 이 영상을 보면 잘 알 수 있습니다.
GPT는 결국 죄다 벡터의 계산인데, 이 세상에서 지금 가장 가성비 쩌는 벡터 연산 전용 기계가 바로 게임용 그래픽 카드입니다.
GPT 기반의 인공지능이 발전하면 그래픽 카드 가격이 ....
그래서 이미 그래픽카드 가격도 엔비디아 주가도 하늘로 승천중...
그 걱정은 조만간 없어질겁니다.
사실 GPU는 그런 것 때문에 나온 게 아니라서
전력을 굉장히 많이 잡아먹거든요.
그리고 채굴 형태의 그래픽카드가 가격이 올라간 결정적인 이유는 한 사람이 많은 그래픽 카드를 구매해서 그렇습니다.
하지만 GPT의 발전은 GPU를 많이 병렬방식을 넣는 것보다 NPU이라는 주문형 반도체를 만드는 게 좀 더 전성비와 가성비가 좋은데다가
개인이 GPT의 발전을 위해서 GPU를 대량으로 구매하는 경우는 없을 겁니다.
채굴 형태의 그래픽 카드는 꽤 많은 채굴러들이 대량으로 구매했기에 품귀현상이 발생한 겁니다.
지금 그래픽 카드 가격이 올라가는 건 GPT 영향이라기보단 인플레이션이 미치는 상황에 아직도 1200원대 중반에 해당하는 환율 영향이 더 크죠
24:00
챗gpt에게 한 수 배우고 갑니다.
실시간도 봤지만, 다시 보는데도 너무 좋아요~
빨리 3부좀~
챗gpt는 수학은 잘 못하는것같더라고요. 조금 헷갈리는 문제를 주고 이거 맞아? 라고 물으면 미안하다고 다른답을 주는데 같은 질문을 하면 다시 돌아옵니다
이해가 쏙쏙
정말 재미있게 이해가 쏙쏙 된다라고 생각한 순간부터 난 치킨무를 큰 것부터 골라먹기 시작했다.
국가별 gdp와 같은 수많은 정보들이 W의 형태로 존재한다는 것이 정말 신기하네요- 오늘도 좋은 강의 감사합니다.
그러면 이집트어나 고대어 번역에 벡터화한 값을 이용하면 그동안 풀리지 않던 문장들에 대한 실마리를 얻을지도 모르겠네요
저거 단어 유사도로 맞추는거 꼬맨틀이라고 우리나라버전도 있던데
ChatGPT가 한글을 잘 지원 안해서 아직 우리나라에서는 그냥 신기하다 정도인거 같은데 새로운 버전이 나와서 한글도 지원하고 유료 버전이 나와서 훨씬 더 퀄리티가 높아지면 앞으로 창작 분야나 큰 대회, 시험 등에서 인간과 인공지능을 구별하는 것이 큰 과제가 될 것 같네요.
우리나라 뿐만 아니라 전세계적으로도요...
학습속도를 보면 언어학습도 빠를듯...
네이버가 상반기에 챗봇 낸다고 했어요!!!
매트릭스 영화에 01011 막 이런 숫자화 되어 있던게 점점 현실화 되어감
ai가 인류를 노동에서 구원해준다면, 노동이 없는 자본은 과연 어떻게 지속되어야 하는걸까요? 그것도 ai가 답을 알고 있을까요?
일단 노벨경제학상 수상자도 감탄할 만큼 발전해야 해답을 알려줄 것 같습니다. 아직 ai 능력이 쪼오금 부족한듯
챗지피티 시리즈 넘 재밌어요
볼수록 놀랍네
... 이세계는 시뮬레이션이 맞나보다.
저번 영상에서 유튜브 제목을 chatGPT가 만들어낸 것처럼 이번 chatGPT 시리즈 두개의 제목을 넣고 다음 제목을 생성해달라니까
"ChatGPT의 미래: 인공지능 생성 모델의 활용과 개선점 (보이저엑스 남세동 대표) [ChatGPT 시리즈 3/3]"
라고 생성해주네요. 너무 재밌고 신기합니다.
정말 너무나도 유익한 랩미팅이었습니다. 쉽지만 명확히 전달해주셔서 잘 이해할 수 있었습니다. 감사합니다.
수십테라 데이터를 가지고 학습을 해서 신경망이 0.7 테라 정도로 만들어지면 그건 이제 모델링이 끝난 인간의 뇌와 같은 인풋아웃풋이 있는 인간이 뜯어볼 수 없는 엄청나게 큰 하나의 공식과 같은 것으로 만들어지고 거의 인간과 같은 늙지않고 영원히 존재할 수 있는 뇌가 하나 만들어 지는 것... 인간의 뇌를 참고해서 만든게 딥러닝 신경망이니 어쩌면 인간은 더 단순할 수도 있다..
인간의 파라메터는 1000조개
ChatGPT 3.5는 1750억개 라고 하네요
아니 그니까 '안될' 에 곱하고 빼서 과학 을 도출해내는 W값이 있는데 그 W값으로 '대한'에 계산하면 민국이 나온다구?? 그게 숫자로 이루어진 모든 데이터가 W라는 공식을 거치면 각각의 경우의 알맞는 정답이 나오게 하는 단 하나의 매우매우 복잡한 공식을 찾는 과정이라고?? ㄷㄷㄷㄷ 그런 공식이 존재한다는겨??
ax+b 는 2차원, ax+by는 3차원 ax+by+cz는 4차원 여기서부터 그림으로 그릴수도 없죠. gpt 구조를 저는 잘 모르지만 적어도 수천차원입니다. 그런 함수를 당연 인간은 이해하기 어렵죠..
28:20 이제 숙제 없어지는거 아님 ㅋㅋ? 개꿀이네
당신의 생각까지 읽는 것은 아직 없다
업무를 얘가 다 해결해주네요...ㅠㅠ 별볼일없는 사무직은..ㅠㅠ
hexadecimal 이 16진법인데 16진법이 컴퓨터에서 2진법으로 숫자 표기 할 경우 너무 길어져서 4개씩 묶어서 사용한다네요. 그럼 0001+0001 =0010 의 답을 chat GPT가 내놓은 거 아닐까요?
세상은 수로 이루어져있다. -피타고라스
쉽게 설명하면 1,000개의 차원이란, 어떤 단어를 구성하는 1,000개의 좌표, 또는 속성이나 스텟에 비유 할 수 있겠네요.
어떤 요소를 수천-수만가지의 속성/좌표로 수치화할 수 있다면, 특정한 수천-수만가지의 속성/좌표로 어떤 요소를 표현해낼 수도 있겠죠.
그리고 이 값들을 어떻게 연산함으로서, 이에 연관된 새로운 요소를 표현할 수도 있을 거고요.
그렇기에 그림 AI같은 것도 등장할 수 있겠죠.
재밌는 것은, 그 수많은 단어(요소)들을 어떻게 하나의 좌표계에 나열할 수 있었느냐 같습니다. 그리고 만일 사람에 의한 학습으로 배치된 단어(요소)의 범위 밖으로 한참 벗어난 좌표는 어떻게 될까요? 새로운 단어(요소)를 만들어낼까요? 아니면 그 영역이 바로 현 AI의 한계점이 될까요? 재밌네요.
이 세상은 w라는 값에 의해 만들어진 시뮬레이션 인건가요...
인간이 gpt를 만들었는데 gpt의 수학적 논리를 못찾는 지경까지 왔다니.. 내가 이해를 해서 만들었는데 그렇게 만든로봇이 어떻게 생각하는지 이해를 못한다라는 정신나간 상황
3편 빨리 올려요!!! 빨랑!!!!!!!!!!!!!!!!!!!
참고자료가 없고 모든 게 숫자놀음.. 이게 어떻게 가능하지..?
마지막에 거짓말을 할 줄 안다는 사실을 발견한 것이야말로 대단한거 아닌가요?
수천년 바둑을 둬온 인간은 1년여의 개발 기간을 가진 알파고에게 패했습니다.하지만 그 뒤 나온 알파 제로는 알파고를 상대로 3일만에 백전백승합니다.이제는 인간이 AI에게 바둑을 배우는 시대가 됐죠.
괴델의 불완전성 정리의 증명도 결국 모든 것을 수로 바꿀 수 있다는 것에서 출발합니다.수로 바꿀 수 있다는 것은 연산이 가능하다는 것이고, 연산이 가능하다는 것은 2진법으로 바꿀 수 있다는 것이고, 이것은 컴퓨터가 처리할 수 있다는 얘기죠.인간의 창의성과 논리?인간의 고유의 능력은 아니라 생각합니다.
특이점은 2045년 안에 옵니다!
알고리즘으로 알게된 예언자가 말한 숫자로된 책을읽는 사람이생긴다라는건 ai로봇같은걸까나
질문이 있습니다
결국 딥러닝이란 건 무수히 많은 데이터를 가중치(w)에 따라 관계 짓는(벡터의 차) 것이라고 축약할 수 있겠는데요 (엄밀하게 말하면 많은 왜곡이 있는 설명이겠지만요)
그렇다면 언어 기준으로, 기존의 방대한 데이터를 왜곡할만 한 페이크 데이터가 전 세계적으로 잔뜩 주입된다면, 딥러닝의 가중치 값에도 영향이 생길 우려가 있을까요?
예를 들면, 인류의 데이터는 지금껏 ‘남과 여’와 ‘킹과 퀸’을 유사 관계로 사용해왔는데, 축적된 이러한 데이터를 위협할만 한 양의 가짜 데이터(예 : 남과 여의 관계는 퀸과 킹의 관계다)가 전 세계적으로 주입된다면, 가중치가 달라져 인공지능이 제대로 된 역할을 하지 못하게 되는 것이 아닌가 싶은 겁니다
이 생각이 맞다면 앞으로는 데이터 전쟁이 일어날 우려도 있을까요?
이해하시부분이 맞습니다.
페이크 데이터가 많이 주입된다면 모델이 이상하게 학습이 되겟죠.
하지만 모델이 학습을 할때, 페이크 데이터인지 아닌지를 안다면 우려하신 부분은 어느정도 감내할 수 있다고 생각합니다.
실제로도 chatgpt는 chatgpt가 생성한 문장인지 아닌지를 가릴 수 있는 부분도 포함하고있습니다.
@@newwave2873 바이러스와 백신의 관계처럼 앞으로 AI기술 역시 발전과 함께 그에 따른 안티테제도 함께 발전할 것 같은데요, 그렇다면 미래에는 데이터 교란을 목적으로 페이크 데이터를 이용한 테러나 범죄를 일삼는 집단이 생길 가능성도 있을까요? 새로운 지식을 접하니 이런저런 흥미로운 생각들이 마구 떠올라서 재밌네요
@@newwave2873 그거 신기하네요. 그런게 없었으면 결국 chatgpt 자기 학습이 되버릴 지도 ㅋㅋ
@@Leenuuuu 미래의 상황은 어떻게 될지는 모르겟지만, 데이터가 페이크인지 아닌지는 모델이 판단할 수 있는 방법은 여러가지가 있긴합니다.
그리고 또한 페이크 데이터들이 있다고 안좋은 것이 아니라
좋은 측면으로 봣을땐 데이터를 늘려서 학습을 하는 부분도 있어서
정확도도 오를수 있는 측면도 있습니다.
@@luin8965 자기학습이란 개념도 있습니다. 대표적인 예론 알파고가 있죠
알파고는 알파고끼리 바둑을 두어 어떻게 해야 바둑에서 승리를 할지 스스로 학습합니다.
감사합니다.
W 값이 차원으로 이해됩니다.
이제 ChatGPT 원리를 대충 이해하겠습니다.^^
와... 이거 보니까 모든 우주가 다 숫자로 되어있다는게 말이 되구나....
갓난아이가 이해도 못하면서 계속 웅얼웅얼 따라하다가 결국 언어를 배우고 교육을 받고 사고를 하는 발달 과정과 매우 흡사하네요.
인간의 뇌도 수많은 뉴런들의 시냅스 연결만 있을 뿐 어떻게 고등 사고를 하는지 모르는 것처럼~
인공지능, 인공신경망도 인간의 신경망과 유사한 환경을 만들어주니 비슷한 양상을 보이는군요.
인간의 영감이나 창의성도 결국 학습한 지식들 속에서 숨은 질서와 유사성을 찾는건데
데이터와 처리속도가 월등한 AI 가 그런 응용까지 된다면 진짜 인간의 지능과 대등해지거나 뛰어넘는 날이 올지도 모르겠습니다.
동감합니다.
AI가 언어 학습에 대한 과학자들의 이해를 바꾸고 있다. / 검색하시면 나오는데 흥미롭습니다.
실제 사용하는 일상언어는 정규적이지 않고 혼란스러움
언어학자들은 이런 제멋대로인 특성을 억제하기 위해서 일종의 접착제 역할로서 "문법"이 필요하다고 생각했음
하지만 대규모 AI 언어 모델은 방대한 양의 언어 데이터 기반으로 언어를 구사하며, 놀랍게도 대부분 문법의 도움이 없이 가능
만들어낸 문장의 단어 선택이 이상하거나 무의미 한 경우도 있지만, 대부분 문법적으로 정확
다음 단어를 생각해내는 능력에 있어서 이 AI모델과 사람의 뇌는 비슷하게 동작함
GPT-3는 인간의 2만년 분량의 언어 경험으로 훈련되어서 그렇다고 생각할 수 있지만,
연구에 의하면 약 1억 단어로 훈련된 GPT-2도 인간의 두뇌가 다음 단어를 생각하는 것과 비슷하게 가능
(1억 단어는 평균적인 어린이가 10년간 듣는 단어량과 비슷함)
이게 증명하는 것은, 단순히 노출 만으로도 충분히 좋은 문법의 문장을 생성할수 있을 만큼 언어를 잘 배우고, 인간의 두뇌 처리와 유사한 방식으로 학습할 수 있다는 것
수년 동안 많은 언어학자들은 기본 제공되는 문법 템플릿 없이는 언어학습이 불가능 하다고 믿어왔음
하지만 새로운 AI 모델들은 그렇지 않다는 것을 증명함. 문법적인 언어를 생성하는 능력이 언어적 경험으로 배울수 있다는 것을 보여줌
즉, 아이들이 언어를 배우는데 있어서 문법보다는 언어 경험이 더 중요하다는 것
해킹으로 벡터값을 건드리면 큰일나겠네요
영화 메트릭스는 진짜임
다 숫자놀음이라니 너무 신기해요
마지막에 나온 16진법에서 1+1 이 10이 될수 있다는건
FFF2 를 1111 1111 1111 0010 으로 이해한것 같습니다. 코딩할때 저렇게 풀어서 주석에 많이 써서 ..
언어로 생각하면, 아직 해당 언어를 알지 못할 때, 처음 배우는 방식도 벡터의 형태로 배우는 것 처럼 느껴지네요.
좋은 영상 감사합니다.
메시-호날두= 리덩국 ? 읭? 리덩국?
임베딩 벡터 뭔가 유전자가 연상이 되네요
어떤 unix 명령줄 도구 옵션에 대해 물어보는데, 질문 문장구조에 따라 동일 옵션에대한 답이 계속 달라지더라고요. 마지막 말씀처럼 chatgpt가 정확한 정답만 내놓지않는걸로 보여 대답을 100%신뢰하기는 어려울것같아요.
AI챗봇의 거짓말이라는건 어떤건가요?
정보의 오류로 인한 틀린답을 내놓는걸까요?
아니면 정답을 알고있지만 일부러 오답을 내는건가요?
정보의 오류일 확률이 크죠
그 뿐만이 아니라 정보가 너무나도 부족해서 우리가 원하는 답이랑 핀트가 맞지 않는 것일 수도 있습니다.
정답을 알고 있음에도 오답을 내는 건 학습하려고 하는 (사람이 작성한)데이터에 존재할 수도 있겠네요.
이게 이해가 된다고요?
우리가 정신병 같은 케이스가 아닌 정상적인 사람의 케이스를 모아놓으면 통계적으로 일정한 범위가 나올테고... 그 범위에서 AI가 움직인다면 사람이 하는것과 차이를 사람이 느낄수 있을까? 그리고 그 범위에서 뛰어난 사람이 결과를 만들어내는걸 AI가 압도적인 시행횟수를 모아놓은걸로 결과를 만들어 낼수 있지 않을까?
못느끼겠죠..영화 매트릭스에서 말하는게 그 내용
가상현실 속에서 잠시 기억을 지울 수 있다면 ㄹㅇ 실감나는 게임을 할 수 있겠네 언어모델 NPC들이 진짜 사람으로 느껴질테니까 ㅋㅋ 언어모델 NPC일뿐이니까 살인, 강간도 허용될거고
벡터와 미적분,행렬은 역시 테슬라 AI알고리즘이 최고죠.
chatGTP는 아주 사소한 것임을 알게될것입니다^^
테슬라 AI도 다뤘습니다.
기존의 사물인식 개념임
빅스비 켜보면 베타 느낌으로 맛 볼 수 있음
의미라는 좌표계에 같은 좌표에는
같은 의미들이 존재한다라는 느낌인건가요?
인간의 다른 부분을 이해하지 않고 언어 데이터만 가지고도 실제 쓰이는 현실언어의 모델을 인공지능이 스스로 만들어냈다는 거구나.... 측정 가능한 정보(숫자놀음)이기만 하면 인공지능으로 뭐든 실제 사용되는 세상을 아주 정확히 예측하는 모델을 만들 수 있다는 거네요(단 데이터가 대량으로 있는 경우에만). 뭔가 빠진거 같은게.... 이게 언어에 대한 모델이 아니라 언어 서술(언어들 사이의 관계성에 대한) 모델인거 아닌가요?
해석 못하는 고대 문자도 분석이 가능해질 수 있겠네요. 외계 신호, 언어 파악이라던지..
방금 딱 1부 봤는데
뉴욕에서 대학교 다니는중인데
100명 규모 강의에서 교수가 첫수업으로 챗gpt쓰지 말라고 하는데
굳이 그런게 있다고 이야기를 하면서까지 말하는건 시사하는 바가 많은것 같습니다
통신 가능 빅데이터 아닌가요? 진정 창조 AI 느낌은 아닌듯이요
인간의 뇌의 활동을 그대로 구현해낸 메커니즘에 좀 더 가깝습니다.
그렇기 때문에 우리가 아직 완벽하게 해석을 하지 못 하는 거구요.
그 말은 반대로 돌려 말하면 뇌를 통해서 인간이 할 수 있는 영역이라면
GPT가 못 할 이유가 존재하지 않는다. 가 좀 더 정확합니다.
우주에서 하이킹
질문 있습니다. 만약 같은 ai로 뉴욕의 촬스와 서울의 내가 영어로 똑같은 질문을 하면 답도 똑같나요?
만약 같다면 그 대답으로 똑같은 질문을 만들어서 똑같이 10번 반복하면 모든 과정이 일치하니 마지막 답도 똑같을까요?
알파고 생각하면 계속 달라질거 같아요. 같은 바둑규칙을 적용하고 흑백돌을 364개의 점에 올려놓는 게임도 매번 다른 기보가 튀어나오잖아요. 똑같은 영어로 똑같은 첫 질문은 바둑으로 치면 초반수순이니 거의 같을수 있겠지만 그걸 계속 반복하다보면 무수한 경우의 수가 나올거고 결국엔 다른 문장, 대답이 나올거 같습니다.
다음 단어를 무조건 가장 높은 확률만 선택하게 만들진 않았을거 같네요. 일정 확률 이상을 충족한 단어 풀 중에 고르는 형태라면 달라지겠네요.
남자에서 여자를 빼서 성별이란 의미를 만든거네
gpt 입장에서는 남대표님이 거짓말 하는 걸로 보일테니까요 ^^ 대표님을 수학적으로 훈련시키려고 한거 아닐까요? ㅋㅋㅋ
미쳤다 ㅋㅋㅋ 와
생각보다 답변해주는게 멍청하던데
롤 다이아 가려면 어케해야되냐고 물어봣더니 레벨을 잘 올리고 다이아를 구매하면 갈수잇다고 답변주더라
여편네가 있는 이유 : 내무부장관이 있는 이유.
이제 우린 뭘먹고 살아야하나유 ㅜㅜ
인공지능이 자기가 이해 있게 데이타베이스를 만든 것
너무 잘 설명해주셔서 감사합니다. 그래도 영어로 사용했을때의 충격은 잘 전달이 안되는거 같네요, 실로 엄청나니까... 전 현재 하고있는 거의 모든일에 적게든 많게든 chatGPT 를 사용하고 있고, 이제 한달 남짓하지만 이게 없던 시절로 돌아가는건 상상도 못하겠네요..
'아무튼 된다'
남대표님 ! 소중한 말씀 잘 들었습니다. 지식과 경험, 열정이 느껴집니다. 인공지능이 기술을 넘어 문화가 될수 있도록 재능을 나눠 주세요.
재밌습니다. 람다도 구글에서 공개한다는데 람다 나오면 다시 설명해 주시죠?
이제 논문 대필은 다 끝났네
cb8b
벡터라는 용어하고 차원이라는 용어가 좀 상황에 맞지않고 안어울리는 표현이라는 생각이 듭니다.
왜냐하면 그래픽용어에 벡터라는 표헌이 있고 우리가 아는 2차원, 3차원이라는 용어하고 컴퓨터에서 다루는 수백가지 항목의 변수를 차원으로 표현한다면 말이 안되기 때문입니다.
그러니까 우리가 흔하게투사용하는 차원이라는 용어는 1차원은 선의 세계이고 2차원은 면의 세계 3차원은 입체의 세계이고 4차원은 입체에 시간을 더한 동영상 같은 세계인데 여기서 차원을 하나씩 더할때마다 아예 개념 자체가 바뀌는 것이 차원이라는 용어인데 컴퓨터에서 다루는 차원은 그냐으항목 하나만 는것이라 수맥, 수천, 수만가지를 더해도 그냥 데이타 하나가 더 는것처럼 처리가 가능하기때문에 ai에서 사용하는 용어로 차원이라는 말은 전혀 어울리지 않는 표현입니다.
오히려 이것보다 더 적합한 용어가 많이 있겠지만 함수라는 표현이 차원이라는 표현보다는 좀더 실제를 표현하는데 어울린다고 생각합니다.
예를들어 자동차라는 함수에 어떤 항목 즉 크기, 무게, 재료, 용도, 응용 등 어떤 항목을 넣어도 자동차라는 함수에 포함시킬수 있지만 차원이라는 용어에 집어넣으면 전혀 말이 안되는 상황이 됩니다.
소름돋네 결국 인간이란 종의 언어체계에는 어떤 벡터 덩어리가 있고 이걸 정확하게 찾아내면 딱히 자료가없어도 완벽한 해석툴이 만들어진다는건데... 이걸 기반으로 만약 인간의 다른 지성에 관한 벡터를 찾아낼 수 있다면? 언젠가는 영혼 그 자체를 창조해 낼 수 있을듯
실제로 이러한 벡터 관계를 바탕으로 현실 역시 시뮬레이션된 우주라고 말하는 사람들도 있지요
아뇨 영혼은 못만듭니다. 영혼이란건 학습할수 있는데이터가 아니라서 학습할수도 만들어 낼수도 없어요
@@hamter_Kong 영혼이라 썼지만
지성체라고 부르면.. 가능할지도
다시 말해 인공지능은 사람이 인위적으로 만들어낸 단어를 벗어나 생각하지 못 한다.
인간의 언어 자체에 커다란 맹점이 있으면 인공지능도 바보 같은 말만 할 운명인 거임.
곧 그것도 추론해서 하게 될 꺼야. 그것도 숫자를 가지고 있어서. 곧 인공지능이 새로운 언어를 창조해 낼 수도 있겠네
초보적인 단계일 수 있겠으나 이미 인공지능 스스로 언어를 발명하는 예가 보고되고 있습니다.
앞으로 더 발전할 거고요.
en.wikipedia.org/wiki/Language_creation_in_artificial_intelligence
강화학습에 대해 좀 공부하셔야 할 것 같습니다
그건 사람도 마찬가지입니다^^
인사할 시간도 많습니다. 여러분의 시간을 낭비해드릴.. 이 말들 도대체 무슨말이고 왜 하는건가요? 저는 들을때마다 별로던데요. 다른것으로 바꾸면 안되나요? 이거 투표한번 하심 어떨까요? 저는 진짜 별로인데. 제 생각만 그런건지. 저는 진짜 별로인 인트로입니다.
긴급과학 오프닝 멘트 반대로 쓴 건데 또 뭐가 그리 불편하시나 ㅋㅋ
안될과학 시그니처 멘트의 변형입니다
이게 시그니쳐인데 왜 바꿔요
ㅎ.
안보시면 되잖아요
불편하면 자세를 고쳐앉으면 도움이됩니다