AI 생성물로 다양성은 0으로 수렴한다. (2024년 7월 Nature 논문)

Поделиться
HTML-код
  • Опубликовано: 8 сен 2024
  • 🧑🏻‍💻 전체 영상 리스트: fxnnxc.github....
    ✍🏻 Brunch: brunch.co.kr/@...
    🍀 Blog: fxnnxc.github.io/

Комментарии • 166

  • @bumjini
    @bumjini  Месяц назад +9

    📝AI produces gibberish when trained on too much AI-generated data
    네이처 논문 링크 www.nature.com/articles/d41586-024-02355-z

    • @user-wg1dr5dn9m
      @user-wg1dr5dn9m Месяц назад +1

      안녕하세요! 위의 영상으로 구독을 시작한 구독자입니다. 혹시 natrue 논문을 보기 위해서는 별도의 금액 지불이 필요한가요? 감사합니다.

    • @bumjini
      @bumjini  Месяц назад

      @@user-wg1dr5dn9mopen access가 아닌 논문은 구독이나 지불이 필요합니다 😢

  • @HS-Mark-H
    @HS-Mark-H Месяц назад +178

    이게 그 디지털 근친 이라고 이해 하면 되나요?

    • @JAY.K
      @JAY.K Месяц назад +6

      ㅋㅋㅋ ㅓㅜㅑ

    • @dkdyddd
      @dkdyddd Месяц назад +35

      참... 답변하고싶지도 않고 답변해도 머리쓰고 고민하게 만드는 댓글이네요

    • @JAY.K
      @JAY.K Месяц назад +86

      @@dkdyddd 하지만 설명은 정확했죠? ㅋㅋㅋ

    • @user-se3rz4gm9t
      @user-se3rz4gm9t Месяц назад +14

      실제로 그렇게 비유했다고는 합니다..

    • @Wsheep-sm4fq
      @Wsheep-sm4fq Месяц назад

      ​@@dkdyddd ㅋㅋㅋ 신박하다

  • @youtubeslave
    @youtubeslave Месяц назад +96

    결국 현재AI모델에 창의성을부여하는건 인간이네

  • @yvelkram
    @yvelkram Месяц назад +21

    새로운 AI 모델을 만들 때, AI로 만든걸 구분짓지 못하면 발생하는 최악의 시나리오를 학문적으로 제시한거 같음.
    전에 말로만 경계하던 점이 직접 모델 만들어서 증명해보려 한게 유의미한듯

  • @bumjini
    @bumjini  Месяц назад +68

    다양성이 0 이 되는 건 현실성이 없습니다.
    그러나 다양성이 0이 되는 특정 소수 그룹은 높은 확률로 발생합니다.
    이 영상에서 다양성이 사라진다는 건,
    선택적으로 사라지는 작은 가치들이 아닐까 싶습니다.

  • @greenfulmay
    @greenfulmay Месяц назад +73

    ChatGPT 대중이 쓰기 시작했을때, 23년초쯤. 데이터에 태깅을 해두거나 스냅샷 떠 두어야 하는게 아닌가 생각했었어요. "인류가 생성한 순도 높은 데이터 여기까지"라고..
    생각해 볼만한 시나리오라고 생각합니다. 이 영상 핫하네요! ;)

    • @bumjini
      @bumjini  Месяц назад +10

      AI 모델의 정수기 필터에 의해서 미네랄이 없어진 물...
      그래서 영상을 링크로 올리고 있습니당..

    • @magicwizcat
      @magicwizcat Месяц назад +3

      @@greenfulmay 인간의 창작이라고 과연 순도 높다고 할 수 있을까요? 인간 또한 남들이 하던 것을 복제해서 모방 하는게 대다수이고. 순수 창작이라 불리는 것들은 매우 극소수입니다.

    • @happinessthegreat9999
      @happinessthegreat9999 Месяц назад +3

      사라지진 않으니 걱정마세요 ㅎㅎ 커피 머신이 그리 좋아도 드립커피를 2배를 주고 마시고, 기계가 빵을 아무리 잘 만들어도 동네 수제 빵집은 많습니다. 기계와 Ai는 효율, 효과 극대화로 가지만 인간의 다양성 욕구는 AI가 이해를 못하기에 인간 수제 데이터 수요도 꾸준하긴 할겁니다. 매니아틱해지긴 하겠지만요.

    • @magicwizcat
      @magicwizcat Месяц назад +2

      @@happinessthegreat9999 극소수가 되고 주류는 바뀌는거죠. 지금 누가 MP3를 듣고 카세트 테잎을 듣겠나요? 전부 스트리밍 듣지. 물론 극소수는 테잎을 듣습니다. LP도 마찬가지고요.

    • @greenfulmay
      @greenfulmay Месяц назад +2

      @@magicwizcat 맞습니다~ 그래도 모델과 비교하자면, 현재의 LLM 들 보다는 꽤나 다양한 매커니즘의 모델들(인간마다 다른 모델)이 생성한 내용들이 아닐까라고 생각했는데요, 어느 정도 지나면, 다양한 인간들 수준으로 다양한 LLM 이 생성하게 될 것 같기도 하고, 또 인간들 사이의 매커니즘도 사실 크게 다르지 않을 수도 있을거라는 생각도 드네요 :)

  • @user-xb8gh5zg5f
    @user-xb8gh5zg5f Месяц назад +27

    연구자 혹은 개발자로서 이러한 문제들을 어떻게 해결할 수 있을지 고민해 보다가도 인간의 역할이 아직 남아있다는 점에서 왠지 모르게 안심이 되는 것 같습니다. 흥미로운 영상 잘 보고 갑니다 👍

    • @bumjini
      @bumjini  Месяц назад

      맞아요. AI 가 걷잡을 수 없이 빨라지지만 저희가 할 수 있는 부분은 존재하죠!
      할 수 있는 걸 조금 씩 찾아봐야겠어요 🙋‍♂

  • @eiliosice
    @eiliosice Месяц назад +25

    이는 인지과학과 철학에서 중요한 문제입니다. 인공지능의 경우 환경과 상호작용하는 신체가 없기 때문에 모든 출력이 오로지 입력되는 데이터에 의존하게 됩니다. 결국 확률적으로 수렴하게 되죠. 이는 생성형 인공지능이 일정 수준 이상의 능력을 발휘하지 못하는 문제의 유력한 원인 후보입니다. 다만 테슬라 자동차와 옵티머스의 경우 환경과 상호작용할 수 있는 센서가 있습니다. 따라서 다양성과 창의성을 챗봇보다 더 높게 유지할 수 있을 것으로 기대합니다. 이미 LLM 학습에 필요한 데이터셋이 고갈될 것을 경고하는 수준에 이르렀습니다.(물론 석유가 그러하듯 학습 효율 향상과, 새로운 데이터셋 발굴 등으로 실제 고갈될 확률은 낮습니다만 그만큼 남은 데이터셋은 학습을 위해 사용하기에 순도가 떨어지거나, 고갈될 위험이 있다는 것이죠.)
    이미 생성형 모델은 1950년대 철학계와 과학계에서 이론적으로 검토가 끝난 모델이며, 이론적 한계도 논리적으로는 확인된 상태입니다. 그래서 개인적으로는 또 다른 인공지능 모델이 혁신적인 돌파구가 되어 인공지능의 수준을 한단계 끌어올리지 않을까 기대합니다.

    • @bumjini
      @bumjini  Месяц назад +3

      환경과 상호작용으로 지속적으로 유의미한 데이터를 얻는 게 중요하군요.
      인지과학과 철학에 대한 이야기도 흥미로울 것 같습니다. 이를 기반으로한 새로운 모델이 꾸준히 개발되어야겠군요.

    • @user-cb1jh2oc7g
      @user-cb1jh2oc7g 25 дней назад +1

      혹시 관련된 인지과학, 철학 쪽 논문이나 책 소개주실 수 있을까요? 제가 너무 공돌이라 해당 분야의 시각도 알고 싶습니다😅

    • @bumjini
      @bumjini  25 дней назад

      저는 공돌이였는데, 아래에서 관련된 내용 공부했습니다!
      youtube.com/@greenfulmay?feature=shared
      brunch.co.kr/@greenful

  • @hyukppen
    @hyukppen Месяц назад +17

    재밌네요! 구독 박았습니다. 앞으로도 재밌는 내용 많이 들려 주세요ㅎㅎ 😆

    • @bumjini
      @bumjini  Месяц назад +3

      감사합니다! AI 의 가능성과 한계를 밝히는 영상은 흥미롭죠!
      귀하신 분이.. 영광입니다.. 🙏🏻

    • @asdasd-qf3cm
      @asdasd-qf3cm Месяц назад

      오 슈퍼스타 등장

    • @user-gg2xi1mt8g
      @user-gg2xi1mt8g Месяц назад

      갓펜하임 등장 ㄷㄷ

  • @androschizo
    @androschizo Месяц назад +9

    와 이럴거 같다고 미뤄짐작은 했는데 진짜로 이런 논문이 나왔다니… 구독박고 갑니다!

  • @ice-ns4lk
    @ice-ns4lk Месяц назад +10

    외부 환경에 의한 선택압력이 존재하지 않는다면 초기상태의 유의미한 다양성은 사라지고 돌연변이에 의해 초기상태와 무관한 발산이 일어나는 개념으로 보이네요.
    AI에 있어 선택압력이 어떻게 적용되는가에 따라 AI가 독립적으로 진화가능 한 모델이 될 수 있을 것인가 결정되지 않을까 합니다.
    만일 그 선택압력이 인간이라면 AI는 인간의 상상에 의한 세계관안에서 진화하겠죠.
    만일, AI들끼리 경쟁적 생태계를 형성한다면 인간을 넘어 설 수 있겠지만, 그 진화결과물은 AI에게는 유의미하겠지만 인간에게는 무의미 한 결과를 만들 걸로 보입니다.
    생태계가 조성되는 공간의 물리적 법칙이 다르다면 그 또한 인간에게 무의미한 결과가 되겠죠.
    다양한 생각을 해 볼 수 있는 좋은 연구였습니다. 고맙습니다.

  • @jangho6869
    @jangho6869 Месяц назад +13

    과학에 관심은 많은데 논문은 읽기 어려웠는데 해석해주셔서 너무 재밌습니다!

    • @bumjini
      @bumjini  Месяц назад

      감사합니다~! 배우는 건 언제나 재밌죠.
      앞으로도 흥미로운 영상을 준비해볼게요 +_+

  • @dkk2554
    @dkk2554 Месяц назад +16

    음악때문에 목소리가 잘 안들립니다 😅

  • @iilililiiilliillilililil
    @iilililiiilliillilililil Месяц назад +9

    근데 결국 인간이 생산한 데이터도 많은 시간을 거쳐서 인간사에서 선택된 데이터 아닐까요? 결국 서로의 생태계를 갖는 두 환경의 데이터가 하나로 융합되는 과정에서 하나만 살아남는 다는 거겠네요.

  • @sunhookim9008
    @sunhookim9008 Месяц назад +2

    정말 중요한 논문이네요ㅎㅎㅎㅎ 어려운 부분도 쉽게 설명해주셔서 감사합니다! 다른 영상들도 기대하겠습니다!!

    • @bumjini
      @bumjini  Месяц назад

      도움이 되셨다니 감사합니다 🙌

  • @latte1962
    @latte1962 Месяц назад +6

    좋은 영상 잘 봤습니다. 영상 말미처럼 최근에 AI-generated images를 보면 각각의 엔진(stable diffusion, midjourney, etc...)의 스타일로 업로더들이 정착해서 그대로 올리는 거 같더라고요. 또 개인적으로도 이미지를 NovelAI를 통해 생성하는데, 나름대로 다양해지도록 prompts를 넣고 시도해도 어느 정도의 bias가 있는 것 같다는 생각이 들었습니다.

  • @goongdeeeable
    @goongdeeeable Месяц назад +7

    수렴진화라는 표현이 있는것으로 알고있습니다. 그것에 빗대어 이해를 시도해보는게 더 재밌을거같습니다

    • @bumjini
      @bumjini  Месяц назад +1

      진화론에 빗대어 관찰하는 것도 굉장히 흥미로울 것 같군요. 수렴진화 고민해보겠습니다 :)

  • @minseokoh49
    @minseokoh49 Месяц назад +3

    공감가는 내용입니다. 개인적으로 느끼기에도 결과물의 완성도는 높아지지만 다양성이 점점 줄어들면서 획일화되는 것 같아요

    • @bumjini
      @bumjini  Месяц назад

      @@minseokoh49 좋게 말하면 표준, 나쁘게 말하면 획일화 같습니다

  • @jhkim8312
    @jhkim8312 Месяц назад +3

    뭔가 근친이랑 비슷한느낌이네요. 계가 좁고 풀이 적을수록 교배가능한 경우의수가적어져 유전적 열성이 계속 드러나 종국에는 희한한 기형아들만 탄생하게되는 그런거랑 좀 비슷하네요

  • @user-eh4pm7bb6o
    @user-eh4pm7bb6o Месяц назад +4

    결국의 실세계에 데이터를 받으면 끝날거 같음. 카메라 라던가. 마이크 라던가

  • @user-tr4fh1yn5c
    @user-tr4fh1yn5c 16 дней назад +2

    아직 AI의 기반이 “학습”에 머물러 있기 때문이죠. NNL의 발전이 중요한 이유입니다. 창의성은 없던 것을 만드는게 아닙니다. 존재하는 것의 새로운 버전들이죠.

    • @bumjini
      @bumjini  16 дней назад

      더 논의되다보면, 창의성이 정확히 어떻게 생겨나는지,
      그래서 강제로 창의를 만드는 방법도 개발될지도 모르겠군요!

    • @user-hq3nt3ck7k
      @user-hq3nt3ck7k 14 дней назад

      NNL기술이 뭔가요 검색해도 안나와요

    • @user-tr4fh1yn5c
      @user-tr4fh1yn5c 14 дней назад

      @@user-hq3nt3ck7k 인공 신경망 기술입니다. 사람의 뉴런을 본따 만든 딥러닝;머신러닝 모델입니다

  • @jung-taekim3993
    @jung-taekim3993 Месяц назад +2

    어려운 내용인데, 이해하기 쉽게 설명해 주셔서 잘 배우고 갑니다.

    • @bumjini
      @bumjini  Месяц назад

      @@jung-taekim3993
      좋은 말 감사합니다 👍
      더 어려운 걸로 찾아뵙겠습니다 ㅎㅎ

  • @user-Neapolitan6
    @user-Neapolitan6 Месяц назад +3

    AI의 원리가 결국 인간이 만든 작업물을 합성해 출력하는 거라서 결국 인간이 데이터를 만들어주지 않으면 존재할 수가 없고, AI가 AI의 데이터를 따 온다면 당연히 결과물의 질은 떨어지겠죠.
    AI를 만드는 기업들도 바보는 아니라서 AI가 만든 작업물을 구분하는 기술을 속속 개발하고 있죠.
    그 기술이 AI가 작업물을 생성하기 위해 데이터를 머신 러닝하는 과정에서 AI에 의해 생성된 데이터를 걸러줄 수만 있다면 저런 사태는 일어나지 않을지도 모르겠네요.

  • @user-kc4tf5df3c
    @user-kc4tf5df3c 20 дней назад +1

    이런 현상들을 보면서 개인적으로 느꼈던게 마치 일종의 "디지털 정보 근친교배" 같은 양상으로 흘러가고 있다는걸 느꼈습니다

  • @ckorea2010
    @ckorea2010 Месяц назад +2

    Chat GPT 애용하지만 처음엔 충격적이다가 지금은 좀 짜치는게 검색엔진과 다를바 없다는걸 꺠닫는 순간이더라구요.

  • @baromiya1013
    @baromiya1013 Месяц назад +3

    뭔가 사람이 만든 것이지만 양산형 창작물들이 나타나는 현상이이랑 비슷한 거 같아서 신기하네요.

    • @PranicSwirls
      @PranicSwirls Месяц назад

      오 글고보니 그렇네요

    • @bumjini
      @bumjini  Месяц назад

      트렌드가 양산형이면서 빠른 속도로 바뀌는 미래… 😵

  • @Zealot2049
    @Zealot2049 23 дня назад +2

    결국, 그림을 예쁘게 그리기만 하는 기술자는 Ai한테 밀리겠지만, 컨셉과 디자인을 만드는 '창작자'는 살아남겠군요

    • @bumjini
      @bumjini  22 дня назад

      그렇습니다. 아르타니스님. 🙃

  • @user-gg2xi1mt8g
    @user-gg2xi1mt8g Месяц назад +1

    AI 논문 자체를 읽는건 항상 거리가 멀었는데, 덕분에 좋은 이야기도 많이 듣고 갑니다! 앞으로도 좋은 영상 부탁드립니다!

    • @bumjini
      @bumjini  Месяц назад +1

      많은 도움이 되셨다니 기쁘군요! 다음 영상도 열심히 만들어 볼게요 😁

  • @1ngyeo
    @1ngyeo Месяц назад +2

    이전에 한번 상상해봤던 시나리오인데 뭔가 재밌네요... 잘 보고갑니다

    • @bumjini
      @bumjini  Месяц назад +1

      @@1ngyeo 감사합니다 🙂🙂

  • @user-is3ry8xv9t
    @user-is3ry8xv9t 20 дней назад +1

    그냥 막연히 실제에 가까운쪽으로 계속 향상을 하리라 생각해서 ai영상테러가 치명적이게 될거라 생각했는데 이런 문제가 있었구나

  • @euphorim
    @euphorim Месяц назад +1

    확증 편향이 강해지는 과정, 또는 수렴 진화가 일어나는 과정 등등 비슷한 과정은 원래도 많았고, 이미 다들 느끼고 있었을 겁니다. 중요한 건 그 다음 단계죠.
    한가지 데이터로 수렴해버렸다는 것은 현재 상황이 요구하는 질문이 한가지 답만을 요구한다는 것입니다. 그 질문이 더이상 필요없어지는 때가 오면, 즉 환경이 변화하면 기존에 수렴된 데이터를 폐기하고 다시 답을 찾기 위한 다양성을 시도하겠죠.
    결국, 극도의 효율을 추구한 지능의 끝은 카타스트로피 뿐이라는 거네요. 획일화된 정답들은 환경이 던지는 질문이 변하는 순간 모조리 오답이 되어버리지만... 오히려 그 붕괴에서 탄생한 새로운 질문들에 대한 새로운 정답들이 태어날 수도...

    • @bumjini
      @bumjini  Месяц назад

      @@euphorim 수렴으로 피해를 보는 순간 방향을 바꾸는 느낌이군요. 줄었다 늘었다 반복하는군요!

  • @iwilldowhatiwannado843
    @iwilldowhatiwannado843 Месяц назад +1

    정말 중요한 내용이네요! 감사합니다!

  • @seohopa
    @seohopa Месяц назад +3

    다양성의 소중함~!
    Opencv의 얼굴찾는 함수로 얼굴영역을 자동 라벨링하면 얼굴인식 정확도가 떨어지는거솨 비슷한 원리죠.

  • @preyp656
    @preyp656 Месяц назад +9

    영상을 흥미있게 보았습니다.
    BGM만 조금 볼륨을 줄여주시면 훨씬 좋을 것 같습니다 :D

    • @bumjini
      @bumjini  Месяц назад

      @@preyp656 감사합니다! 참고해서 다음 번음 좀 더 깔끔하게 만들아볼게요~ 😆

    • @JAY.K
      @JAY.K Месяц назад

      개인적으로는 충분한 듯

  • @happinessthegreat9999
    @happinessthegreat9999 Месяц назад +3

    커피 머신이 그리 좋아도 드립커피를 2배를 주고 마시고, 기계가 빵을 아무리 잘 만들어도 동네 수제 빵집은 많습니다. 기계와 Ai는 효율, 효과 극대화로 가지만 인간의 다양성 욕구는 AI가 이해를 못하기에 인간 수제 데이터 수요도 꾸준하긴 할겁니다. 다양성을 잃진 않을 겁니다. 매니아틱해지긴 하겠지만요.

    • @bumjini
      @bumjini  Месяц назад +1

      @@happinessthegreat9999 공감합니다. 우리는 정성이 담긴 걸 좋아하죠 :)

    • @DDD-fw6nt
      @DDD-fw6nt Месяц назад

      ​@@bumjini정성의개념을 AI가 학습한다면요?

  • @postmodernism1417
    @postmodernism1417 Месяц назад +3

    저기도 skip connection 하면 됩니다. 다양성이 vanish하지 않도록 recursively 학습할 때 자연에서 나온 data를 계속 같이 그대로 넣어주면 됩니다.

    • @bumjini
      @bumjini  Месяц назад

      @@postmodernism1417 알고리즘적으로 흥미로운 접근법입니다 👍

    • @postmodernism1417
      @postmodernism1417 Месяц назад

      @@bumjini 쯧 그냥 제가 Nature에 논문 하나 써야할듯...

  • @user-kh8km2gq6p
    @user-kh8km2gq6p Месяц назад +5

    언젠가는 방법을 찾아내지 않을까 싶습니다 안심할 수 없을거 같습니다

  • @choimoriarty7451
    @choimoriarty7451 Месяц назад +1

    비록 논문을 쓰신분에 비하면 견줄만한 지식이 없지만 좁히면서 데이터를 잘 정돈 시키는것으로 프롬프트별 결과물의 다양성을 0으로 수렴 시키는게 먼저고 그 이후 창작은 다른 영역이라고 생각 됩니다.
    예로 LoRA 를 사용하여 예측 불가능한 다양성을 줄이는 것 아닐까요?

  • @aiart21
    @aiart21 Месяц назад +2

    Ai가 아무리 발달해도 Ai는 인간을 계속 관찰하고, 관음하고, 배워야 할겁니다.

  • @dalaymann
    @dalaymann 29 дней назад +1

    TTS VTT 결과와 데이터셋 계속 주고 받으면서 훈련하면 최종적으로
    TTS에 알츠하이머가 오면서 댑댑댑 거립니다

    • @bumjini
      @bumjini  29 дней назад +1

      @@dalaymann 알츠하이머 비유 흥미롭군요 🧠

  • @user-zq9df7nn8y
    @user-zq9df7nn8y Месяц назад +2

    Ai 알고리듬이 일원화되어서 모방을 하도록 설계되어있기 때문...ai시대는 아직 멀었다...

  • @somethumb9958
    @somethumb9958 Месяц назад +2

    창조를 어느시점 어디부터 창조라고 인정해야할지 모르는 인간
    그 인간이 만든 ai가 만든 것을
    '창의적이다 창조성이 있다'고 판단하는 게 아무리 생각해도 웃긴 거 같아요
    그저 다른 거 아닐까요? 심지어 그 다름도
    인간은 이 세상 모든 인간과 커뮤니케이션 할 수 없다는, 인터넷 상의 모든 정보를 취득하지 못하고 기억할 수도 없다는 한계 때문에
    ai에 만들어낸 것이 창의적이라고 그저 지금 분위기상 휩쓸리는 거 아닐까요?
    그리고 다름이란 것, 그 다르게 하려는 시도는 애초에
    효율을 추구하고 이성적인 것에서 출발하는 게 아니라
    기존의 시스템 분위기가 '싫어서' 시작되는 지극히 감정적인 영역이 아닐까 생각해볼 때
    ai의 점진적 획일화를 향한 흐름은 지극히 당연하다고 저는 생각해요.
    감정을 갖는 ai 논리적 근거가 없이 판단하는 ai가 만들 수도 없을 것이고 만들 수 있다해도 분명 사회적 이슈를 불러올 것이니까요

    • @bumjini
      @bumjini  Месяц назад +1

      @@somethumb9958 인간이 기억하지 못해서 AI의 작품이 창의적으로 보인다는 대목 흥미롭습니다.
      AI생성이 획일화를 향한 감정적 욕구를 반영하는 것도 맞는 거 같습니다. 엄청난 인사이트를 가지셨군요..!
      생각 하나를 덧붙이자면, 사람들 만드는 데이터는 환경과 대단한 적응력, 안정성을 가지는 것 같습니다. 쉽게 틀리지 않죠. AI의 생성물의 피드백은 사람의 상호작용 속도보다 느리기에 안전한 생성만 하는 부분이 있을 거 같습니다. 이 또한 다양성을 저지하는 부분일 거 같습니다

  • @NA_VI
    @NA_VI 26 дней назад

    생각해보지도 못한 부분을 시사해줘서 고마워요

    • @bumjini
      @bumjini  26 дней назад

      @@NA_VI 좋은 말씀 고맙습니다 😊

  • @sk7556
    @sk7556 Месяц назад +2

    0:00 이 사람 머리에 귀달고 있음

    • @bumjini
      @bumjini  Месяц назад

      🐶 ㅋㅋㅋㅋ

  • @Xx_Kim_BaB_xX
    @Xx_Kim_BaB_xX Месяц назад +1

    지금이 어떻든 결국 인간의 뇌가 가능하기에, AI도 저것을 하는 것은 시간 문제겠죠.
    AI의 구조가 인간의 뉴런을 모방한것이니

    • @bumjini
      @bumjini  Месяц назад

      맞습니다.. 사실 둘의 연산은 거의 똑같아요. 물론 차이도 있습니다. 그것도 영상으로 찍고 싶어서 타이밍 보는 중..

  • @DongyoonHan
    @DongyoonHan 29 дней назад

    현재 나와있는 AI 알고리즘들은, 전통적 알고리즘이 잘 하지 못하는, 문제공간 탐색을 위한 가중치 결정 문제를 좀 더 효율적으로 해내는 정도로 개선 된 것들이라 보면 됩니다. 그러므로 사람들이 기존에 기대했던 창조성이나 AGI를 만들어 낼 정도의 확장성을 기대하기는 대단히 어렵다고 생각할 수 있습니다.
    예를 들어, 몬테 카를로 알고리즘은 무작위로 찍어서 시도하는 반면, AI 모델이 학습한 데이터를 기반으로 좀 더 정답에 가까운 방향으로 찍어주는 정도의 차이라고 말씀드릴 수 있겠습니다.
    AI가 학습한 내용을 모델에 되먹임하면 가중치가 강했던 부분은 더 강해지고, 약했던 부분은 더 약해지게 됩니다. 그것을 반복하면 어느 상태로 모델이 수렴하게 된다는 것은 어찌보면 상당히 자명한 일입니다.

    • @bumjini
      @bumjini  29 дней назад

      @@DongyoonHan 동의하는 부분입니다. 전통적인 알고리즘에 비해서 문제 탐색 공간이 터무니없이 넓다는 차이가 AI 기술의 강점인 것 같습니다.

  • @choisungbin
    @choisungbin 29 дней назад +1

    실제로 해봤습니다.
    초기 데이터로 이육사의 시 3편을 넣고 chatgpt한테 유사한 시를 3편 적어달라고 부탁했습니다. 그렇게 만들어진 시로 다시 유사한 시를 부탁하기를 17번 반복했습니다. 그리고 생성된 시에서 중복된 단어를 확인했는데 특정 어휘가 많게는 10번, 적게는 4번씩 반복되는 결과를 얻었습니다. 어휘가 중복되는 것 자체는 특별한 것이 아니지만 완전히 같은 문장이 4회씩 반복되었습니다. 또 시의 제목이 겹치는 경우는 2개씩 겹치기를 3번 보여 인공지능을 활용한 창작에는 분명한 한계가 존재함을 알 수 있었습니다.
    저는 전공자가 아닙니다. 제 분석은 정확한 분석도 아니고 시행 횟수도 적기 때문에 신뢰도가 다소 떨어집니다. 관련 내용을 실제로 확인한 것에 의미를 두며 글 남겨봅니다.

    • @bumjini
      @bumjini  29 дней назад

      @@choisungbin 사용자의 99%인 비전공자는 인공지능 기술에 영향을 받습니다. 그렇기에 비전공자 시선이 더 중요하다고 생각합니다. 흥미로운 통계와 의견 공유 고맙습니다 😁😁

  • @user-bn7xk5go1m
    @user-bn7xk5go1m 26 дней назад +1

    뭔말인지 잘 모르겠지만, 헤비테일을 사용하지 못해서 다양성을 잃는다면 헤비테일이 곧 다양성이라고 봐야하는것 같은데, 지나친 비약이라는 생각이 드네요.. 그래프만 봐도 헤비테일보다는 헤비테일이 아닌 부분이 더 중요해보이는데, 그 안에 다양성이 포함되지 않는다는건 말이 안되보입니다. 다양성은 어휘처럼 다양하게 분포해야할것 같은데, 그렇다면 헤비테일에 분포한 정도와 그 여집합에 분포해있는 정도가 비슷해야할것 같은데요. 즉, 밀도가 같아야할것 같다는 말이죠.. 다양성이라는게 어느 한 부분에 집약되는 것 처럼 해석될 수 있는지를 짚어봐야할것 같다는 말입니다.

    • @bumjini
      @bumjini  26 дней назад

      @@user-bn7xk5go1m 주식에서 리스크가 높은 곳에는 투자하지 않고 대장주만 사면 다양성이 사라진 포트폴리오가 되는 것과 유사합니다.
      헤비테일에서 뽑지 않는 다는 것은 그런 의미입니다. 보편적인 것을 유한하게 생성하는 AI의 한계를 지적하는논문에 가깝습니다.

    • @user-bn7xk5go1m
      @user-bn7xk5go1m 26 дней назад

      @@bumjini 지식이나 논리가 정제되는걸로 해석할 수도 있을것 같은데요. 그렇다면 지식이나 논리가 정제되는 구조라고 볼 수도 있을 것 같고 이런 구조에서 다양성을 찾는게 문제일 수도 있겠네요.
      헤비테일이 가지고 있는 다양성의 일부가 계속 버려지므로 다양성을 잃는다는 것이라면 헤비테일이 버려지지 않게 해야할 것 같은데 헤비테일 대신 무언가 버려져야만 한다면 다른 부분에 포함된 다양성이 버려지는건 마찬가지겠네요. 결국 무언가를 버리면 안되는것이죠...
      이것은 생명체가 진화하거나 탐욕적 알고리즘 같은 것들과 같은 문제 같아 보이는데요. 약육강식, 민주주의의 구조와 다를게 없는거죠.
      이 것을 문제로 삼지 않는 방법은 헤비테일이 버려짐으로서 수렴하게되는 한가지 모습을 최종 형태로 인정해버리는게 아닐까 싶습니다. 그리고 지금 진화한 생명체들이 모두 그렇개 인정되고있는 것들이 아닐까 싶네요

    • @bumjini
      @bumjini  25 дней назад

      타당하신 말씀입니다. 진화의 과정에서 헤비테일을 버리고 선택하여, 결국 모델이 수렴하는 것은 꼭 필요한 일 같습니다.
      생물의 진화가 사회와 상호작용하는 과정에서 피드백을 통해 선택적으로 결정된 것처럼, 헤비테일 분포에서 생성 대상을 고르는 과정은 선택적으로 보이는 군요.

  • @oortcloud3
    @oortcloud3 Месяц назад +1

    가설 자체는 당연하다고 생각되는데 그 분석과 논증의 설득력이 어마어마한 논문이네요!
    사람도 닫힌 환경에서만 학습하고 세대가 이어진다면 동일한 문제가 발생할 겁니다. ai도 근원 정보 (우주)로부터 지식을 습득하는 경우에만 이 문제를 해결할 수 있겠네요!

    • @bumjini
      @bumjini  Месяц назад

      @@oortcloud3 AI가 잘하는 것과 별개로, 앞으로는 우주의 모든 학습하고 모두 그대로 내뱉는 모델이 바람직하겠군요. 좋은 아이디어 같습니다 :)

  • @godchangsup-1
    @godchangsup-1 29 дней назад +1

    AI는 도구 일뿐이라는거지요.
    공상과학영화들처럼 AI가 인간을 지배하려면
    스스로 생각하고 그에따른 결과를 도출해낼수있어야하는데
    그게 가능하다면 일종의 진화가 아닐까 싶어요 ㅋㅋㅋ

    • @bumjini
      @bumjini  29 дней назад

      @@godchangsup-1 10년 뒤 AI 기대와 두려움이 있네요 ㅎㅎ ㅠㅠ

  • @youjustdo
    @youjustdo 20 дней назад +1

    수렴진화 같은거네요

  • @aimaker
    @aimaker Месяц назад +3

    Suno ai로 일주일동안 1000곡을 만들어 보니 어느순간 어디로 수렴 되는 느낌이긴해여

  • @Li_Lu_
    @Li_Lu_ Месяц назад +2

    너무 재밌게 잘 봤습니다

    • @bumjini
      @bumjini  Месяц назад

      @@Li_Lu_ 좋은 말씀 감사합니다 🙂

  • @PranicSwirls
    @PranicSwirls Месяц назад +2

    내용 접해보니 생각보다 심각성이 느껴지네요.
    마치 죽은 세계처럼 변해갈 수 있겠네요.

    • @bumjini
      @bumjini  Месяц назад +1

      인공생성물이 얼마나 어떻게 실제 데이터와 상호작용할지 모르기에 조심할 필요가 있죠!

  • @hoyakim4280
    @hoyakim4280 Месяц назад

    AI에도 유전알고리즘이 도입돼야겠네요. 쉽게 말해 유성생식.

  • @wdol5641
    @wdol5641 3 дня назад +1

    양산형 웹툰 나오는거랑 비슷함ㅋㅋ

  • @aiphdssong
    @aiphdssong Месяц назад +1

    반대로 생각하면 1024 x 1024 x 3 x float64 가지고도 커버가 안되는 지구의 다양성이 대단하다고 봐야하나 싶네요

  • @topaz6945
    @topaz6945 Месяц назад +1

    레이어처럼 데이터의 층을 나누고 모델을 층마다 따로 적용해야할듯? 예를들어 그림 안에 객체영역을 따로 분리시켜 1층을 만들고 2층엔 사용된 기법 종류를 분류하고... 이런식으로 N개의 층을 나눠서 N가지 조합의 층 갯수를 조합하면 변수 조정에 따라 다양한 형태의 그림을 그릴수 있지 않을까요?

    • @bumjini
      @bumjini  Месяц назад

      @@topaz6945 통제 가능한 영역을 가정하고 밸런스를 맞추는 거군요! 좋은 아이디어 입니다 🙂

  • @protagonist24939
    @protagonist24939 16 дней назад +1

    근데 이것도 곧 카네기멜론에서 해결할듯

  • @leesohun_40
    @leesohun_40 Месяц назад +1

    이게 데이터 라벨러들의 필요성을 보여...주는군요.

    • @leesohun_40
      @leesohun_40 Месяц назад

      아니면 4차 겨울의 예고일까요?

    • @bumjini
      @bumjini  Месяц назад +1

      @@leesohun_40 AI가 만든 데이터와 아닌 데이터의 레이블.. 요즘 SNS에서 AI 생성이라는 라벨이 붙던데, 구분하는 데 도움이 될 거 같군요

  • @konekokosokosokossorikorokoro
    @konekokosokosokossorikorokoro 16 дней назад +1

    주기적으로 다양하고 무작위적인 자연 사진을 학습 시켜야 되겠네요

    • @bumjini
      @bumjini  15 дней назад

      사진 찍으러 가야겠군요..!

  • @samej8744
    @samej8744 Месяц назад +2

    이건 llm의 문제인가요 한계인가요? 전자라면, 이것만 해결되면 엄청난 발전이 있겠네요.

    • @magicwizcat
      @magicwizcat Месяц назад +2

      근본적으로 해결 될 수 없어요. Ai는 인간이 있어야만 생존 영위가 되는 구조기 때문이죠.

  • @meinlet5103
    @meinlet5103 Месяц назад +1

    양자화로 인한 손실 압축이지 않나 싶음

  • @grayliar147
    @grayliar147 Месяц назад +2

    최근에 뉴스 봤는데, 구글에서 LLM 내부 해석 가능한 아키텍처 공개했다네요. 희소 오토인코더 방식이라고 하던데 이거 된다면 꼭 보고 싶어요. LLM 내부 탐색에 대해 궁금했거든요.

    • @bumjini
      @bumjini  Месяц назад +1

      @@grayliar147 희소 오토인코더를 통한 해석은 제가 연구하는 분야 중 하나인데, 다양성에 도움이 될거라고 생각못했군요.. 확률이 낮은 애들의 심층 표현을 찾아서 전체 분포를 맞추려고 노력할 수 있다는 건 충분히 의미있고 현실적입니다. 한가지 장애물은 희소한 데이터에 대한 표현의 안정성일텐데, 그 부분을 고민해봐야겠습니다 👍

  • @user-mask23dssdcxz
    @user-mask23dssdcxz 26 дней назад

    범짐군: 앞으로도 이러한강으ㅢ를 많이 올려주오

    • @bumjini
      @bumjini  26 дней назад

      @@user-mask23dssdcxz 알겠습니닷 🫡🫡

  • @user-nc2hs4rp7l
    @user-nc2hs4rp7l Месяц назад

    오 진짜 다양성이 0으로 수렴할 거 같아서 흥미가 생기네요

  • @Spellbound-s7i
    @Spellbound-s7i 19 дней назад +1

    좋은 논문을 소개해주셔서 감사드립니다. 언급하신 '다양성' 그리고 실제 데이터와의 '거리'는 인위적으로 통제가 가능한 변인이라는 생각이 듭니다. 논문에서의 결과의 전제 조건은 깨지겠지만, 가장 간단한 방법은 실제 데이터의 분포 그대로를 생성하는 것이겠죠. 덜 자명한 방법도 존재할까요? 다양성이 충분하고 실제와 괴리가 없는 방법은 어떤 장점을 필연적으로 잃게 될까요? 논문을 정량적으로 이해할 배경 지식이 없다 보니 두루뭉술한 궁금증이 많이 생기네요~

    • @bumjini
      @bumjini  19 дней назад

      흥미로운 질문 감사헤요!
      저의 개인적 생각으로 다양성을 포용하는 경우 실패의 위험성이 생기는데, 사람은 유연하게 대처할 수 있지만, AI는 아직 자기보완적인 능력이 떨어지는 거 같아요.
      그래서 리스크를 가지고 실제 분포를 완벽하게 복제하는 대신, 잘하는 것에 치중된다는 생각을 가져봅니다 🧐

  • @hiinvest28
    @hiinvest28 Месяц назад

    정보 측면에선 수렴하는게 오히려 맞는 이야기고 창작의 영역에선 글쎄요.. 아직 걸음마 단계의 한정된 모델 그리고 작위적이고 제한된 계산의 논문이라;;

  • @aiphdssong
    @aiphdssong Месяц назад

    AI 생성해서 나오는 사람 얼굴도 그 형태가 남녀별로 수렴되긴 하더라고요
    아무리 실사처럼 만들어도 보이는 AI 얼굴이 있음

  • @user-rs4sg2tz6k
    @user-rs4sg2tz6k Месяц назад

    작금의 아키텍처로는 불가능해도 조만간 돌파구를 찾을 듯

    • @bumjini
      @bumjini  Месяц назад

      @@user-rs4sg2tz6k 이런 사회의식이 모여 OpenAI가 다양성을 더 늘리면 좋겠어요!

  • @LaPieta694
    @LaPieta694 25 дней назад

    논문으로 나온 건 얼마 안됐나 보네 관련 개념은 거의 작년쯤부터 봤던 것 같은데

    • @bumjini
      @bumjini  25 дней назад

      기존 연구들은 좀 더 일찍 나왔는데, Nature에서 언급하니까 파급력이 큰 것 같아요. 👀

  • @whowho1693
    @whowho1693 Месяц назад +1

    그래 이거야! ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ가려운 부분을 긁어주는 ㅋㅋㅋ 근데 알파고는 자기들끼리 데이터 만들고는 했다던데... 둘의 차이점을 알면 해결이 가능하지 않을까요?

    • @bumjini
      @bumjini  Месяц назад

      더 가려운 부분있으시면 말씀해주세요 ^_^;;
      그래서 지속적으로 데이터를 관찰하고 문제점을 찾는 프로세스가 중요할 거 같아요.

  • @niumma8322
    @niumma8322 Месяц назад +6

    실물 데이터 10~20%만 넣어도 문제가 거의 사라지도록 개선되는건 안적는걸로봐서 하꼬의 이유가있다

    • @bumjini
      @bumjini  Месяц назад

      @@niumma8322 그 10%가 AI가 만든 게 아니라고 보장하는 근거가 부족한 현실이긴하죠.

    • @niumma8322
      @niumma8322 Месяц назад

      @@bumjini 바로 네가 하꼬인 이유

    • @bumjini
      @bumjini  Месяц назад

      @@niumma8322ㅠㅠ

  • @star_shihtzu
    @star_shihtzu Месяц назад +1

    재밌다.

    • @bumjini
      @bumjini  Месяц назад

      공부는 언제나 흥미롭죠 +_+

  • @user-gu8zc2ic4s
    @user-gu8zc2ic4s 26 дней назад

    오 신기하네

  • @ons8636
    @ons8636 4 дня назад

    ai가 만든 데이터로 ai를 학습시키는게 불가능 하다면 인간이 만든 데이터가 고갈되는 시점이 오면 ai의 발전은 멈추게 되는건가요?

    • @bumjini
      @bumjini  4 дня назад

      인간의 동기가 저하되는 지점에서 발생될 일이 궁금합니다.
      예를 들어서, 음악을 AI가 만든다면 창작자들의 동기를 저하시킬 수 있고, 에스파의 수퍼노바는 나오지 않을 가능성이 있습니다.
      사람이 곁들여지기 때문에, 독창적인 게 나올 수도 있긴 합니다. 다만, 평균적으로는 음악이 다 비슷해질 수 있을 것 같아요.

  • @실베
    @실베 25 дней назад

    팩트는 지피티킬러 땜에 그럴일은 절대 없다는거임

  • @cosmic_shingle
    @cosmic_shingle Месяц назад

    괜찮음 몇십년뒤에 ai가 다시 복원사업 할듯ㅋㅋ 사람마냥

  • @user-mz2jk5xf5j
    @user-mz2jk5xf5j Месяц назад +2

    생명은 창발하고 엔트로피는 늘어나는데 ai는 소멸해요?

    • @bumjini
      @bumjini  Месяц назад

      복잡한 친구들의 생각이 단순한 친구(AI)로 필터링 돼서 그런 것 같아요!

  • @user-is7fl8zx9h
    @user-is7fl8zx9h Месяц назад +2

    비현실적인 가정에 기반한 결론으로 많은 비판을 받고 있는 논문입니다. ai의 결과물에 원래의 데이타를 10퍼센트 이상만 섞어줘도 모드붕괴는 일어나지 않습니다. 저 논문의 가정은 데이타셋이 더 늘어나지 않고 기존의 데이타는 전혀 쓰지 않는다는 억지 가정에 기반한 결과이지만 현실은 다르죠

    • @bumjini
      @bumjini  Месяц назад

      @@user-is7fl8zx9h 동의합니다. 새로운 데이터 중 사람이 만드는 것의 비율은 갈수록 줄어들 거 같지만요..

  • @user-io3ro7tc2f
    @user-io3ro7tc2f 12 дней назад +1

    윤석열 같은 짓을 AI가 하네요. 쓸데없는 짓을 하다가, 미신을 믿다가, 이제 의미없는 고집 중.

  • @user-wb3ig3hi5l
    @user-wb3ig3hi5l Месяц назад +2

    AI 생성물로 다양성은 0으로 수렴한다.

  • @tridish7383
    @tridish7383 Месяц назад

    중국어방 논증이 생각나네요.

  • @cropcrop9264
    @cropcrop9264 Месяц назад

    반년 전에 나온 떡밥 이제야 푸노