Это видео недоступно.
Сожалеем об этом.

AI 언어모델 LLM의 아무말 대잔치... 할루시네이션이 진짜 비즈니스 가능하게 하는가? (더밸류컨설팅 이병주 대표 2부)

Поделиться
HTML-код
  • Опубликовано: 3 апр 2024
  • “세종대왕이 맥북 던진 사건”
    LLM의 할루시네이션, 즉 아무말대잔치 현상은 언어모델의 본질이라는 평가가 많은데요. 이로 인해 실제 비즈니스로 확장될 때에는 대중들에게 널리 상용화되는 B2C의 관점보다는 B2B로의 확장이 우선일거라는 의견에 대해 더밸류컨설팅 이병주 대표님과 이야기한 내용을 살펴봅니다. 실제로 정보이론의 창시자인 Claude Shannon이 언어모델의 기반 아이디어를 반세기도 더 전에 제시한 바가 있는데요. 앞으로의 LLM 발전 방향과 적용 가능성에 대해 같이 고민해봅니다.
    #LLM #인공지능 #할루시네이션
    Written by Error
    Edited by 이진이
    unrealtech2021Gmail.com

Комментарии • 50

  • @honehan-yh3fj
    @honehan-yh3fj 4 месяца назад +3

    이번 인터뷰 넘 좋네요❤

  • @skchoi6956
    @skchoi6956 4 месяца назад +2

    궁금했던 정보 감사합니다. 항상 애청하고 있습니다.^^;

  • @user-lb6fu3qk6r
    @user-lb6fu3qk6r 3 месяца назад +1

    고맙습니다

  • @ddemmkkimm
    @ddemmkkimm 4 месяца назад +1

    AI 가 실제로 돈을 어떻게 벌어다줄지, 한계는 어떨지, 하잎도 냉소도 아닌, 제가 본 가장 균형 잡힌 견해라고 생각합니다.

  • @leejh8799
    @leejh8799 4 месяца назад +1

    새롭게 생겨나는 서비스 vs 기존 서비스의 혁신.
    어느 시장이 더 클지는 사실 눈에 보이긴 하죠. 기존 기업들의 생산성 향상으로 큰 줄기를 잡아가는게 저도 옳은것 같긴 합니다..

  • @canetti9651
    @canetti9651 4 месяца назад +9

    B2B에 적용한다는 말은 맞지만 작업자가 일일히 AI가 만든 결과를 확인해야 한다는 뜻이므로 생산성이 크게 좋아지지도 않을 걸요

  • @user-ix1fx1lm4v
    @user-ix1fx1lm4v 4 месяца назад

    이거 조회수 높네여 에러님 화이팅 ❤

  • @user-fc5wi8bn6x
    @user-fc5wi8bn6x 4 месяца назад

    할루시네이션이 해결되기 어려울꺼다..gpt5의 양상은 보고 판단해도 늦지 않을꺼같네요

  • @ascendo_lee
    @ascendo_lee 4 месяца назад

    b2b 온니, 이거 중요함... "소라 때문에 엔비디아 제품이 72만개!" 이게 허상이 될 수도 있다는 걸 알려주는 핵심 내용임.

  • @hisheart4445
    @hisheart4445 4 месяца назад

    진위를 완벽하게 판단하지 못하는 대신 새로운 걸 만드는 영역에 유용하게 사용될 수도 있겠네요. SD나 소라 같은 것들을 보면 많이 느껴집니다.

  • @hyunseungyoon3568
    @hyunseungyoon3568 4 месяца назад

    좋네요...내용...

  • @user-cz7xe1xg5d
    @user-cz7xe1xg5d 4 месяца назад

    6:33 섀넌

  • @woongs2149
    @woongs2149 4 месяца назад +2

    광고가 B2B가 되는건가요? 기업을 대상으로 하는 광고만을 말씀하시는건가요?

    • @ascendo_lee
      @ascendo_lee 4 месяца назад +1

      AI 서비스(B) -> 광고제작업체(B)

    • @woongs2149
      @woongs2149 4 месяца назад

      @@ascendo_lee 답변 감사합니다 :)

  • @user-px6lf7yh8j
    @user-px6lf7yh8j 4 месяца назад

    B2C에서 문제가 생기면 회사의 평판에 치명적인데, B2B에서 문제가 생기면 고객사가 그냥 고쳐 쓸거니 괜찮다??? 한번의 실수로 몇백억 몇천억이 날아갈 수 있는 B2B에서 어떤 고객사가 너그럽게 용서하고 그냥 고쳐서 쓰나요? 현실을 전혀 모르는 분석이라 매우 아쉽네요.

  • @user-cr2lf5fh7s
    @user-cr2lf5fh7s 4 месяца назад +17

    그런데, 대부분의 인간도 일상에서 뭘 제대로 알고 얘기하는 경우는 흔치 않은 거 같은데요?
    예를 들어, 우리는 지구가 태양 주변을 돌고 있다는 걸 정말 아는 걸까요? 대개는 그냥 그렇다고 하니까 믿고 있는 것에 가깝죠.
    심지어 대개의 사람은 자신이 모르는 분야에 대해서 대답을 강요 받으면 개소리를 하기 마련이지 않습니까?
    대표적인 직업으로 종편에 나오는 온갖 전문직 종사자들이 있지요. 본인 전문 분야가 아닌데도 나와서는 온갖 세상 얘기에 대해서
    나불 거리지 않습니까? 대개는 얼핏 들으면 그럴듯하게 들리는 개소리들이지요. 저는 요즘 인공지능의 발전을 보면 볼 수록
    인간이 기계랑 다르지 않구나란 생각을 지울 수가 없게 되는 거 같습니다. 인공지능은 통계와 확률이라는 인공 신경망을 가지고 단어를
    구성해 나간다면, 인간은 은유를 가지고 얘기를 만들어가죠. 그런데 그 은유라는 것도 우리 두뇌가 경험치라는 통계와 확률을 통해 만들어낸
    자연 신경망이 아닐까 싶어요.
    p.s. 제가 여기 쓴 짧은 댓글에도 제대로 의미를 모르고 사용한 단어들이 수두룩 하네요 ㅋㅋ

    • @bangdoll4500
      @bangdoll4500 4 месяца назад

      사람은 모르는 분야에 대해 질문 받으면 모른다라고 대답 하면 됨.
      지금의 약인공지능 AI는 안다 모른다 자체의 개념이 없으니까 모른다라고 대답조차 할수 없고,
      그래서 할루시네이션 개소리 대답을 하는거임.
      근본적으로... 지금의 AI는 자아가 없는 확률연산 기계라는걸 AI를 이용하는 사람들이 알고 있어야 합니다.
      참고로, 모르는 분야에 대해 아는척 지껄이는 인간은 거짓말쟁이가 됩니다.

    • @hw3638
      @hw3638 4 месяца назад

      인팁이시죠? 반갑습니다

    • @SsamLunA
      @SsamLunA 4 месяца назад +1

      본질적인 의문이자 답변인 것 같아요..
      일반적인 시각에서 ai를 고작 수학적 확률의 집합체라고 비판할 수 있지만,
      정제된 데이터에 의한 통계와 확률을 과연 현실 속에서 경제적인 것을 고려했을때 완벽하게 제칠 수 있는 집단이 얼마나 있으련지요..
      현재 발전속도를 보고 있자니 앞으로의 행보가 정말 궁금하네요.
      좋은 뷰 읽고 갑니다..

  • @mapx2100
    @mapx2100 4 месяца назад +3

    할루시네이션이 LLM 만의 문제는 아니죠.
    인간도 정신이 온전치 못하면 할루시네이션 증상이 나타나는 것처럼 보이는데, 이는 기본적으로 인간의 언어모델도 확률에 기반해서 감각입력에 최대한 맞는 언어출력을 만들어내는 것일 뿐이기 때문입니다.
    할루시네이션을 자연스럽게 받아들일 수 있는 특징으로 만드는데 필요한 것들이 뭔지, 인간에게는 어떤 것들이 이런 역할을 하는지를 중점적으로 보면 될거에요.

    • @user-vm8yn4hb4w
      @user-vm8yn4hb4w 4 месяца назад +1

      그냥 저런 레파토리는 AI는 이래서 안되 저래서 안되 하는 여러 ㅈ문가들의 현실부정이죠. 자기가 이헤 못하거나 만들 수 없는 건 부정하는. AI보다 휴먼에러가 훨씬 더 많은건 생각 안하고

    • @user-vm8yn4hb4w
      @user-vm8yn4hb4w 4 месяца назад

      더 문제는 저런 판단 조차도 gpt4 유료버전 잠깐 쓰고서 저런 말 한다는거. 그냥 현재에서만 사는 사람들

    • @be.ttubee
      @be.ttubee 4 месяца назад

      이 답글이 무슨 소리하는 건지나 아냐?

    • @user-vm8yn4hb4w
      @user-vm8yn4hb4w 4 месяца назад

      @@be.ttubee 알고서 말하는겁니다. 전기차도 처음 나왔을떄는 되겠냐 이런 소리 많이했는데 결국은됫죠

    • @user-og1hx2td6q
      @user-og1hx2td6q 4 месяца назад

      ​@@user-vm8yn4hb4w 전기차 되긴 되는데 전세계적으로 다들 포기하는 방향

  • @user-dv5su9rn1b
    @user-dv5su9rn1b 4 месяца назад

    할루시네이션... 데이터가 중요하죠 거짓 정보가 있기때문에 발생하는거겠죠

    • @eiliosice
      @eiliosice 4 месяца назад

      백데이터의 진리치와 상관 없습니다. 생성형 모델은 수학적으로 확률에 기대기 때문에 그럴 듯한 문장이면서 의미가 없는 문장을 생성할 수 있습니다.
      정확한 비유는 아니지만 무한도전 당시 박명수 씨가 n행시를 하며 간혹 말도 안 되는 문장을 만들어 웃음을 줬었죠. 생성형 모델도 맥락 안에서 사실은 아니지만, 확률적으로 우리에게 그럴듯하게 인식되는 문장이 형성될 수 있습니다.

    • @user-dv5su9rn1b
      @user-dv5su9rn1b 4 месяца назад

      @@eiliosice 상관이 없다는 말은 좀 아닌듯요 중요도가 낮다면 모를까.. LLM은 거짓 정보와 진짜정보를 구별할 능력이 없습니다

    • @user-dv5su9rn1b
      @user-dv5su9rn1b 4 месяца назад

      @@eiliosice 그래서 LLM대신 SLM 또는 산업분야에서는 파인튜닝하여 해당 분야에 적용되 모델을 사용하는거에요

  • @aiphdssong
    @aiphdssong 4 месяца назад +1

    사람도 운전하다 사고를 내고 자율주행차의 사고율이 아무리 낮아져도 자율주행차가 한번 사고나면 미친듯이 뚜드려맞는 이유와 비슷하네요

    • @sya2546
      @sya2546 4 месяца назад +3

      자율주행은 안전과 연관되니 더 엄격한 기준이 적용되고 소프트웨어 성능이 타사보다 안전도에서 약간 더좋은 것이 그 약간의 차이도 굉장히 중요한 것이죠.

    • @jyjeong4894
      @jyjeong4894 4 месяца назад

      그렇죠

  • @kkk-ne3pp
    @kkk-ne3pp 3 месяца назад

    글쎄 트랜스포머 나오기 전에는 이런 시장이 생길거라 생각도 못한 사람이 대부분인데 지금 기술로 미래를 예견하는게 맞는건지

  • @user-eb5yu5uc2r
    @user-eb5yu5uc2r 4 месяца назад

    저는 할루시네이션이 LLM모델이 가진 태생적 문제라기 보단 더 많은 경우의 수를 데이터로 입력받지 못한 "양"의 문제가 아닐까 생각해봅니다.
    그런 의미에서 LLM의 더욱 진보된 형태는 제한된 정보출처가 아닌 모든 형태의 데이터를 입력받고 학습 할 수 있는지 여부에 달린 것 같습니다.
    ChatGPT를 처음 보며 느꼈던 경이로움은 분명 데이터의 양이 질을 변화시켰다는 놀라움이었죠. 인간만이 가졌다고 믿었던 영감이 사실은 고도로 정교하게 조직화된 데이터였다는
    놀라움과 겸손함을 가지게 된것도 같습니다.

  • @berry-factory
    @berry-factory 4 месяца назад +1

  • @user-ee7ot8ug9r
    @user-ee7ot8ug9r 4 месяца назад

    내용이 재미있네요

  • @user-cz7xe1xg5d
    @user-cz7xe1xg5d 4 месяца назад

    주식 맛탱이 가겠네

  • @grimsk
    @grimsk 4 месяца назад +1

    음 결론은 저분 생각이고 틀릴 수 있더라도 해당 문제 자체는 중요한 화두가 맞는데, 댓글에 너무 안티가 많네요...

  • @be.ttubee
    @be.ttubee 4 месяца назад +1

    이제와서 LLM에 문제 있다고? ㅋㅋㅋㅋ 진짜 안될 공학 맞네.

  • @Gilgamesh3047
    @Gilgamesh3047 4 месяца назад +4

    할루시네이션을 가능한 제거하기 위해서는 빈도 확률이 아닌, 언어논리학 기본 논제들을 그대로 모두 chapGPT에 넣으면 된다.
    즉 논리학 기반(진위를 가리고)에 확률(신속한 결론 도출)을 함께 고려해야만 할루시네이션을 감소시킬 수 있다.
    이 글은 엄청난 파문을 일으킬 것이다. -끝-

    • @SsSs-vx1pl
      @SsSs-vx1pl 4 месяца назад +6

      우리 가서 트렌스포머 논문 부터 함 읽고 나서 얘기해보자.
      트랜스포머 이전에 사람들이 하려고 한게 그 논리 기반이었고 그걸로 계속 죽쑤다가 트렌스포머 나오고 갑자기 미친듯이 발전한 거임. 트랜스포머 논문은 아니더라도 nlp 역사라도 가서 보자. 이것도 모르고 ‘엄청난 파문’ 이런말 하면 안 웃김? ㅋㅋㅋㅋㅋ

    • @Gilgamesh3047
      @Gilgamesh3047 4 месяца назад +1

      @@SsSs-vx1pl 논리학 공부하고 나서 트랜스포머 공부하자.

    • @Gilgamesh3047
      @Gilgamesh3047 4 месяца назад

      @@SsSs-vx1pl 왜 논리학이 기본이 되어야 하는지 아직도 이해를 못하죠? 할루시네이션이 발생하는 원인은 세계 언론을 휘어잡고 있는 미국이 의도대로 언론이 많이 언급된 것을 학습한 인공지능은 논리적인 진위여부를 판단할 수 없이 확률 기반으로만 결과를 도출하기 때문에 많은 문제점이 발생하는 것이지요. 우리나라 언론 지형도 마찬가지지요. 논리적 기반이 절대 어렵지 않습니다. 심리학, 철학, 수학, 물리학, 정치학 등 거의 완벽에 가까운 기본전제들이 있지요. 그것들에 벗어나는 결과값들은 배제하도록 설계된다면, 할루미네이션은 거의 사라질 것입니다.

    • @NoName-ln6sj
      @NoName-ln6sj 4 месяца назад +1

      알았으니까 만들고얘기해

  • @user-lb4vo2vh7d
    @user-lb4vo2vh7d 4 месяца назад

    고등학교 특강에서나 볼 수준의 사람인데..