AI 핵심이자 가장 복잡한 연산이 사라진다...? NVIDIA, Intel, AMD GPU, 빅테크 NPU 설계 트렌드에 대변혁이 올까요?

Поделиться
HTML-код
  • Опубликовано: 13 янв 2025

Комментарии • 104

  • @l3y3nf
    @l3y3nf 5 месяцев назад +60

    LLM AI는 아직 태동기라는 생각이 드네요 이런게 혁신이지

    • @시
      @시 5 месяцев назад

      컴퓨터 자체가 아직 걸음마 단계죠 100년도 안되었으니

  • @sangwonsuh6323
    @sangwonsuh6323 5 месяцев назад +1

    3진에 맞는 학습방법이 필요하겠네요
    하드웨어와 로직이 서로 영향을 주면서 최적화 방향이 잡혀가는 것 같습니다

  • @luneclips
    @luneclips 5 месяцев назад +31

    엔디비아 독점체제가 좀 깨지거나 약해지면 좋겠네요. GPU가격이 미쳐 날뜀

    • @Go-re7yw
      @Go-re7yw 5 месяцев назад

      Gpu가격은 예전이나 지금이나 비슷한데...

    • @julius-z2q
      @julius-z2q 5 месяцев назад +4

      ​@@Go-re7yw 출시가도 2배가 됐는데요.

    • @dayservant
      @dayservant 5 месяцев назад +4

      ​@@Go-re7yw물구나무 서고 봐도 올랐음

    • @user-sifhdnsifu
      @user-sifhdnsifu 5 месяцев назад

      @@julius-z2q 물가상승률보다 올랐나요?

    • @julius-z2q
      @julius-z2q 5 месяцев назад +1

      @@user-sifhdnsifu 물가상승률이 100%가 아닌이상 당연하죠

  • @du5494
    @du5494 5 месяцев назад +20

    이런 연구들은 이전에도 있었는데(삼진 또는 프루닝 등등), 영상 설명에는 그전과 차이가 잘 드러나진 않네요. 원리적으로 왜 정확도에서 차이가 나지 않을 수 있었던 것인지 설명이 있으면 좋을 거 같긴 합니다.
    i) 논문에서 사용한 벤치마크에서만 정확도가 높게 나온 것은 아닌지, ii) 학습 복잡도가 높은 벤치마크나 응용들에서는 어떠한지 가 가장 중요할 것 같습니다. 일단은 모바일 환경에서는 충분히 적용할 만한 방법들인 것 같습니다.

    • @김민재-h1t2n
      @김민재-h1t2n 5 месяцев назад +2

      마즘 ㅇㅇ 논문은 논문일뿐 제품으로 양산해서 증명해야함 ㅋㅋㅋ

  • @맛있는게좋아-n8w
    @맛있는게좋아-n8w 5 месяцев назад +6

    감사합니다!

  • @cost1812
    @cost1812 25 дней назад

    감사합니다

  • @가가기기-m8y
    @가가기기-m8y 5 месяцев назад +23

    원래 정보를 압축했는데 비슷한 결과가 나온 다는 게 신기하구만

    • @DotRoll-bu7pz
      @DotRoll-bu7pz 5 месяцев назад

      AI 학습에 정보를 압축하는 경우는 있었는데(특히 이미지 분석에서). 그게 데이터를 다듬는게 아니라 연산에서도 적용된다는게 신기한거 같습니다.

  • @eveangellion
    @eveangellion 5 месяцев назад

    와 최근 동영상은 다 정주행 해야겠네요

  • @알베-y3p
    @알베-y3p 5 месяцев назад +4

    다른기술들은 지지부진 한데 llm만 유독 발전이 빠르네

  • @콰트
    @콰트 5 месяцев назад +10

    예전에 마소에서 나온 1bit llm논문이랑 비슷한 느낌이네요

    • @nagnusyo
      @nagnusyo 5 месяцев назад +9

      사실 기반 아이디어는 아예 똑같죠. 이 논문은 하드웨어적인 부분에서 더 다룬거 같네요.
      문제는 양자화만해도 성능이 떨어지는데, 저렇게 극단적으로 모델을 간략화 하면 성능 저하는 너무 당연히 필연적인거라.
      애초에 로스만으로 성능을 검증할수 없어서.

  • @정규성-l3w
    @정규성-l3w 5 месяцев назад

    고맙습니다

  • @aiphdssong
    @aiphdssong 5 месяцев назад +3

    예전에 float 로 weight 를 구성하지 않고 3진화해도 성능이 유지된다는 거랑 비슷하네요

  • @danielpark9989
    @danielpark9989 5 месяцев назад +9

    애플 같은 온디바이스 칩에 구동되는 모델에 사용하면 딱이네요

  • @August924
    @August924 5 месяцев назад +2

    이럴수도 있군요 👍

  • @ik964
    @ik964 4 месяца назад

    24bit color가 아니라 윤곽스케치만 가지고도 선을 많이 그으면 충분히 알아본다 같네요.

  • @mmhdfmh
    @mmhdfmh 5 месяцев назад +5

    w1x1 + w2x2... 이 아니라 x1 + x2 - x3.. 이런식으로 부호만 바꾸는 덧셈으로 바뀌는게 되게 큰듯

  • @딩동링-t5g
    @딩동링-t5g 5 месяцев назад +13

    GPT4o급을 보급형 컴으로 로컬로 돌릴 수 있으면 좋겠네요

  • @user-racshun
    @user-racshun 5 месяцев назад +3

    그래서 하드웨어 대신
    개발자가 갈려나간다는거지?

  • @Zeddy27182
    @Zeddy27182 5 месяцев назад

    연산 소모를 줄일 수 있다면 경량화로도 흘러가겠지만 전 오히려 더 대형화로 가리라 봅니다. 왜냐하면 다르게 얘기하면 용량의 한계치가 더 늘어났다는 얘기니까요.
    이걸 가장 잘 구현해내온 게 엔비디아듯, 앞으로도 이 경향은 유지되지 않을까 싶네요.

    • @MondayGone
      @MondayGone 5 месяцев назад

      소모가 줄어든 만큼 기존의 하드웨어에 더 많이 꽂아 넣어서
      최적화가 어떻게 되든 총합 규모는 지금 기업들이 투자하고 있는 크기로 유지되거나 더 커지거나..

    • @Zeddy27182
      @Zeddy27182 5 месяцев назад

      @@MondayGone 저도 그렇게 생각합니다. AGI로 가기 위해서는 필수불가결하다 생각해요.

  • @dlsrksguadhX
    @dlsrksguadhX 5 месяцев назад +1

    결국 팽창 - 압축 - 팽창 - 압축 순환을 반복하면서 기술이 진보하는건가..

  • @Qseud
    @Qseud 5 месяцев назад

    1bit llm 개념과 굉장히 유사해보이네요

  • @infested_pigeon
    @infested_pigeon 5 месяцев назад +4

    AI의 가장 큰 문제는 가중치들이 어떻게 구해지는지 알 수가 없다는것....
    정말 너무도 큰 리스크가 아닌가 생각이 듭니다.

  • @MindTickleBytes
    @MindTickleBytes 5 месяцев назад

    와.. 신기하네요

  • @JL-tw8vh
    @JL-tw8vh 5 месяцев назад +2

    이해가 잘 안되지만 잘 봤습니다 근데 혹시 래퍼신가요??

    • @광원윤-h7c
      @광원윤-h7c 5 месяцев назад

      쇼미더머니 8
      에서 예선탈락하신분입니다
      피스~

    • @JL-tw8vh
      @JL-tw8vh 5 месяцев назад

      @@광원윤-h7c 어쩐지 말하시는게 다르네요

  • @OMG-r3j
    @OMG-r3j 5 месяцев назад +1

    아 이거 유명했었음. 정수만 대체해서 70%이상만큼 성능이 유지된다고 하던.
    난 당연히 임베디드 단말용으로 사용될거라고 예상했는데 이걸 그냥 써먹을수도 있나보네

  • @YTTT506
    @YTTT506 5 месяцев назад +1

    제발 다른걸로 되줘 글카값 넘비싸 ㅠ

  • @AcornLuncher
    @AcornLuncher 5 месяцев назад

    RTX 9090은 실외기형이나 전용냉장고형으로 나올 줄 알았는데 칩 하나가 될 수도 있겠네...ㅋㅋㅋ

  • @ppmaeno
    @ppmaeno 4 месяца назад

    환경을 위해서도 지금의 비효율적인 현재 방식의 개선이 필요하다. 지금의 데이터 센터는 그 자체로 심각한 공해사업임. 전기를 하도 쳐먹어서

  • @이규종-w8s
    @이규종-w8s 5 месяцев назад

    복잡한 연산이 사라지면, 계산 결과는 빠르게 나올지 모르나, ai 의 지능이 낮아지는 결과가 나올것 같습니다. 지능이 낮은 인공지능은 단순한 안내용으로 밖에는 쓰지 못할 것입니다. 인간과 같이 심도있는 내용을 논한다거나 하는 것은 무리일것 같습니다. 인공지능은 아무래도 프로그램상으로 성능을 높이는것 보다는 하드웨어로 성능을 높이는게 필요한 분야 같습니다.

  • @파란해골13호-j6v
    @파란해골13호-j6v 5 месяцев назад

    삼진화가 이해 안 됩니다 ㅜㅜ 연산에 쓰는 숫자들이 워드임베딩으로 나온 숫자일 텐데 이걸 어떻게 바꾼다는 건지?

    • @ultraviolet_sa
      @ultraviolet_sa 5 месяцев назад

      5:52 에서 우측 상단과 하단 보시면 완전 삼진화 하는것이 아니라 특정 변수의 배수로 표현하는 것이며 이를 재귀적으로 곱해서 결과를 근사하는 것 같습니다

    • @raramra9267
      @raramra9267 5 месяцев назад +1

      입력값이 아니라 가중치를 -1, 0, 1로 scaling하는거에요

  • @isaaclee6719
    @isaaclee6719 5 месяцев назад

    그래 엔디비아 GPU는 행렬계산에 최적화된 칩이었던거다.
    그러다보니 메모리가 핵심부품으로 다시 떠오를수 밖에 없었고.
    그런데 그게 한계에 봉착하고 있다는 것이다!
    한마디로 행렬계산으로는 인공지능이 한계에 빠르게 접근하고 있다는 것이다! 24.08.03(토)

  • @danwlfn
    @danwlfn 5 месяцев назад +1

    흥미롭군요. 과투자된 산업이 몇년안에 무너질수도 있음 ㅎㅎ

  • @김태영-g7u
    @김태영-g7u 5 месяцев назад

    잘모르지만 기저행렬을 이용한다는 느낌적인 느낌?

  • @chrla5925
    @chrla5925 5 месяцев назад

    이러다 삼진메모리도 나올듯

  • @bigollo-i7x
    @bigollo-i7x 5 месяцев назад

    일반인은 솔까 지피티줘도안씀. 치맥 더맛나게먹는법이런거좋아함.

  • @블루펜서
    @블루펜서 5 месяцев назад +3

    이게 되면 엔비디아 시대가 아니라 amd intel 이 다시 뜰수도 있겠군요
    기존의 cuda가 무력화 되는 sw도 수반되겠고요

  • @MinsuHan-d8i
    @MinsuHan-d8i 5 месяцев назад

    논문이.안열리는데 혹시 링크 다시 올려주실 수 있으신가요?

    • @unrealtech
      @unrealtech  5 месяцев назад +1

      arxiv.org/html/2406.02528v1 입니다 ㅎㅎ

    • @MinsuHan-d8i
      @MinsuHan-d8i 5 месяцев назад

      @@unrealtech 감사합니다!

  • @helookscool
    @helookscool 5 месяцев назад

    와....저게 가능한가.....?

  • @swk2573
    @swk2573 5 месяцев назад

    압축한 모델 돌려보면 엄청 멍청함. 양자화만 해도 멍청해지는데.. 3진화한다고.. ㅎ..ㅎ

  • @MK-gy8mq
    @MK-gy8mq 5 месяцев назад +3

    언제까지 엔비디아 인가....화무십일홍이라고 그 대단하던 IBM도 결국 저 아래로 밀려났고......바닥에서 박박 기던 애플은 쫓아냈던 잡스의 복귀 이후 혁신을 통해 최고의 기업으로 반등 했다.
    수 많은 반도체 기업들이 부흥과 몰락을 반복하는데 엔비디아라고 영원하지 않겠지....
    저 가죽점퍼 보기싫어 죽겠네......제발 망하고 새로운 기업이 튀어나와 혁신을 이루고 소비자들에게 위안을 주었으면 하는 바램이 있다.

  • @Spharkling
    @Spharkling 5 месяцев назад +9

    AGI는 온다.....

  • @Tesla_story
    @Tesla_story 5 месяцев назад

    안녕하세요 amd 동업자입니다

  • @SejongYoo-z4z
    @SejongYoo-z4z 5 месяцев назад

    엔비디아 참 많이컸다.
    30년전에 수많은 흔한 pc그래픽카드
    제조업체중 하나였는데 ...

  • @themaskedfighter-4041
    @themaskedfighter-4041 5 месяцев назад +1

    문돌이 몬말인지 모르고 그냥 갑니다 😂

  • @raramra9267
    @raramra9267 5 месяцев назад +1

    이 논문이 era of 1bit llm: bitnet 1.58b 랑 다른게 뭔가요? 거기선 llama 구현체도 제시했는데 이건 뭐임

  • @김마린-h3b
    @김마린-h3b 5 месяцев назад +1

    {개구리, 올챙이, 말미잘, 에러} > {1,0,-1} 변환방법 발견하면 우아아아 대단하다 이겠지만
    논문에서 말한건 그 변환방법을 개발하면 연산에 필요한 컴퓨팅파워를 줄일수 있다란 이야기니
    너무 당연한 건데요, 논문으로서의 가치가 있는지도 잘모르겠습니다

    • @du5494
      @du5494 5 месяцев назад

      설명에서는 간단히 해서 그렇지만, 논문에서는 원리가 있지 않을까 싶습니다. 기존의 학습 정확도를 많이 희생시키지 않는 방향으로의 삼진 변환 방법은 그 자체 만으로 가치가 있지요.

    • @김마린-h3b
      @김마린-h3b 5 месяцев назад +1

      @@du5494 그렇다면 영상에서 그걸 알려주는 게 더 중요할 것 같지만 안 그런 걸 봐서...솔직히 아닐 것 같습니다

  • @Sinjin-h
    @Sinjin-h 5 месяцев назад

    좋은소식이네요

  • @seeartziwon
    @seeartziwon 5 месяцев назад

    다시는 텐스토렌트를 무시하지 마라

  • @postmodernism1417
    @postmodernism1417 5 месяцев назад

    경량화가 진행되어 밀집도가 올라가면 그만큼 모델 크기를 더 키워버립니다. 즉 포텐셜을 성능 향상에 쓰지 연비에 쓰질 않아요. 태동기엔 그런 법입니다. 대신 그만큼 더 큰 성능을 끌어내겠죠. 결국 GPU는 여전히 필요할 겁니다. 그리고 그 크기는 계속 우상향할거고요. 좋은 새로운 방식이 개발된다고 해서 다른 리소스를 절대 편해지게 두지 않아요 그만큼 더 많은 걸 뽑아내려고 더 갈아대죠. 좋은 내용 소개는 감사합니다.

  • @아레코
    @아레코 5 месяцев назад

    그래픽카드 가격 정상화 드가자

  • @oieh155
    @oieh155 5 месяцев назад

    와 댓글 싹다 삭제한거봐..

  • @yarn75
    @yarn75 5 месяцев назад +1

    이것이 획기적이라고 해도
    전용칩을 만들어줄 회사들도 최신공정은 단가 높고 소량 생산하면 칩 가격이 상승할것이고
    새로운 이론이 나오면 효율이 떨어지고 범용성도 낮아서
    이제 AI 시작 단계에서 전용칩은 의미가 낮다고 봐야 할것 같지 않나 싶어요.
    AI가 어느 정도 자리 잡어면 GPU 보다 효율이 높은 전용칩이 나오겠지요.
    뭐 칩 집접도 올리는 비용이 천문학적이라 AI 정체기를 돌파하는 이론 나와서 점프하는 날이 오겠지요.
    AI 산업이 이제는 돈이 되는 산업이라

  • @조용경-k2b
    @조용경-k2b 5 месяцев назад +1

    뒤집어지긴 힘들지않을까요....

  • @floatingmine
    @floatingmine 5 месяцев назад

    헤일 하이드라!!!!

  • @gyeungchanjang3192
    @gyeungchanjang3192 5 месяцев назад

    옥상옥 -> 기존모델 존재 + 민감도 분석 수준의 변형에만 적합할 듯...

  • @hobit-j4o
    @hobit-j4o 5 месяцев назад

    뭔가 근본적인 성능을 개선하는것보다 최적화, 가성비 올리는 쪽으로 진행되는거 같아 아쉽네요. 한동안 엄청난 인공지능은 나오지 않을 것 같아요.

  • @뎅뎅군
    @뎅뎅군 5 месяцев назад +1

    1:31 "그러면 이제 NVIDIA GPU 안 팔리는 거 아닌가?"

    • @또또또-e2w
      @또또또-e2w 5 месяцев назад +2

      ㅋㅋㅋㅋㅋㅋ 질문하는 꼬라지

    • @집닭-d8t
      @집닭-d8t 5 месяцев назад +2

      주식쟁이가 지가 찾아볼 생각은 안하네 ㅋㅋㅋㅋㅋㅋㅋㅋ

  • @sejcj2
    @sejcj2 5 месяцев назад +2

    래퍼맞으신듯ㄷ정신사나워서 뭔말인지 잘모르겠습니다😅

  • @zz9843-g1w
    @zz9843-g1w 5 месяцев назад +1

    황씨 얼굴 그만 보고싶다!

  • @DOCTOR-KJ
    @DOCTOR-KJ 5 месяцев назад

    역시 에러님😊

  • @박철호-m4x
    @박철호-m4x 5 месяцев назад

    단어를 행렬연산 행렬 행렬곱셈으로
    통일했으면 이해가 편하겠네요.
    영어를 써야 한다는 압박감 때문에
    이리저리 섞어 쓰니 바로 들어오지 않네요

  • @jp5862
    @jp5862 5 месяцев назад

    3진법 반도체 왜 안만들까... 근데 왜 뉴로모픽은 조용한지.. 너무 궁금하네.

    • @그냥-f7u
      @그냥-f7u 5 месяцев назад

      있다 없다 이외의 상태를 가지는 전자 물질이 있으면 알려주세요 저도 궁금함

    • @jahyukshin4239
      @jahyukshin4239 5 месяцев назад

      @@그냥-f7u전류의 양으로 끊으면 되긴함 거의 안흐르면 0 적당이 흐르면 1 많이 흐르면 2 이렇게

    • @jp5862
      @jp5862 5 месяцев назад +1

      @@그냥-f7u 슈레딩거냐옹이...

    • @kgro353
      @kgro353 5 месяцев назад

      그게 양자컴퓨터인데 초전도체가 없어서 더딘거임...

    • @민기-q1v
      @민기-q1v 5 месяцев назад

      만들면 만들 수 있을듯. 필요전력 증가, 에러율 증가, 속도 감소, 크기 증가, 발열, 저항 증가, 수율 감소 등이 배가 아니라 제곱으로 올라가는 사소한 문제들이 있긴하지

  • @bigollo-i7x
    @bigollo-i7x 5 месяцев назад

    거품7공주 한방에 죽나

  • @정진영-y9m
    @정진영-y9m 5 месяцев назад

    :D

  • @cheungganlee300
    @cheungganlee300 5 месяцев назад +1

    3등 재미없어서 패스 ~

  • @FluxMaestro
    @FluxMaestro 5 месяцев назад +2

    1빠

  • @Viewtizen
    @Viewtizen 5 месяцев назад +2

    카ㅓ툰 얼굴하고 음성하고 매칭이 안되서 집중이 안되네요

    • @그로밋-o7j
      @그로밋-o7j 5 месяцев назад +2

      예민하시네요

    • @hwannnnnnnn
      @hwannnnnnnn 5 месяцев назад

      이 정도면 당신 집중력 문제… 병원 가보시길..

    • @VEGA_253
      @VEGA_253 5 месяцев назад

      핑계도 가지가지네요