당신의 그래픽카드 이 칩으로 대체되었다. 아날로그 컴퓨터 (2편)

Поделиться
HTML-код
  • Опубликовано: 29 янв 2025

Комментарии • 173

  • @mks8271
    @mks8271 2 года назад +50

    와 감탄스러워서 말도 안나옵니다 ㄷㄷㄷ

  • @제갈식
    @제갈식 2 года назад +120

    퍼셉트론을 만들었던 로젠블라트는
    사실 아날로그 신호처리의 대가였었습니다..

    • @sin102004
      @sin102004 2 года назад +3

      옛날에는 로젠블랫이 아니라 로젠블라트라 불렀군요

    • @제갈식
      @제갈식 2 года назад +5

      그는 고차 푸리에 스펙트럼의 대가 였다고 합니다.

  • @영진박-y1k
    @영진박-y1k 2 года назад +40

    이거 무지하게 흥미진진하게 봤던 에피소드에요. 한국어 번역본으로서 공급된다는 소식에 무척 기쁩니다

  • @우유-j7r
    @우유-j7r 2 года назад +61

    반쯤 뭔소린지 모르겠는데 적분기부터 너무 흥미로워서 보고있습니다 여기저기서 ai라는 단어 볼때마다 저걸 어떻게 훈련시키는건지 생각했는데 저런식으로 작동하는 거였다니 너무 신기해요

    • @kaioh1384
      @kaioh1384 Год назад

      신경망은 조금 공부해서 알겠는데 전자공학은 1.5배로 들어서 그런가 한번만에 이해 안되네 ㅋㅋ ㅠ

  • @kain8099
    @kain8099 2 года назад +7

    Back to basic이네요..앞으로의 발전이 더욱 기대됩니다.. 좋은 영상 고맙습니다.

  • @JunhyeongKim_Crossfit
    @JunhyeongKim_Crossfit 2 года назад +189

    관련 분야 연구중인 석사과정생입니다. 직접 cmos 회로를 구현해봤지만 아날로그 to 디지털연산기의 정확한 연산이 매우 어렵고 에너지 소모가 매우 큽니다. 따라서 현재는 아날로그 연산 방식으로 인공신경망을 구축하기에는 무리가 있습니다.

    • @user-eo1tw9ly8q
      @user-eo1tw9ly8q 2 года назад +78

      영상 말미에 대충 넘어간 부분이 실은 큰 난관이었군요

    • @user-kymkym
      @user-kymkym 2 года назад +13

      역시 대학원생은 업계 현실과 마주하나 봐요. 화이팅!!

    • @godbless253
      @godbless253 2 года назад +44

      석사 : 이거 다 알거같아!
      박사 : 뭐야 이걸 아는 사람이 한명도 없어?
      교수 : 나밖에 아는 사람이 없네

    • @agent9084
      @agent9084 2 года назад +13

      그런데 학교 밖으로 눈을 돌리면, 누군가는 연구하고, 누군가는 해냄..

    • @crushist
      @crushist 2 года назад +3

      대학원생은 그 어려운걸 해내죠 ㅋㅋ

  • @today.dinner.man.
    @today.dinner.man. 2 года назад +12

    적분기부터 보다가 ai로 이어지는 흐름에 감탄했습니다. 관련업계 종사하고있는데 너무 재밌게 봤어요👍

  • @미니만두-u3w
    @미니만두-u3w 2 года назад +11

    베리타시움 한국어 채널이 있는지 처음 알았네요. 이 좋은거 왜 이제 안 거지?

  • @기물
    @기물 2 года назад +2

    아날로그 컴퓨터에 대해서 전혀 모르고 있었는데, 해당 시리즈를 통해 배울 수 있어 좋은 기회였습니다.

  • @reikoe3226
    @reikoe3226 2 года назад +6

    너무 좋은 영상 번역 감사해요

  • @42_cloud
    @42_cloud 2 года назад +1

    이 영상 시리즈로 유입이 된게 감사할 정도로 감탄이 나오는 영상

  • @gomdolri
    @gomdolri 2 года назад +5

    이런 정보를 누구나 볼수있는 세계에 살게된게 자랑스럽네요

  • @tamasino52
    @tamasino52 2 года назад +17

    딥러닝에도 범용 특징 추출기가 많으니 칩들을 범용 모델에 따라 모듈화한다면 생각보다 다양한 곳에 응용될 수도 있을 것 같은데요?

  • @hone2728
    @hone2728 2 года назад +2

    덕분에 채널 정주행했네요. 영상 감사합니다.

  • @jck0024
    @jck0024 2 года назад +3

    매우 유익한 영상👍🏻

  • @pjeehoon
    @pjeehoon 3 месяца назад +2

    저희 회사는 이 영상에 나오는 mythic 과 협업 중입니다.
    mythic chip을 이용하여 edge에서 vision AI를 쉽게 구현할 수 있는 제품을 만들고 있습니다.
    현재 기존 저희 제품인 현금계수기에 먼저 적용하고 있고, 동시에 다른 영역에서 기존 edge 기기가 가질 수 없는 ai model 크기 및 속도를 지원하는 기기를 개발 중입니다.
    내년에 공개 예정이니 기대해 주세요.

  • @user-rax146
    @user-rax146 2 года назад +1

    정리 잘했네요. 이 분야에서 일하는 사람의 입장으로써.

  • @초장순두부
    @초장순두부 Год назад

    신경과를 전공으로 생각하고 있는 현 수험생인데, 너무 감명깊게 봤네요! 마저 모고를..끄적끄적

  • @IsaccNewten
    @IsaccNewten Год назад +1

    인공지능의 기본 원리를 조금이나마 알게 된 것 같네요 ㅎㅎ 잘 봤습니다.
    신경망이 그런식으로 작동한 다는 것도 매우 흥미롭네요 ㅎㅎ

  • @tmslzlwl
    @tmslzlwl 2 года назад +6

    학습에는 엄청나게 에너지 부어가면서 해도 이미 구축된 신경망을 쓸때는 엄청나게 효율적으로 사용할 수 있다는거네... 진짜 존나 똑똑들 하다ㅋㅋㅋㅋ

  • @seyongkwon
    @seyongkwon 2 года назад +1

    이런 채널 찾고 있었습니다.

  • @Lyr4s3L
    @Lyr4s3L 2 года назад +5

    시리즈를 이어서 그냥 주욱 봤는데 알게된 면도 많고,
    제 전공과는 약간 거리가 있을 수 있지만 매우 유익했습니다.
    이런 유익하고 재밌는 채널을 이제 알게되다니.. 지금이라도 구독합니다!

  • @하늘-s6e4h
    @하늘-s6e4h 2 года назад +1

    7:18 타이탄 진짜예쁘다 ㄷㄷ

  • @yacht-responce
    @yacht-responce 2 года назад

    원본영상 봤는데 제목보고 또보러옴 ㅋㅋ 어떻게 참냐고~

  • @제갈식
    @제갈식 2 года назад +8

    미래형 딥러닝칩은 광학적인 장치가 될거라 생각했는데
    반도체적으로도 아날로그 컴퓨팅이 구현되나 보군요~

    • @tongroh9312
      @tongroh9312 2 года назад +4

      동시다발적인 데이터를 전송할 순 있어도 그만큼 분석할 장치가 없다보니 광소자 개발 효과를 보기 힘든 것 같습니다.
      이 영상의 아날로그 반도체 장비도, 실시간으로 가중치를 바꾸며 검사하는 학습 작업은 하기 힘들어 보입니다.
      대신, 가중치 맵핑이 끝나면 각 소자마다 가중치에 해당하는 전압을 부여하는 장치를 연결하여 칩에 다운로드 하는 방식을 쓸 것 같네요.

    • @제갈식
      @제갈식 2 года назад +2

      @@tongroh9312 분석은 cctv로 하지 않나요?

  • @1웨이
    @1웨이 2 года назад +4

    ...1편의 처음부분엔 아 이런 내용이구나 하다가 어느순간 ??? 무슨말이지 하다가 그래도 재밌게 봤습니다. 인공지능이 각광받음에 따라 아날로그 컴퓨터 발달이 기대된다 이런 의미죠 ㅎㅎ?

    • @Cytrus-b8p
      @Cytrus-b8p 2 года назад +3

      정확하게는 현재의 gpu는 행렬계산보다도 저장된 값(weight,bias)를 가져오는데에 더많은 에너지와 시간을 할애한다는 문제점을 아날로그로 해결해보겠다(오직 행렬계산만을 위한 배선설계를 통해)로 정리해볼 수 있겠네요

    • @Cytrus-b8p
      @Cytrus-b8p 2 года назад +1

      gpu의 집적도와 성능은 곧한계가 부딪힐거라는 영상제작진의 예측이 틀림없다면요 ㅎ 저도 동의하는 내용입니다

    • @yongjunkim791
      @yongjunkim791 2 года назад

      아날로그 시스템은 사실 여러 분야에 이미 적용되어 활용되고 있습니다, 주변에서 쉽게 보는 디지털 저울, 온도계 등등이 있겠죵. 자율주행같은 ai 영역에서 사람과 비슷한 인식체계를 만드려는 시도에서는 충분히 아날로그식 접근이 가능하다는 이야기라고 볼수 있을것 같습니다. 사람도 무언가를 봤을때 대충 80프로 정도 확신이 들면 이건 ~~이다 라고 확정짓는것 처럼요 ㅎㅎ 아날로그 컴퓨터의 정확도는 낮으나 윗 댓글분이 언급하신 것 처럼 데이터의 무게나 분포를 활용할수 있는 분야에서는 충분히 상용화가 기대된다겠네요 ㅎㅎ

    • @danny04278
      @danny04278 10 месяцев назад

      전공으로 인공지능 듣고
      전자공학부 학생이 아니면 이해하기 힘들거임
      반도체물리전자 내용도 있어서

    • @what_the_fxck
      @what_the_fxck 5 месяцев назад

      @@Cytrus-b8p 2024년, GPU(nvidia)의 한계가 진짜로 다가오고 있습니다
      나노도 거의 끝물이고 그래서 크기랑 양으로 성능 때우는걸로 아는데
      상온 초전도체나 신기술 등등 슬슬 나타나야 하지 않을까 생각되네요

  • @shootingstaa
    @shootingstaa 2 года назад +2

    물리는 이미 몇가지 공식들이 자연에 존재하죠.
    I=V/R 이라거나 I1=I2+I3, 등등...
    정말 단순하게 말해서, 항상 어떤 입력 X값에 대해 정해진 상수 C를 곱한 값 Y를 계산한다는 작업을 디지털 컴퓨터가 하는 것보다는, 영상처럼 I=V/R의 공식대로 움직이는 자연을 이용하는 편이 더 효율적일 수 있다는 말이죠. 특히 그것이 동시에 수많은 X들을 계산한 Y들을 얻어야 하는 경우엔 더더욱 효과가 크고요.
    인공신경망도 수많은 단순계산들의 합일 뿐입니다. 학습된 신경망의 정해진 값들과 위와 같은 물리적 공식을 활용하면 오히려 더 빠르고 효율적이죠.
    극단적으로, 우리 뇌의 신경망을 똑같이 모방한 인공신경망을 디지털 프로그램으로 만들었다고 합시다. 그리고 각각의 퍼셉트론이 수행하는 디지털 계산을 실제의 뉴런으로 대체한다면? 그것은 그 자체로 아날로그 컴퓨터이며 실제의 뇌가 되는 것입니다. 이런 관점에서 인간의 뇌는 인간의 생각을 계산해내는 가장 효율적인 부품이 되는 것이죠.

  • @유관동-u6x
    @유관동-u6x 2 года назад +5

    아날로그를 AI에 적용할 수 있다는 놀라운 사실을 알게 해 주셔서 감사합니다~

    • @coinwhere
      @coinwhere Год назад

      아날로그 신호를 신경학습망에 사용하는 것이지 아직 신경학습망(Neural Network) 이 AI는 아니지.
      신경학습망은 확률로 출력이 되는 그런 확률 데이터를 입출력으로 하는 것.

  • @mtnko9180
    @mtnko9180 2 года назад +5

    01:09 Vsauce 깜짝등장

  • @시간을아끼자-r6m
    @시간을아끼자-r6m 2 года назад +1

    아날로그 컴퓨터는 말 그대로 “ 물 흐르듯이 ” 계산하겠네요

  • @primezeta2194
    @primezeta2194 2 года назад +2

    현재의 AI 처리 머신의 가장 큰 문제는 대교모 행렬 연산을 하는것인데... 여기에 엄청난 전기와 열과 비용이 발생하는데 아날로그 방식의 칩이 도움이 되겠네요... 아날로그 컴퓨팅의 단점이 계산중에 오류가 발생하는것인데 약간의 오류는 큰 문제가 안되는 분야도 있으니까요.... 게임등의 그래픽 처리 GPU 같은것도 대규모 병렬처리를 아날로그 방식으로 처리했을때 약간의 오류 발생하는것은 화면에 비정상적인 컬러의 픽셀들일텐데 이런것도 큰 문제 안될것 같네요...

    • @못된말분탕가키
      @못된말분탕가키 2 года назад +2

      엔비디아dlss나 라데온 피델리티보다 더 큰폭의 성능향상이 있겠군요 16K 해상도로 144프레임 뽑으면 픽셀 몇개 삑사리난들 체감도 안될테니 그래픽에 굉장히 유리할것같습니다

    • @coinwhere
      @coinwhere Год назад +1

      아날로그 컴퓨팅의 단점이 계산중에 오류가 발생하는것인데 약간의 오류는 큰 문제가 안되는 분야도 있으니까요 --->> 그래서 정확성이 아니라 확률로 존재하는 입출력 값을 다루는 신경학습망같은 곳에 쓴다니까 말입니다. 방송에 내용에 나옵니다.

  • @Kamael66
    @Kamael66 2 года назад +14

    아니 제목을 완전히 변경해 놓고 2편이라고 하면 곤란하죠.

  • @akida416
    @akida416 2 года назад +1

    5:12 부터 가장 중요한 부분이 나오지만 나는 한 마디도 못 알아듣겠네요 ㅠㅜ

  • @ehfns
    @ehfns 2 года назад +3

    6:14 보고 무릎을 탁 쳤다;

  • @yoma-dayo
    @yoma-dayo Год назад

    행렬 연산을 디지털 계산이 아닌, 자연이 해주는 계산으로 하다니.. 쩌는 구만!

  • @gepard7659
    @gepard7659 2 года назад +16

    너무너무 재밌게 봤습니다. 너무 꿀잼입니다. 구독 추천함 =)
    기억나는거 적어봄 총 3가지로 분류할 수 있음
    천째, 인공지능이나 어떠한 것을 판단하고 계산할때 행열이 쓰인다. 기존의 디지털 방식으로 아주 놀라운 정확도를 가진다. 그러나 에너지와 시간의 소모가 크다.
    둘째, 여기서 아날로그 칩이 각광 받고 있다. 닭인가를 판단할때 디지털 침으로는 98퍼센트를 자랑한다. 인간의 오차범위는 5퍼다. 인간의 판단력보다 더 높다. 그러나 아주 불필요하다 95퍼나 98퍼나 닭일 뿐이다. 반면, 아날로그 칩은 적은 배선으로 순식간에 계산하고 판단할 수 있다. 그러나 오차범위는 디지털보다는 클것이다. 그러나 이게 무슨 문제인가 판단하고자 하는건 닭일 뿐인데
    셋째, 결론적으로 폰노이만은 디지털이 계산범위가 크면 클수록 무어의 법칙처럼 아주 불필요한 에너지와 시간이 들어간다. 이걸 병목현상이라 한다. 디지털 칩의 물리적 한계가 왔다. 이제 미래에는 구닥다리 아날로그 칩은 디지털 칩을 대체할 것이고 가능성 또한 무한할 것이다. 행열을 구하는데 디지털 칩보다 아날로그 칩이 더 낫기 때문이다.

  • @ljh0412
    @ljh0412 2 года назад +2

    3와트 진짜 미쳤네ㄷㄷ

  • @thing386
    @thing386 2 года назад +2

    알렉스 팀이 현 그래픽카드 가격 폭등의 원인중 하나구나...ㄷㄷ

  • @VtuberHotelVKing
    @VtuberHotelVKing 2 года назад +4

    6:57 아날로그칩은 3와트를 소모하고 GPU는 50~100와트를 소모하는 백만원짜리 부품이라는게 웃음포인트네요 ㅋㅋㅋㅋㅋ

    • @coinwhere
      @coinwhere Год назад

      가장 최신 글카 GTX 4090 소비전력은 600W입니다.

    • @youdieee
      @youdieee Год назад

      ​@@coinwhere추측해보자면 해당 영역 연산에 필요한 에너지가 100와트 정도란 것으로, 그래픽 카드를 OS를 통해서 사용하는 것이 아닌 커널에 쓰는 커스텀 장치를 이용해서 해당 부분만 사용하는건가봄

  • @g9star
    @g9star 2 года назад

    진짜 ㅈㄴ재밌다 ㅁㅊ...

  • @카시카-i8q
    @카시카-i8q Год назад

    Cnn에 대해서 좀 설명을 해줬으면 더 좋았을 듯 하네용

  • @김하-i6d
    @김하-i6d Год назад

    이미지생성 ai 를 이용하고있는데 확실히 아날로그 컴퓨터와 인공신경망 시리즈 를 보니 어떤 원리로 움직이는지 알것같습니다

  • @FGSRL
    @FGSRL Год назад

    8:57
    오...이게 우리의 의식과도 연결된 말이 아닌가요?
    우리가 무언가를 생각할 때, 뇌 속에서는 디지털 방식으로 수많은 0, 1 사이의 신호가 오고가지만
    정작 우리의 의식은 그 중 가장 강력한 신호값(가령 0.99987)이고 우린 그걸 "생각한다"라고 느끼는 게 아닌지...

  • @snowmanlee3360
    @snowmanlee3360 2 года назад +24

    아마도 디지털 방식과 아날로그 방식의 적절한 조합을 통한 컴퓨터 성능의 최적화가 바람직한 방향이 아닌가 싶다 마치 골디락스 존과도 같은 개념으로 접근할 필요가 있지 않을까 싶다

  • @ljh0412
    @ljh0412 2 года назад +3

    그래도 여전히 무어의 법칙은 현실화될 것 같다. 이미 3d로 칩을 구성하는 기술을 암당이 보여줬으니 최적화가 완료되면 두배는 거뜬할듯?

    • @김수성-q8g
      @김수성-q8g 2 года назад

      맞습니다 finfer도 그러한 해결책의 일환이고 인류는 해낼겁니다.

  • @천성민-s5d
    @천성민-s5d 2 года назад

    이렇게 제2의 채굴 붐이...

  • @JJ-pf7qo
    @JJ-pf7qo 2 года назад +1

    정말 쉽게 풀어놧네요. 뉴런 컴퓨터가 어떻게 0 1 그 사이를 만드나 햇더니. 간단한 I vr 이거 하나로 트랜지스터 전류양으로 조절을 하는거네요.
    Ai 방식이 그 옛날 50년대 연구와 기초가 다르지 않다는것도 놀랍습니다.
    비전공자 이지만 정말 짧은시간에 엄청난건 배우고 가는거 같아요.

    • @coinwhere
      @coinwhere Год назад

      가변 저항을 영어 약어로 어렵게 이야기 하네요? 공돌이 부심인가요?

    • @youdieee
      @youdieee Год назад +3

      ​@@coinwhere영상에 나온거 그냥 말한건데 공돌이가 되다니, 부럽네요

    • @dhdhas3786
      @dhdhas3786 Год назад +1

      ​@@coinwhere열등감 오지시네요

    • @coinwhere
      @coinwhere Год назад

      @@dhdhas3786 니깟게 뭔지도 모르는 판에 무슨 열등감? 댓글봇에 인간이 왜?

  • @루루-z4l
    @루루-z4l 2 года назад

    엣지컴퓨팅에서 아날로그가 확실히 이점이 있겠네요. 신호왜곡증폭만 잘 해결된다면…

  • @procyonq
    @procyonq 2 года назад +1

    7:32 아날로그컴퓨터로 Training 어렵지만 Inference는 가능하다 로 이해하면 될까요?

    • @유준상-o6g
      @유준상-o6g 2 года назад +1

      학습할 때는 gpu같은 디지털 연산장치를 사용하고 추론(정확히 아날로그 컴퓨팅이 바라는 특정 분야)할 때는 소비전력이 훨씬 낮은 아날로그 연산장치를 사용한다는 뜻인 것 같네요

  • @이기범-z4r
    @이기범-z4r Год назад

    모델 수정을 하려면 칩 자체를 갈아끼워야하는 문제가 있겠네요 ㅋㅋㅋㅋ

  • @허원석-e2j
    @허원석-e2j Год назад

    소재가 미니멀해진다는건 그만큼 광범위하게 AI가 사용될 수 있고 또 그 결과또한 더 정확해 지겠죠... AI 분야가 모든 산업분야에서 활용될 수 있는 시대가 올거 갔습니다.

  • @jeongho6
    @jeongho6 Год назад

    저도 반쯤 뭔소린지 모르겠는데 양자 컴퓨터가 나오기 전까지는 대체품으로 쓸수는 있겠네요.

  • @hyun-87
    @hyun-87 2 года назад +2

    그럼 AI의 마지막은 아날로그...라는 말이 되는군요...

  • @allem49
    @allem49 2 года назад

    이거 너무 잼있다

  • @rldbs3411
    @rldbs3411 2 года назад

    좋네여

  • @Robo1004P
    @Robo1004P 3 месяца назад

    문과입니다.
    사실 잘 모르겠고 ai분야 한정으로 그래픽 카드를 덜 쓰겠구나만 알았습니다.
    Amd 주식은 2년 내로 팔아야겠네요

  • @user-xw2zz2wv2x
    @user-xw2zz2wv2x 2 года назад

    대규모 병렬 행렬곱은 그동안 GPU 또는 전용 처리장치 (NPU, TPU) 등을 사용하였으나 아날로그 컴퓨터를 이용하여 빠르게 연산 할 수 있다.
    단점은 아날로그 데이터는 왜곡이 심하여 디지털 데이터로 변환해야 실사용이 가능하다. 그리고 이 변환과정이 매우 전력소모가 크고 어렵다.
    정리 끝
    영상 잘 봤습니다. 생각할 거리가 생기는 좋은 시간이었습니다

    • @coinwhere
      @coinwhere Год назад

      단점은 아날로그 데이터는 왜곡이 심하여 디지털 데이터로 변환해야 실사용이 가능하다. 그리고 이 변환과정이 매우 전력소모가 크고 어렵다. --->> 그래서 AI 이미지 학습같이 확율적으로 인식하는 경우에 쓴다고 하자나, 보고도 몰라? 아날로그 데이터를 받아서 디지털로 전환해서 정확하게 반응하게 작동하는 시스템이면 그냥 기존의 디지털 컴퓨터를 쓰면 되지 무슨 말이 하고 싶니?

    • @user-xw2zz2wv2x
      @user-xw2zz2wv2x Год назад

      @@coinwhere 너 보라고 쓴거 아닌데 ㅋㅋ 왜 이렇개 화났음?

    • @coinwhere
      @coinwhere Год назад

      @@user-xw2zz2wv2x 유튜브 댓글을 달지 말던가? 무슨 회괴한 소리냐?

    • @user-xw2zz2wv2x
      @user-xw2zz2wv2x Год назад

      @@coinwhere ㅋㅋㅋ 댓글을 봐서 화가 나셨구나 거 죄송하게 됐수다~ 근데 저도 당신의 "회괴"한 맞춤법에 화났는데 사과해라

  • @aldb0309
    @aldb0309 2 года назад +1

    뇌의 부분은 디지털처럼 작동하고 전체는 아날로그처럼 작동한다..

  • @미드필드왕
    @미드필드왕 2 года назад

    한국어 채널을 운영하는 당신은 누구입니까? 너무나 궁금합니다.

  • @위즈WisdomIT
    @위즈WisdomIT Год назад

    세상엔 똑똑한 사람들이 너무 많다..

  • @aniein501
    @aniein501 2 года назад

    결과 출력용으로는 효율적으로 쓸 수 있다는건데 나중에 컴퓨터 부품으로 나왔으면 좋겠네요 글카에 내장된다거나

  • @F-15E
    @F-15E 2 года назад

    7:14 지금 쓰는 그래픽카드를 저기서 보네ㅋㅋㅋㅋㅋㅋㅋㅋ
    하여튼 아날로그가 이렇게 되살아 날줄은 몰랐네

  • @가위큐브
    @가위큐브 Год назад +1

    ㅇㄴㅋㅋㅋㅋㅋ진짜 드립이 섞인 ㅋㅋㅋㅋㅋㅋ

  • @coinwhere
    @coinwhere Год назад +1

    사람과 관련된 모든 작용과 반작용 자극과 대응은 모두 아날로그인데 그걸 이때까지 디지탈로 변환해서 이것의 벡터값을 계산하여 컴퓨터가 인식하고 이를 다시 변환하여 출력하고
    너무 많은 컴퓨팅 자원을 낭비해온게 디지털 컴퓨터 였다는 것
    따라서 원래 입력값을 아날로그로 가변 저항값같은 하고 이를 같은 아날로그 값으로 변환하여 출력하면 엄청난 디지털 행렬 계산 연산 프로세싱을 줄일수 있다는 것.

  • @bighand9558
    @bighand9558 Год назад

    30년전에 군생활때 고참이 그러더군요. 디지털 컴퓨터가 한계가 오면 아나로그 컴퓨터가 떠오를거라고.. 그고참은 지금 무슨일하고 있을까..

    • @sweetmankim
      @sweetmankim Год назад

      그 당시 방공부대나 공군 무장 쪽에 계셨고 전자 쪽에 조예가 깊은 분이라면 충분히 예상할 수 있었겠죠.
      80년대에 쓰던 크루즈 미사일이나 방공 미사일들은 모두 아날로그 컴퓨터들을 썼고 ( 최하 초속 300미터를 날아가고 당시 디지탈 CPU는 4-20MHz - 명령어 하나에 약 1-2us 정도 걸렸으니 아차하면 오차... ).
      지금 테슬라의 FSD도 진화하면 아날로그적 해석이 많이 들어갈 것입니다...

  • @ddolgiB
    @ddolgiB 2 года назад

    Wow~!

  • @TaejoonOh
    @TaejoonOh 2 года назад

    재미있는데, 머리가 너무 아파용... 근데 재밌어...
    내가 학창시절에 공부를 더 해놨었다면, 이 시리즈를 이해하는데에 조금은 어려움이 덜했을까...?

  • @ymkim4698
    @ymkim4698 2 года назад +1

    한 7년전에 박사과정 친구한테 아날로그의 힘에 대한 이런 비슷한 이야기를 했다가 미친 놈 보는듯한 표정으로 날 쳐다봤던 기억이 나네.

  • @우엉아으어
    @우엉아으어 8 месяцев назад

    아날로그 컴퓨터 관련주 사야겠네

  • @isaaclee6719
    @isaaclee6719 2 года назад +6

    1. 굉장히 흥미롭고 영감을 자극하는 영상이다.
    2. 아날로그로 계산하는것이 현재까지는 정확도는 떨어지지만 병렬로 추세를 갖는 것의 무한 계산에는 훨씬 강력하다는 얘기다.
    3. 즉 인간의 뇌의 작동방식에 훨씬 가깝다는 것이다. 22.06.27(월)

  • @이지후-w8v
    @이지후-w8v 2 года назад

    영상보니까 ssd멀티셀 개념 비슷하게 가네요

  • @jaeholee3816
    @jaeholee3816 2 года назад +4

    우리뇌의 뉴런 자체가 아나로그+디지털 컴퓨터군요...결국 생명은 수십억년전부터 이 둘다 활용하고 있었음...

    • @packpack758
      @packpack758 2 года назад +3

      철학과 수학이 시작되면서 신을 부정했는데 다시 신을 믿게 될 수준임 ㅋㅋㅋㅋㅋㅋ

    • @youdieee
      @youdieee Год назад

      ​@@packpack758처음에는 철학자들은 신을 믿었고, 부분적으로 인류를 통합 (종교) 하였죠. 그 이후 세상이 바뀌고, 수천년의 세월이 지나자 어느덧 어딘가의 철학자들은 신을 부정하였죠. 신이란게 존재한다면 어찌 이리도 역설적인 존재인가 하면서요. 허나, 철학에서 나온 여러 분파들은 다시 신을 믿습니다.
      이것이 우연의 일치로 만들어졌다는게 믿기지 않거든요. 그저 작은 피조물이자 수십억년의 세월이 이토록 복잡한 생물을 만들었다는게, 이토록 거대한 세계가 만들어졌다는게
      신을 믿을 정도로 경이롭고, 말도 안되는 세계란것을 알수록 느끼고 있죠.
      그저 일반인이 전체적으로 본다면, 그저 쉬운것으로 넘기고 신을 부정하지만, 조금이라도 깊게 파는 자들은 신을 믿게 되었습니다. 과거에도, 지금에도 말이죠. 다만 영역이 달라졌어요. 그때도 지금도 그 분야의 최전선이지만, 지금과 그때의 전선의 거리는 한참 동 떨어져 있으니까요

    • @jaaj5290
      @jaaj5290 Год назад

      신: 어 형이야

  • @warden5055
    @warden5055 2 года назад

    양자컴이 실용화 되는 방법밖에 없겠구만

  • @fakezero4129
    @fakezero4129 2 года назад +1

    점점 비싸져가고 고갈되어가는 반도체, 한계에 도달한 트랜지스터의 크기 등의 여러가지 문제를 해결할 수 있는 엄청난 방법인 것 같습니다. 아날로그 값과 디지털 값의 자유로운 형변환. 이것이 제 4차 산업 혁명에 새로운 바람을 만들어 줄 것 같습니다.
    스마트폰이 세상에 등장한지 10년이 넘었습니다. 그리고 스마트폰은 결국 한계에 도달했죠. 현재 나오고 있는 스마트폰은 외형이나 성능에서 차이가 날 뿐 근본적으로 혁신적인 무언가를 가져다 줄 수 없는 디바이스가 되었습니다. 사람들이 말하는 가장 이상적인 제 4차 산업혁명의 미래. 이것에 도달하기 위해서는 5G 기술의 진정한 실현과 애플이 스마트폰을 세상에 등장시켰던 것처럼 사람들의 생활을 바꿀 범지구적인 새로운 디바이스가 필요합니다. 제 개인적으로는 AR/VR 기술이 접목된 디바이스가 될 것으로 예상합니다만 기술의 한계로 시간이 더 걸릴 것으로 예상했습니다. 다만 이 영상을 보고 다시 한 번 생각을 바꾸었습니다. 세계에서 이런 연구가 이루어지고 있다면 어쩌면 멀지 않겠구나라는 생각이 듭니다.

  • @가-j7y
    @가-j7y Год назад

    디지털은 1 또는 0
    아날로그는 가변값을 가진다는거네요

  • @dhp5865
    @dhp5865 2 года назад +1

    이런 식으로 나가면 소심한 사람이 그러듯이, 갈대처럼 오락가락 생각하는 AI도 보게 되겠군요?

  • @구독자임요한2
    @구독자임요한2 2 года назад

    나중에 상용화 되면 그래픽카드에 실장되어서 나오려나
    만약 나온다면 그래픽카드 제원에 글자 몇개 추가에 PCI 규격도 새로 만들어서 나오면 좋겠군요.

  • @Sopiro
    @Sopiro 2 года назад

    맞네.. 사람 뇌도 continuous space니까..

  • @InminKing
    @InminKing 2 года назад

    학부때 배운 SNR이랑 PER생각나네

  • @Ikmujn
    @Ikmujn Год назад

    영상 말미에서 진행자는 다음과 같이 말합니다.
    "우리의 두뇌는 뉴런이 활성화 되거나 되지 않는다는 점에서 디지털이지만 사고가 모든 곳에서 동시에 발생한다는 점에서는 아날로그입니다."
    결국 진화의 방향은 에너지를 적게 쓰기 위한 방향으로 진화했다고 보여지네요.
    뉴런이 비활성화되면 결국 매개변수가 줄어들어 계산량이 줄어들 것이고, 순차성이 아닌 동시성으로 사고가 진행되면 느리게 작동하더라도 충분히 외부 변화에 반응하게 되겠지요.
    결국 자연에 적응한 결과가 진화라고 봐야겠지요.

  • @lovmemory
    @lovmemory 2 года назад

    저걸로 채굴하면 1초에 100개 정도 채굴 되나여?ㅋㅋㅋ

    • @yongjunkim791
      @yongjunkim791 2 года назад

      놀랍게도 아직은 채굴이 불가능 합니다.. ㅎㅎ 정확도가 100프로가 되지 않은이상 아날로그 칩에서 프로세싱한 데이터가 디지털로 변환이 완벽하게 안되기 때문이죵.. 현재 디지털 환경에서, 특히 인터넷에서 데이터를 주고 받을때 가장 중요한것중 하나가 바로 정확도 입니다. 상대방이 4를 보냈는데 한쪽에서 3을 받으면 문제가 생기겠죵. 비트코인 채굴은 단순하게 풀면 정확한 영수증을 시스템이 보유하고 있어야 한다는 것인데, 저 아날로그 칩셋의 연산을 완벽하게 디지털로 변환하는건 현재 단계에선 오히려 에너지 효율이 떨어지는 고난이도 작업입니당... 미래에 아날로그 칩셋의 정확도가 100에 수렴한다면 가능할지도 모르겠지만요..ㅎㅎ

  • @pel3798
    @pel3798 2 года назад +4

    가령 이런거임... 물 5리터와 물 3리터를 더하려고함 결과가 어케 됨??? (1) 숫자를 적어서 5+3을 계산해 공책에 적는다. (님들 사용하는 nvidia) / (2) 5리터 물 담긴 비커와 3리터 물 담긴 비커 두개 한꺼번에 부어서 눈금 봄. (회로로 결론내리는거.) 그다지 신기한 방식은 아님 컴퓨팅은 항상 그래왔음 ㅇㅇ 기술이 점점 무르익는거지. 첨에는 편한 언어 사용하다가 기술 익어갈 때쯤엔 효율성 높은 언어로 바꿔서 에너지 소비 줄이고 속도 빠르게 만듬. 일반적인 컴싸 기술 발전방식임

    • @pel3798
      @pel3798 2 года назад

      비커1 안에 원자 1,627,813,678,167,283 개 있음. 비커 2 안에 원자 1,267,381,627,831,623개 있음. 총 몇개의 원자가 있는가? (1) 기존방식으로 계산기 뚜드림. (2) 기술이 익었으니 회로 만들었고... 이 회로는 비커 두개 합쳐서 합쳐진 비커 눈금보고 바로 알려줌.

  • @mathsciencefancier
    @mathsciencefancier 2 года назад

    6:47 6:56 미틴...!!ㅁ

  • @이현승-r2y
    @이현승-r2y 2 года назад +1

    앞으로의 인공지능은 소프트웨어가 아니라 하드웨어가 된다는 건데 암호화폐 채굴이 GPU에서 ASIC으로 넘어가는게 생각나네

    • @유준상-o6g
      @유준상-o6g 2 года назад

      gpu도 하드웨어인데영... 특정 연산에 특화된 장치를 지향한다는 의미에서는 동일한 것 같네요

  • @jaaj5290
    @jaaj5290 Год назад

    딴건 몰라도 인간처럼 '알아서 잘' 하도록 인공지능을 만드려면 결국 인간처럼 불완전한 존재가 되어버린다는건 알겠다.
    인간의 실수도 그럼 근본적으로 연산이 딸려서 나오는 확률적 오류겠구나.. 진짜 뇌에 보조장치만 잘 심으면 현제 나온 인공지능들이 해주는 일 따위는 필요없어지는거 아닐까 싶어 무섭네

  • @Echoseok
    @Echoseok 2 года назад

    양자컴퓨터랑 비슷한 듯 다른 듯…

  • @violetcrown8998
    @violetcrown8998 2 года назад

    그치 인간의 뇌는 반은 아날로그로 반은 디지털로 작동하니까

    • @violetcrown8998
      @violetcrown8998 2 года назад

      디지털로 작동한다고 어느 뎃에서 봐서요

  • @YT-ll8ns
    @YT-ll8ns 7 месяцев назад

    AI를 공부해보면 알 수 있지
    단순한 곱셈일 뿐인데 왜 굳이 비용이 기하급수적으로 증가하는 행렬연산을 해야하지?
    아! 큰 숫자를 표현하기에는 bit수가 부족하구나! bit제한을 없애려면 아날로그 방식으로 할 수 밖에 없겠네

  • @chiwoo1014
    @chiwoo1014 2 года назад

    아날로그 연산기가 발전하면 그걸로 코인 채굴하는 놈들부터 나올 것 같은데...
    아니, 코인 해킹이라도 시도할런지..?

  • @whowho1693
    @whowho1693 2 года назад

    어쩌면 이 아날로그 단위 소자를 이용해서 큐비트를 구현할 수도 있지 않을까요?? 잘은 모르지만 왠지 될 거 같네요 ㅋㅋㅋㅋ

  • @mekopark3201
    @mekopark3201 2 года назад +1

    사실 지금의 인공지능 이슈 이전에도 아날로그컴퓨팅에 대한 장점과 수요는 늘 이야기 됐지만 규모화 시키지 못해서 결국 기존 컴퓨터의 범용성을 뒤집을 수가 없었음. 지금도 큰 차이는 없고. 그나마 비트코인처럼 대놓고 자산으로 명확하게 치환시킬 수 있는것들에나 특수목적용의 칩이 적용될 가능성이 생기는거지 그외엔 좀 미묘...

  • @danny04278
    @danny04278 10 месяцев назад

    내용이 전자공 학생 아니면 이해하기 힘들긴하겠네
    반물전이랑 인공지능 내용이라 ㅋㅋ;

    • @danny04278
      @danny04278 10 месяцев назад

      내용 이해안되면
      지금 인공지능이란건 소프트웨어로 구현한거고
      mosfet이란 트랜지스터를 통해 신경망을 하드웨어적으로도 구현할 수 있다라고 생각하셔요
      국내에서는 NINT같은 랩실에서 연구중임

  • @보라돌이ioi
    @보라돌이ioi Год назад

    뭔 소리야?

  • @weird-cat
    @weird-cat 2 года назад +2

    야옹!

  • @긴조
    @긴조 2 года назад

    강아지가 아니고 개. 개. 개. 개. 마치 성인과 아기, 병아리와 닭, 송아지와 소를 구분 못하는 분 같네요.

  • @coinwhere
    @coinwhere Год назад +1

    2D-> 3D 로 빨 리 변환해주는 칩 결국 벡터행렬 계산을 빨리해주는 칩이란 말 속도는 기존 GP에 비교하면 1000 배 빠르고 전력소비는 2만분의 1에 불과 학습을 통하면 사진 4장이면 3D 모델링이 가능할것으로 예상합니다. 여기 텍사스에 있는 스탓업과 같은 신경 학습망 칩과 같은 종류인가 봅니다. ruclips.net/video/0ntrnje1g2w/видео.html

  • @coinwhere
    @coinwhere Год назад +1

    이걸보면 SS전자보나는 TSMC가 훨씬더 빨리 더 크게 성장할것 같다는 예감이 드는 건 뭘까? SS전자는 앞으로도 쭉 멘땅에 헤딩만하다가 회사가 망할 것같다는 느낌이 든다.