CUDA 배우다 보면 레퍼런스가 2011년, 2009년 이렇게 엄청 오래되었다는 사실이 굉장히 놀라곤 합니다. cuda로 선형 대수 계산을 극도로 최적화시킨 라이브러리인 cublas가 그당시부터 차곡차곡 준비되고 있었다는 걸 생각해보면 지금 엔비디아의 독주가 정말 당연한 것이겠죠...
현업인데 계속 GPU 시장이 커진다는건 절대 동의가 안됩니다. 이미 대부분의 성능을 self supervised learning에 의존하는 현대의 LLM은 어느정도 한계점이 명확히 나와서 시장 확장엔 한계가 있고요. (이게 아키텍처 한계든 학습방법 한계든 한계는 확실합니다) 또 최신 페이퍼들 GPU 리소스 면에서 트랜스포머보다 월등히 뛰어난 알고리즘들이 쏟아지고 있어서 계속해서 GPU에 돈을 미친듯이 써야하는 미래에는 저도 동의못하고 구글 딥마인드도 동의못하고 FAIR도 동의못합니다.
CUDA 자체는 그냥 드라이버 소프트웨어가 아니라 뒤에서 사람들이 엄청나게 달라붙어서 실시간으로 고치는 라이브러리임. 규제 때린다, 그래서 풀어라 하면 엔비디아는 껍데기만 주면 됨. 유럽은 엔비디아 눈 밖에 나서 껍데기 갖고 이거 어똫게 해야 하냐? 우리 유럽은 그거 할 인련도 시간도 없는데? 상황. AMD ROCm, 애플 메탈, 오픈API vulkan 등 대체제도 널린게 이쪽 판이고. 다만, CUDA 만큼의 완성도가 없어서 다른 라이브러리로 멀티모달 AI 만들면 메타 라마처롬 30분 마다 에러나서 서버가 다운됨. AI 개발자 인건비가 1인당 수억이 되는데 CUDA 라이센싱 값 아깝다고 대체품 찾으면 그냥 돈 버리는거임.
하고있는데 효율성이 낮아서 못잡는거죠. 쿠다를 기반으로 형성된 인프라에 다른 모델로 결과물을 만들어내면 쿠다기반 인프라에 맞게 재작업 해야합니다. 거기서 비용이 발생하니 효율성이 떨이지죠. 칩가격이나 서버가격이 엔비디아보다 저렴해도 재작업에서 비용이 들어가서 오히려 더 비싸지는. 지금은 그래요. 그래서 빅테크들이 그냥 엔비디아꺼 쓰는겁니다. 그게 제일 싸게치이니까요.
이공계가 미래다 이공계 발전한 나라 = 선진국 고연봉 = 이공계 전공 이공계 대학순위 = 실제적 대학순위 ==== 미국 이공계 고연봉자 말====== 좋든 싫든 우린 컴퓨터, 스마트폰, 인터넷 이제 AI 까지 매일 매일 함께 한다. 그런데 한국은 의대, 법대, 부동산........아놔 진짜....깝깝한 마인드....
LLM과 엔비디아 칩 아키텍쳐를 포함해 아직 현재 AI 기술은 AI 발전 과정에서 등장한 하나의 초기 모델에 불과합니다. 그리고 현재 AI 모델은, 구축 비용은 차지하더라도, 하나의 질의에 대한 답변 과정에서 운영 비용이 지나치게 높습니다. 이것 자체가 완성형과는 거리가 멀다는 것을 의미하고, 상용화는 극히 제한적일 수 밖에 없다는 것을 의미합니다. 진정한 AI는 양자컴퓨터가 완성되는 시점부터 새롭게 시작될 것이고, 그 땐 LLM이 아닌 양자컴에 맞는 새로운 모델이 등장할 것입니다. 지금부터 과도하게 AI에 투자하는건 돈 벌어서 엔비디아에 갖다 바치는 것 밖에 안 됩니다. 지금은 양자컴에 주목해야 할 시기입니다.
다른건 하두 영어가 많이 나오니 알아들을수 없는데 NVIDIA 경쟁자가 애플 과 테슬라 라니 그들은 NVIDIA GPU를 사와서 그들 데이터센터에 사용하지 않나??? 거기에 NVIDIA란 회사는 엄현히 하드웨어 회사인데 먼 SOFT회사라고 그러시나??? 지금 지구상에서 GPU중에 하드웨어로 최고회사가 어디인가? NVIDIA 아닌가??? 경쟁자는 AMD,인텔 같은곳이 되겟는데 잘모르는 영감제이가 한소리좀 햇수다 ㅎㅎㅎ
그리고 엔비디아가 소프트웨어 기업이라는 사람만큼 멍청한 사람들이 없습니다. 엔비디아에서 제공하는 CUDA는 "NVIDIA GPU를 잘 쓸 수 있도록 도와주는 프로그래밍 언어"라고 보시면 됩니다. 즉, CUDA를 따로 떼서 팔 수도 없으며 CUDA는 NVIDIA GPU와 독립적으로 존재할 수 없습니다. 소프트웨어를 독립적으로 팔지 못하는 소프트웨어 기업이 있나요? 그냥 말장난입니다. 또한 CUDA는 전면 대체 불가능한 소프트웨어가 아닙니다. 다만 이미 생태계, 특히 Training관련 생태계를 선점하고 있으며 사람들이 CUDA에 익숙하기 때문에 엔비디아 GPU를 더 선호하는 것 뿐이죠. 또 고객사들 입장에서는 1등 기업이고, 원래 오래 썼다보니까 굉장히 신뢰성이 있다고 느끼고 있고요. 만약 AMD나 Intel이 NVIDIA보다 상당히 좋은데 상당히 저렴한 칩을 만들 수 있다면 개발자 뽑아서 시간 좀 들이고, 이 쪽 소프트웨어를 새로 뚫으면 그만입니다. 실제로 그래서 네이버 같은 기업들은 intel 가우디로 GPU를 대체해보려는 시도도 좀 해보고는 있고요. 다만 다만 현실은 AMD나 Intel이 깡 하드웨어만 봐도 nvidia랑 비슷하거나 약간 앞서거나 약간 밀리거나 뭐 그럽니다. 거기에 신뢰성이나 소프트웨어적 익숙함이 많이 딸리는 것 뿐이죠. 반면 최근 나오는 NPU 같은 것들이, CUDA로 잘 최적화 한 GPU보다 Transformer를 효율적으로 잘 돌리는 경우가 많습니다. 이런 칩들의 경우 개발자를 뽑아서 소프트웨어를 뚫으면 경우에 따라서 엔비디아 GPU보다 훨씬 우수한 성능을 보이기도 합니다. 그래서 실제로 GPU에 위협이 될 수 밖에 없습니다. 학습 플랫폼은 AMD나 Intel이 그나마 경쟁자이지만 엔비디아가 뻘짓 하지 않는 이상 우세할 가능성이 높고요. 추론은 아마 엔비디아가 가격 내리지 않는 이상 빅테크들은 엔지니어 뽑아서 자체 칩을 개발하는 방향으로 점점 가지 않을까 싶습니다. 훨씬 저렴하거든요. 이 전략이 실패하면 다시 GPU에 의존하겠죠. 결론적으로, 애플이나 테슬라는 아예 관련도 없는 기업입니다.
@@robertsaint6495 일단 저는 제대로 된 개발자 중 언어에 종속적인 사람은 없다고 봅니다. 뭐 CUDA 관련 경력이 많아서 CUDA를 써야하는 포지션에 뽑힐 수는 있겠죠. 하지만 C, java, python도 하나 배웠다고 그 언어만 쓸 수 있다고 주장하는 사람은 딱 C급 이하 개발자입니다. 좋은 개발자는 그냥 회사에서 요구하는 스킬셋을 그때그때 배워 쓸 수 있는 사람이고요. CUDA가 가장 유망한 학습 플랫폼인건 당연한 사실이지만, 개발자들이 CUDA에 익숙한거랑 회사 차원에서 다른 프레임워크 도입을 시도할 수 있는거랑은 별개입니다. 회사에서는 좋은 개발자를 뽑아서 새로 소프트웨어를 뚫는 비용과, 엔비디아 GPU를 사서 얻는 이득 같은 것을 비교해가면서 하드웨어를 도입할 수 밖에 없습니다. 현재는 NPU든 다른 회사 GPU든 그 이득을 얻는 임계점을 넘지 못한 것 뿐이고요. 그리고 프레임워크를 선점한다고 30년 간다는건 역사를 몰라도 너무 모르는겁니다. 동등한 비교일지는 모르겠다만 당장 딥러닝 프레임워크만 봐도 맨 처음에 Tensorflow가 가장 인기있었는데 이제 pytorch가 완전히 지배했죠.
@@robertsaint6495 그리고 ML/AI 연구 중 pytorch 수준에서 끝나는 연구가 상당히 많은데 과연 99%가 CUDA로 돌아간다는 말이 맞을까요? 대부분 이미 갖고있는 Nvidia GPU를 쓰니까 아주 틀린 말은 아니다만, 실상은 커널을 작성해야 하거나 최적화 관련 연구를 하지 않는 상당히 많은 사람들은, pytorch로 모델 만들어서 학습시키고 돌리는 것 위주로 딥러닝을 다루죠. 로우레벨에서 어떤 일이 일어나는지 잘은 모르고요. 이런 부분에서 중요한 건 하드웨어-pytorch 호환성이지 CUDA가 아닙니다.
@@soongyuchoi9356 쿠다는 로우레벨 스택이에요... 쿠다코어로 gpgpu 병렬연산 해주는 api를 파이토치든 텐서플로우든 가져다 쓰는거기때문에 유저레벨 프레임워크는 바뀌어도 상관없는겁니다 하이레벨언어 프레임워크도 시장성 업계표준때문에 성능이나 편의성이 엄청 뛰어나지 않으면 대체하기 힘든데 쿠다처럼 엔비디아 하드웨어에 딱 붙어있는 언어가 이렇게 학계랑 실무에서 많이쓰이니 대체불가능입니다 amd도 결국 독립실패하고 amd용 쿠다 포팅버전을 지원하는 방식으로 가서 종속적이게 됬습니다 경쟁자는 이제 아무도 없습니다
@@deanchoi742 아무래도 인공지능 쪽에서는 메타랑 구글이 빅테크 중에서는 가장 두각을 드러내고 클라우드나 OS같은 환경 쪽에서는 MS도 꽤 잘하죠. MS는 OpenAI의 최대 주주이기도 하고요. Nvidia 애플 테슬라 모두 SW기술은 앞선 회사들보단 떨어지긴 합니다. 그나마 셋 중에서는 엔비디아가 SW도 좀 잘하고 경쟁력 있죠. 은근 인공지능에 조예가 깊고요.
강의 미쳤네요
오늘 강의 정말 좋은데요 .. 말씀을 너무 잘하셔서 감사하게 들었습니다.
AI 붐이 일기 한참 전부터 CUDA 에 투자해왔던게 신의 한수였네요.
CUDA 배우다 보면 레퍼런스가 2011년, 2009년 이렇게 엄청 오래되었다는 사실이 굉장히 놀라곤 합니다. cuda로 선형 대수 계산을 극도로 최적화시킨 라이브러리인 cublas가 그당시부터 차곡차곡 준비되고 있었다는 걸 생각해보면 지금 엔비디아의 독주가 정말 당연한 것이겠죠...
@simplelogic-o9i 예전의 Abaqus라던가 시뮬레이션 프로그램들이 얘기하신 라이브러리들을 통해 cuda를 지원했으니, 그때부터 씨앗이 차곡차곡 쌓여온거겠죠.
ai를 위해 cuda를 만들었다기 보단 ai가 뭔가 쓸만한 플랫폼을 찾다보니 마침 cuda가 있었던... 벡터연산이라는 점이 ai과 3d 연산의 공통점이었던거죠
인사이트가 대단하시네요 좋은 강의 감사합니다
아~~~~ 완벽히 이해했어!!!!!
울산에서 솔트룩스 ai 부트캠프 다니고 있는 학생입니다. 슬슬 부트캠프가 끝나가는 시점인데요, ai에 발을 들이게 된 사람으로서 이론적으로 궁금했던 것들에 대한 많은 해답이 이 영상에 있네요.수학공부 많이 해야겠습니다 ㅎㅎ
정말 좋은 공부했습니다.
아주 쉽고 정확하게 설명해주셨습니다.
감사합니다.🎉
좋은 강의 감사합니다!!
유투브 명칭을 잘될공학이 좋아요
우와~ 이런 해설을 듣게 되네요. 어렴풋하던 것들이 정리가 화악 됩니다.
꿀잠잤습니다❤
와 내용이 저한테는 너무어렵네요 이해하려고 2번 시청했는데 공학자분들 대단하신듯
테슬라가 gpu 20만개를 한꺼번에 연결해서 컴퓨팅 파워하는 것은 엄청난 실력이라고 하는거네
전세계 회사에서 만들지 못하는것을 최단기간내 만들어 내는 것이 인간이 아니라고 하는듯
미국에서 제일 공부잘하는 애들이
입사하는 회사가 테슬라 스페이스x
아주 유익한 내용 감사합니다!
무슨말인지 잘 모르겠는데 재미있네요 솔트룩스 다시 봤습니다
아 낫 놓고 기역 자 모르겠어요. 하지만 잘 듣고있어요. 잘모르지만 그냥 듣고있어요. 공학 재미있네요.
너무 감사합니다. 잘 들었습니다.
현업에서 일하고 있지만 AI생태계를 큰 관점으로 이해할 수 있을 정도로 좋은 강의입니다!😊
좋은 강의 감사합니다
야 이거는 소장각인데.. 너무 재밌게 들었습니다!!
재밌게 잘 보고 갑니다.
감사합니다.
귀하다 귀해~~
솔트룩스 빚도없는회사임
Wow, what a great content, thank you. Subscribed.
미국에 안드레아 카파시가 있다면 우리한테는 이경일 대표님이 계시네요~ 알짜 AI 강의 감사합니다! ^^ 😊
감사합니다
0:24 집중해야 하는 이미지
갑자기 일론머스크가 우리의 라이벌은 애플이라고 몇년전에 이야기 한게 생각나네. 진짜. 이사람 뭐지
지금의 기술과 앞으로의 기술도 과거 공업 수학을 벗어나지 못한다. 이것이 수학의 위대함이며 수학이 발명이 아니라 발견의 결과인 것이다.
솔트룩스가 언제나 적자에서 벗어나 글로벌 경쟁력으로 일취월장 할까 내 관심분야입니다
오늘 강의 깊이가 ㄷㄷㄷ 잘봣습니다
와 진짜 짧은데 깊네요 남의 유튜브초청인데 이렇게 까지 할수있나 싶네요 잘들었습니다
근대 cuda가 os처럼 완전히 하드웨어에서 어플까지 감싸는 sdk인지는 좀 의문... nvidia에서 open source llm을 release했다고 하는대 이게 어떤 의미인지도 궁금하내요.
그러니까 형.. 솔트룩스 언제 올라?
엔비디아 애플 테슬라 추매 ...
이젠 고등학교에서 행렬을 배우지 않으니 한국은 뒤떨어질 일만 남았군요😂😂😂
헐 행렬을 안 배운다고요?? 충격이네요
엔비디아도 대단하지만 그 기술을 기깔나게 활용하는 테슬라가 대단
그리고 경쟁자가 아니라 사용자아닌가여?(테슬라 애플 등)
애플이랑 테슬라가 설계하는 반도체랑 엔비디아가 설계하는 반도체의 목적이 완전히 다른데 왜 경쟁자일까요? 좀 더 자세히 얘기해주면 좋을 것 같아요
오디오가 비지를 않네요
전체적인 지배 기간은 1등이 아니라 2등입니다.
어렵...😅
머스크가 현제 데이터 센터 규모를 늘리는 것도 어려운 일이고 그 네트워크를 관리하고 최적화 해내는 노하우와 역량은 더더욱 힘들다고 말했는데...결국은 각각 데이터센터를 갖게 될거지만 그때는 이미 빅테크가 장악한 이후에야 개인과 국가와 기업의 대중화..
챗...공업수학과 공돌이 오랜만에 듣는다
사용자 그리드 방식의 ai컴퓨팅은 불가능한가요?
불가능하진 않지만 속도가 매우 느리겠죠 못쓸만큼..
너무 엔비디아 입장에서 본거 같긴함
어느정도 성숙하면 결국 아키텍쳐나 소프트웨어보단 비용이 제일 큰 변수가 된다고 생각해서 몇년후엔 그리 압도적이진 못할거라 생각함
무엇에 대한 비용이요??
@@user_gehcijjehfjejncj 지금만 해도 ai 운용하는데 비용엄청 듬.
지금 기술개발 하는 회사들도 ai쪽으로는 별다른 수익없는데도 안 하면 뒤쳐지기 때문에 하는거임
현업인데 계속 GPU 시장이 커진다는건 절대 동의가 안됩니다. 이미 대부분의 성능을 self supervised learning에 의존하는 현대의 LLM은 어느정도 한계점이 명확히 나와서 시장 확장엔 한계가 있고요. (이게 아키텍처 한계든 학습방법 한계든 한계는 확실합니다) 또 최신 페이퍼들 GPU 리소스 면에서 트랜스포머보다 월등히 뛰어난 알고리즘들이 쏟아지고 있어서 계속해서 GPU에 돈을 미친듯이 써야하는 미래에는 저도 동의못하고 구글 딥마인드도 동의못하고 FAIR도 동의못합니다.
무슨 동의를 못 한다는 말밖에 없네
틀린 내용이 너무너무너무 많아서, 혹시나하고 봤는데 아 참 생각이 많아지네요...
예를 들면요??
구체적으로 틀린부분이 뭘까요?
공부 차원에서 궁금 합니다.
너무너무너무 많다면 대부분이 틀리다는 말씀?? 뭐하시는분인가요? 이렇게 막던지는 말은 누가 못해요? 사실이라면 논거와 반박을 주셔야죠
근데 회사는 계속 적자나던데~~이대로 가다간 자본잠식 아니냐??ㅋㅋㅋㅋㅋ 흑자나 내보고 입털어보자~~
근데 애플은 애플 생태계로 규제 뒤지게 쳐맞는데 cuda 생태계는 아무도 안 건드네 차이가 있나??
애플은 b2c nvidia는 b2b라서 그런듯
엔비디아 반독점 말 나오고 있는듯
근데 트럼프가 되서 공정위원장 리나칸 짤릴듰? ㅋㅋ 당분간 반독점 문제는 조용할거 같은데.. 구글만 똥밟은거 같음 ㅋㅋ
너는 뒤쥐게 쳐맞는데 왜 다른 사람들은 안건들까?
CUDA 자체는 그냥 드라이버 소프트웨어가 아니라 뒤에서 사람들이 엄청나게 달라붙어서 실시간으로 고치는 라이브러리임. 규제 때린다, 그래서 풀어라 하면 엔비디아는 껍데기만 주면 됨. 유럽은 엔비디아 눈 밖에 나서 껍데기 갖고 이거 어똫게 해야 하냐? 우리 유럽은 그거 할 인련도 시간도 없는데? 상황. AMD ROCm, 애플 메탈, 오픈API vulkan 등 대체제도 널린게 이쪽 판이고. 다만, CUDA 만큼의 완성도가 없어서 다른 라이브러리로 멀티모달 AI 만들면 메타 라마처롬 30분 마다 에러나서 서버가 다운됨. AI 개발자 인건비가 1인당 수억이 되는데 CUDA 라이센싱 값 아깝다고 대체품 찾으면 그냥 돈 버리는거임.
하고있는데 효율성이 낮아서 못잡는거죠. 쿠다를 기반으로 형성된 인프라에 다른 모델로 결과물을 만들어내면 쿠다기반 인프라에 맞게 재작업 해야합니다. 거기서 비용이 발생하니 효율성이 떨이지죠. 칩가격이나 서버가격이 엔비디아보다 저렴해도 재작업에서 비용이 들어가서 오히려 더 비싸지는. 지금은 그래요. 그래서 빅테크들이 그냥 엔비디아꺼 쓰는겁니다. 그게 제일 싸게치이니까요.
이공계가 미래다
이공계 발전한 나라 = 선진국
고연봉 = 이공계 전공
이공계 대학순위 = 실제적 대학순위
==== 미국 이공계 고연봉자 말======
좋든 싫든 우린 컴퓨터, 스마트폰, 인터넷 이제 AI 까지 매일 매일 함께 한다.
그런데 한국은 의대, 법대, 부동산........아놔 진짜....깝깝한 마인드....
당신은 뭐하시죠?
이공계만 잘하면 외교와 문학 문화 경쟁력은요?
미국은 다른것도 잘하면서 이공계도 잘하는거
일딴 미쿡이란 나라는 35000만이나 되는 인구가 잇어요 중공은 15억이라는 인구가 잇고 이중에서 천재들이 나올수 잇는 확율은???
한국은 겨우 한두명 야들은 수십명,수천명이 나온다는거 인구가 자원이란 말이 그냥 나오는게 아닙니다.
이공계가 미래. 맞는 말
LLM과 엔비디아 칩 아키텍쳐를 포함해 아직 현재 AI 기술은 AI 발전 과정에서 등장한 하나의 초기 모델에 불과합니다. 그리고 현재 AI 모델은, 구축 비용은 차지하더라도, 하나의 질의에 대한 답변 과정에서 운영 비용이 지나치게 높습니다. 이것 자체가 완성형과는 거리가 멀다는 것을 의미하고, 상용화는 극히 제한적일 수 밖에 없다는 것을 의미합니다. 진정한 AI는 양자컴퓨터가 완성되는 시점부터 새롭게 시작될 것이고, 그 땐 LLM이 아닌 양자컴에 맞는 새로운 모델이 등장할 것입니다. 지금부터 과도하게 AI에 투자하는건 돈 벌어서 엔비디아에 갖다 바치는 것 밖에 안 됩니다. 지금은 양자컴에 주목해야 할 시기입니다.
양자컴퓨터 운용비용이 더 비쌀거 같은데요??
한국은 gpu 1만개 줘도 못쓰겠네요;
엉엉 못알아듣겠어요 ㅠㅠ
뭔소리에요??
테슬라는 안하는게 없네… 일멘
코딩을 전혀 안 해 본 일반인이 for loop하면 알아 먹겠나?
이렇게 치역하게 전쟁즁인데 우리나라 정부는 아무 방향성도 없고... 검찰공화국이 되어버림... r&d예산은 깍이고 있고 답이 없음..
국장을 하면 안되는 이유
AI 개후진국
다른건 하두 영어가 많이 나오니 알아들을수 없는데 NVIDIA 경쟁자가 애플 과 테슬라 라니 그들은 NVIDIA GPU를 사와서 그들 데이터센터에 사용하지 않나???
거기에 NVIDIA란 회사는 엄현히 하드웨어 회사인데 먼 SOFT회사라고 그러시나??? 지금 지구상에서 GPU중에 하드웨어로 최고회사가 어디인가?
NVIDIA 아닌가??? 경쟁자는 AMD,인텔 같은곳이 되겟는데 잘모르는 영감제이가 한소리좀 햇수다 ㅎㅎㅎ
그리고 엔비디아가 소프트웨어 기업이라는 사람만큼 멍청한 사람들이 없습니다. 엔비디아에서 제공하는 CUDA는 "NVIDIA GPU를 잘 쓸 수 있도록 도와주는 프로그래밍 언어"라고 보시면 됩니다. 즉, CUDA를 따로 떼서 팔 수도 없으며 CUDA는 NVIDIA GPU와 독립적으로 존재할 수 없습니다. 소프트웨어를 독립적으로 팔지 못하는 소프트웨어 기업이 있나요? 그냥 말장난입니다.
또한 CUDA는 전면 대체 불가능한 소프트웨어가 아닙니다. 다만 이미 생태계, 특히 Training관련 생태계를 선점하고 있으며 사람들이 CUDA에 익숙하기 때문에 엔비디아 GPU를 더 선호하는 것 뿐이죠. 또 고객사들 입장에서는 1등 기업이고, 원래 오래 썼다보니까 굉장히 신뢰성이 있다고 느끼고 있고요.
만약 AMD나 Intel이 NVIDIA보다 상당히 좋은데 상당히 저렴한 칩을 만들 수 있다면 개발자 뽑아서 시간 좀 들이고, 이 쪽 소프트웨어를 새로 뚫으면 그만입니다. 실제로 그래서 네이버 같은 기업들은 intel 가우디로 GPU를 대체해보려는 시도도 좀 해보고는 있고요. 다만 다만 현실은 AMD나 Intel이 깡 하드웨어만 봐도 nvidia랑 비슷하거나 약간 앞서거나 약간 밀리거나 뭐 그럽니다. 거기에 신뢰성이나 소프트웨어적 익숙함이 많이 딸리는 것 뿐이죠.
반면 최근 나오는 NPU 같은 것들이, CUDA로 잘 최적화 한 GPU보다 Transformer를 효율적으로 잘 돌리는 경우가 많습니다.
이런 칩들의 경우 개발자를 뽑아서 소프트웨어를 뚫으면 경우에 따라서 엔비디아 GPU보다 훨씬 우수한 성능을 보이기도 합니다. 그래서 실제로 GPU에 위협이 될 수 밖에 없습니다.
학습 플랫폼은 AMD나 Intel이 그나마 경쟁자이지만 엔비디아가 뻘짓 하지 않는 이상 우세할 가능성이 높고요. 추론은 아마 엔비디아가 가격 내리지 않는 이상 빅테크들은 엔지니어 뽑아서 자체 칩을 개발하는 방향으로 점점 가지 않을까 싶습니다. 훨씬 저렴하거든요. 이 전략이 실패하면 다시 GPU에 의존하겠죠.
결론적으로, 애플이나 테슬라는 아예 관련도 없는 기업입니다.
ML/AI 연구베이스 99%가 전부 쿠다로 돌아가고 구현되는데 대체고 뭐고 향후 30년은 경쟁자 없습니다 프로그래밍언어는 한번 업계학계에 자리잡으면 C java python처럼 개발자 인생주기 내내 평생쓰입니다 한세대동안 대체불가능합니다
@@robertsaint6495
일단 저는 제대로 된 개발자 중 언어에 종속적인 사람은 없다고 봅니다. 뭐 CUDA 관련 경력이 많아서 CUDA를 써야하는 포지션에 뽑힐 수는 있겠죠. 하지만 C, java, python도 하나 배웠다고 그 언어만 쓸 수 있다고 주장하는 사람은 딱 C급 이하 개발자입니다. 좋은 개발자는 그냥 회사에서 요구하는 스킬셋을 그때그때 배워 쓸 수 있는 사람이고요.
CUDA가 가장 유망한 학습 플랫폼인건 당연한 사실이지만, 개발자들이 CUDA에 익숙한거랑 회사 차원에서 다른 프레임워크 도입을 시도할 수 있는거랑은 별개입니다. 회사에서는 좋은 개발자를 뽑아서 새로 소프트웨어를 뚫는 비용과, 엔비디아 GPU를 사서 얻는 이득 같은 것을 비교해가면서 하드웨어를 도입할 수 밖에 없습니다. 현재는 NPU든 다른 회사 GPU든 그 이득을 얻는 임계점을 넘지 못한 것 뿐이고요.
그리고 프레임워크를 선점한다고 30년 간다는건 역사를 몰라도 너무 모르는겁니다. 동등한 비교일지는 모르겠다만 당장 딥러닝 프레임워크만 봐도 맨 처음에 Tensorflow가 가장 인기있었는데 이제 pytorch가 완전히 지배했죠.
@@robertsaint6495 그리고 ML/AI 연구 중 pytorch 수준에서 끝나는 연구가 상당히 많은데 과연 99%가 CUDA로 돌아간다는 말이 맞을까요?
대부분 이미 갖고있는 Nvidia GPU를 쓰니까 아주 틀린 말은 아니다만, 실상은 커널을 작성해야 하거나 최적화 관련 연구를 하지 않는 상당히 많은 사람들은, pytorch로 모델 만들어서 학습시키고 돌리는 것 위주로 딥러닝을 다루죠. 로우레벨에서 어떤 일이 일어나는지 잘은 모르고요.
이런 부분에서 중요한 건 하드웨어-pytorch 호환성이지 CUDA가 아닙니다.
@@soongyuchoi9356 쿠다는 로우레벨 스택이에요... 쿠다코어로 gpgpu 병렬연산 해주는 api를 파이토치든 텐서플로우든 가져다 쓰는거기때문에 유저레벨 프레임워크는 바뀌어도 상관없는겁니다 하이레벨언어 프레임워크도 시장성 업계표준때문에 성능이나 편의성이 엄청 뛰어나지 않으면 대체하기 힘든데 쿠다처럼 엔비디아 하드웨어에 딱 붙어있는 언어가 이렇게 학계랑 실무에서 많이쓰이니 대체불가능입니다 amd도 결국 독립실패하고 amd용 쿠다 포팅버전을 지원하는 방식으로 가서 종속적이게 됬습니다 경쟁자는 이제 아무도 없습니다
@@soongyuchoi9356 쿠다는 커널레벨 언어입니다 그 api 끌어다쓰는 유저프레임워크랑은 아무상관 없습니다
nvidia 경쟁자가 apple이랑 tesla라는 희괴한 소리에 뒷받침 하는 근거도 억지네요, 솔트룩스 적자기업이라 그런지 말에 신뢰성이 부족하게 느껴지네요.
어디라고 생각하세요?
@@캬캬켜켜켜캬캬 nvidia 직접 경쟁자는 인텔, AMD이고, 잠재적 경쟁자들은 현재 고객사이지만 자체칩을 개발하고 있는 아마존같은 기업이겠죠,
제대로 아시네요. 그냥 사짜를 데려온 것 같습니다
엥 완전공감되는데요 테슬라는의문
아...그래서 인텔이랑 암드가 NPU만드는거구나!!
LOL
비약이 좀 심한것 같습니다. nVidia든 애플이든 테슬라든 모두 소프트웨어 기술에서 탑티어가 아닙니다.
소프트웨어도 경쟁분야가 많을텐데 소프트웨어 탑티어는 어느회사인가요?
@@deanchoi742 아무래도 인공지능 쪽에서는 메타랑 구글이 빅테크 중에서는 가장 두각을 드러내고 클라우드나 OS같은 환경 쪽에서는 MS도 꽤 잘하죠. MS는 OpenAI의 최대 주주이기도 하고요.
Nvidia 애플 테슬라 모두 SW기술은 앞선 회사들보단 떨어지긴 합니다. 그나마 셋 중에서는 엔비디아가 SW도 좀 잘하고 경쟁력 있죠. 은근 인공지능에 조예가 깊고요.
그래서 앤비디아에 얼마 투자하셨었나요?
Apple 은 아니라고 생각합니다
누가 승자가 될지는 건희한테 물어바바
이재명 증인연쇄살인 특검 가즈아!
1줄요약: 엔비디아 몰빵해라
아니......쓸데없는 말을 이정도로 늘어놓는 거라면 차라리 에러님께서 직접 강의하시는것이 어떨까요?비지니스맨이라 그런지 공학도의 엄밀함은 하나도 없고 쓸데없는 소리만 하시네요. 공학도로서 살짝 불편했습니다.
@nanjing_festival 님 대명이 의심스러움 ㅎㅎㅎㅎ 하기야 중공이란 나라도 A.I에서는 대단하지만 세계에서 고립되서 니들만의 리그가 될거야
문제는 미쿡이라는 나라는 A.I를 글러벌 메인스티림으로 만들어 버린다는거야
다 주구절절 맞는 말같은데 어떤 점이 쓸데없다는 건인지?