병렬 연산을 할수있는 코어 포인트중 하나가 각각의 작업이 서로의 영향을 받지않는 Independence인데, gpu는 지원하는 연산개수도 작은만큼 거기에 최적화할포인트도많구 gpu작업의 특성상 Independent한 태스크가 많은데 cpu는 범용적으로 지원해야하니 그 포인트를 살릴수 없다는 점을 언급해줬으면 하는 면이 아쉽당!
클럭 사이클에 관한 영상 설명은 자칫 오개념을 심어주기가 쉬운 내용 같습니다. CPU든 GPU든 프로세서들의 성능은 throughput과 latency 두 가지 관점으로 평가합니다. 엄밀히 말해서 throughput이 코어수에 비례해서 이론상 최대로 낼 수 있다라고 하면은 정확한 설명이겠지만 사이클은 클럭, 즉 latency와 연관된 용어이므로 코어 수에 비례해서 설명하면 잘못된 내용이 됩니다. 즉 30억 사이클의 CPU의 코어가 18개가 있으면 540억 사이클의 싱글코어 CPU와 throughput이 이론상 동일하다고 해야지, 540억 사이클의 latency와 동일한 게 아닙니다. 지금 영상의 뉘앙스는 후자처럼 설명이 되고 있어서 자칫 오개념을 심어줄 수 있습니다. high-level 개발자 관점에서 그게 그거 아냐? 할 수도 있겠지만, 꼭 그렇지도 않고요. 컴퓨터 아키텍쳐 레벨에선 둘은 완전히 다른 얘기입니다. 성능을 올리기 위해서 접근해야 하는 방식도 다르구요 ㅎㅎ. 아무튼 영상들은 늘 재미있게 잘 보고 있습니다. 감사합니다.
좋은 영상 감사합니다. 질문이 있는데요, 맥북 M1 칩 CPU와 인텔 CPU의 설계 차이가 ARM과 x86 차이로 이해하지만, GPU의 경우에는 설계적으로 어떤 차이가 있는지 이해가 잘 안됩니다. NVIDIA RTX 3090 Ti GPU는 10752개의 CUDA 프로세서가 존재하는데, M1칩은 애플 홈페이지에 따르면, "동시에 25,000개 스레드를 실행할 수 있는 8개의 강력한 코어를 장착한 GPU"라고 설명합니다. 둘 간에 하드웨어적으로 비교하는건 맞지 않는걸까요? NVIDIA CUDA 프로세서(10752개)는 M1 GPU 코어(8개=25000개 스레드)와 대응된다는 것으로 이해가 되지만 하드웨어적으로 적절한 비교인지는 모르겠습니다. 이 부분에 대해 아시면 설명 부탁 드립니다. 관련 영상이 제작되면 더욱 좋겠습니다.
안녕하세요 영상 잘 보고 있습니다 궁금한게 있는데요, 리액트나 api서버를 만들면서 네트워크 상황에 따라 차이가 있겠지만 속도가 좀 느린것 같습니다 찾아보면 js 소스를 분할하는 등 다양한 방법이 있는데요, 속도를 최적화하는 방법을 실무적인 부분에서 총정리를 좀 해주시면 좋을것 같습니다 감사합니다
CPU: UDT와 같은 특수부대원 소규모 부대. GPU: 정규군 사단. 둘의 성격은 완전히 달라서 잘 하는 임무가 다릅니다. 특수 작전이나 조건이 복잡한 임무, 요인 암살 같은 임무는 대원 한 명의 역량이 뛰어난 특수부대가 잘하고 대원들 개인 전투력은 특수부대보다 떨어져도 대규모로 넓게 판 벌려서 하는 싸움은 정규군 사단이 더 잘하겠죠? 위의 비유처럼 비교적 소규모의 분기가 복잡하고 병렬성이 떨어지는 작업은 CPU가 더 잘하지만 대규모의 작업량을 가지면서 병렬성이 높은 작업은 GPU가 월등히 잘합니다.
연산을 위한 장치라는 것엔 결이 같지만, GPU는 대부분 CPU보다 코어 개수가 많죠. 담당하는 일이 다르기 때문입니다. 더 잘 이해하기 위해서는 컴퓨터의 연산 방식과 연산에 쓰이는 숫자를 표현하는 방식부터 이해해야 하지만, 단순히 결론만 말씀 드리자면 gpu는 연산 속도에 초점을 맞춰 다중 코어와 낮은 정밀도를 갖습니다. 그러므로 복잡한 연산과 정밀한 결과값을 요하는 작업에는 부적합 하나 그래픽 처리와 같이 단순 병렬연산과 낮은 정밀도를 요하는 작업엔 딱이죠. 이러한 부분에 있어서 인공신경망에도 GPU가 적합하다고 볼 수 있습니다. 대부분의 인공 신경망 모델은 학습 과정에서 방대한 양의 연산이 필수이고, 이러한 연산이 행렬연산이라 많은 코어를 이용해 동시에 계산하는 것이 좋죠. 물론 코어의 정밀도가 높다면 좋겠지만 cpu에 들어갈 수준의 코어를 이용해 gpu를 만든다면 그 가격이 어마어마 하겠죠?
📌 AI 모델링에 최적화된 맞춤형 GPU 상품!
Hyperscale AI Computing 웨비나 등록하기 🔽 (무료)
cloud.kt.com/promotion/promotion_detail/?seq=525
이것도 다른 유튜버 댓글에서 본건데,
cpu=대학원생 10명
gpu=초등학생 10000명
적절한 비유에 뽕알을 탁 치고 갑니다.
와ㅋㅋㅋㅋ
교수님 아시겠어요? 대학원생도 말하는 감.자.라.구.요.
초등학생 만 명에게 더하기 빼기 시키기 vs 대학원생 열 명에게 논문 하나씩 제출하게 하기
그정도는 아님
CPU가 교수급
GPU는 고등학생
광고라기엔 너무나 유익했따... 두루뭉술하게 이해하고 있던 개념이었는데 덕분에 명확하게 구체화할 수 있었네요! 감사합니다!
항상 전문 지식을 쉽게 설명 해주니 좋네
ㅎㅎ 오랜만에 하드웨어 설명 아주 유익했습니다.
오늘도 새로운 지식을 알아가네요. 많이 듣기만 했지 자세한 내용은 몰랐는데 이렇게 깔끔하게 정리해서 올려주시니 한번에 이해가 갔네요. 항상 감사합니다.
종량제라.. 개인 연구목적으로 쓰기엔 좋네요.
i9 CPU: 18명의 수학 박사들
rtx3090: 10000명의 초등학생들
CPU: 개쩌는 풍경화 그리기
GPU: 색깔칠하기(근데 좀 많은)
그는 얼마나 공부하는건가 대체...
you very smart
기다리고 있었습니다 감사합니다♥
응원해주셔서 고맙습니다!
0:43 1년 전에 이 영상을 봤을 때 샀어야 했다 !!! 니꼴라스가 다 알려줬는데 !!!! Nvidia !@!!
궁금한거 치면 니콜라스 센세 영상이 항상 나온다. 쉽게 설명해줘서 항상 감사드려용
항상 봐주셔서 감사합니다!
좋은 영상 감사합니다!
응원해주셔서 고맙습니다 ; )
병렬 연산을 할수있는 코어 포인트중 하나가 각각의 작업이 서로의 영향을 받지않는 Independence인데, gpu는 지원하는 연산개수도 작은만큼 거기에 최적화할포인트도많구 gpu작업의 특성상 Independent한 태스크가 많은데 cpu는 범용적으로 지원해야하니 그 포인트를 살릴수 없다는 점을 언급해줬으면 하는 면이 아쉽당!
아직 언어들과 컴퓨터관련을 공부하고 있는 학생이지만 이런 알고리즘을 알고 가는게 너무 좋은것같습니다 짧고 좋은 영상 감사드립니다!!
좋은 영상 잘보고 갑니다~~~ 혹사 러스트 입문 무료 학습 강의는 계획에 없으신가요?
아직은 없습니다 ㅠㅠ
인도천재가 kt에서 일을 하다니.. ㄷㄷ 그나자나 하이퍼스케일 벌써 상용화됐네… 와 진짜… 대단하네
Ai에게는 우리가 원하는 모습과 형상 표현을 이끌어내기위해선 훨씬 더많은 처리를 동시에 처리해야해서 gpu가 유리한거군요
인텔 주식을 다 팔고 엔비디아주식을 샀어야 한다.
니꼴라 쌤 볼 때 마다 진짜 이 채널이 유명세를 많이 탈 거라 생각함.. 아 너무 좋아 이 채널..
처음 : 뭐지 1학년 때 배웠던 거 복습인가?
중간 : 아 엔비디아 주식 살 걸....
끝 : 되게 잘 만든 광고인데..?
익살스러운 표정 ㅋㅋ 굿
이것은 광고 영상인가? 교육영상인가?
그럼에도 Hyperscale AI를 꼭 써보고 싶다는 느낌이 드는 것은 광고 효과가 최고라는? ^^
오 유료광고지만 매우 유용함
응원해주셔서 감사해요~!
노마드형님 숙제도 하시고 !!
응원합니다~
Man, I love this channel.
thank you for support!
갈수록 발전하는 니꼬쌤의 한국어 인사 발음...
앵귤러나 스프링 강의도 올려주시면 바로 구매하겟습니단
실례지만.... 플러터 강의는 언제즈음 볼 수 있나요?? (니꼬쌤 너무 좋아요~!)
주..준비중입니다 -0- ㅎㅎ
니콜라스 코딩해주는 AI를 사용하는게 지금부터 코딩 코딩을 배우는것보다 나을까요? 40대 건축분야 입니다.
형은 그래서 어떤 글카 쓰고있음?
클럭 사이클에 관한 영상 설명은 자칫 오개념을 심어주기가 쉬운 내용 같습니다.
CPU든 GPU든 프로세서들의 성능은 throughput과 latency 두 가지 관점으로 평가합니다.
엄밀히 말해서 throughput이 코어수에 비례해서 이론상 최대로 낼 수 있다라고 하면은 정확한 설명이겠지만
사이클은 클럭, 즉 latency와 연관된 용어이므로 코어 수에 비례해서 설명하면 잘못된 내용이 됩니다.
즉 30억 사이클의 CPU의 코어가 18개가 있으면 540억 사이클의 싱글코어 CPU와 throughput이 이론상 동일하다고 해야지,
540억 사이클의 latency와 동일한 게 아닙니다. 지금 영상의 뉘앙스는 후자처럼 설명이 되고 있어서 자칫 오개념을 심어줄 수 있습니다.
high-level 개발자 관점에서 그게 그거 아냐? 할 수도 있겠지만, 꼭 그렇지도 않고요. 컴퓨터 아키텍쳐 레벨에선 둘은 완전히 다른 얘기입니다.
성능을 올리기 위해서 접근해야 하는 방식도 다르구요 ㅎㅎ.
아무튼 영상들은 늘 재미있게 잘 보고 있습니다. 감사합니다.
디테일하게 들어가면 하드웨어 물리적 특성이나 시분할 시스템, 병렬 프로그래밍의 특성 그런것까지 고려해야겠지만 그런 디테일한 내용보다 가볍고 최대한 심플하게 설명해야 사람들이 보니까 그런듯..
@@user-hc4yp2st1f 네. 그 부분은 어쩔 수 없는 것 같습니다. 쉽게 설명하기 참 어렵죠.
꽤 관심가는 상품같네요
그나저나 어고노믹 키보드 1년 넘게 사용 하셨는데 어떤지 궁금하네요~ 리뷰 부탁드립니다~
영상 항상 잘 보고 있습니다~
컴퓨터 사려다가 그래픽카드가 너무 비싸서 결국 노트북으로 갔어요...
이거보고 엔비디아 주식 사러갑니다
그러면 gpu에 명령을 많이 추가하면 cpu 처럼 쓸 수 있나요?
CPU는 양보다 질
GPU는 질보다 양
대충 박사 한두명 한테 난제 해결하라고 시키고 전국 초딩들한테 덧셈뺄셈 시키는거랑 같은 이치
CUDA 아키텍쳐와 RDNA2의 차이점을 알고싶어요
인텔 다 팔고 엔비디아 올인했어야했다
You make me look smart 🤓✅❤️🔥
노가다 만명 vs 박사 18명의 차이라고 보면 됨. 서로 잘하는게 다름
이걸 이제보다니ㅠ
Like Russian, Your pronunciation is my preference
CISC
RISC
떡상은 맞는데… 왜 내 주가는 ㅠㅠㅠㅠ
GPU만으로 부팅이 될까?
좋은 영상 감사합니다. 질문이 있는데요, 맥북 M1 칩 CPU와 인텔 CPU의 설계 차이가 ARM과 x86 차이로 이해하지만, GPU의 경우에는 설계적으로 어떤 차이가 있는지 이해가 잘 안됩니다. NVIDIA RTX 3090 Ti GPU는 10752개의 CUDA 프로세서가 존재하는데, M1칩은 애플 홈페이지에 따르면, "동시에 25,000개 스레드를 실행할 수 있는 8개의 강력한 코어를 장착한 GPU"라고 설명합니다. 둘 간에 하드웨어적으로 비교하는건 맞지 않는걸까요? NVIDIA CUDA 프로세서(10752개)는 M1 GPU 코어(8개=25000개 스레드)와 대응된다는 것으로 이해가 되지만 하드웨어적으로 적절한 비교인지는 모르겠습니다. 이 부분에 대해 아시면 설명 부탁 드립니다. 관련 영상이 제작되면 더욱 좋겠습니다.
gpu도 코어가 있다니 (지나가던 컴알못)
2년전..?ㄷㄷ
안녕하세요 영상 잘 보고 있습니다
궁금한게 있는데요, 리액트나 api서버를
만들면서 네트워크 상황에 따라
차이가 있겠지만 속도가 좀 느린것 같습니다
찾아보면 js 소스를 분할하는 등 다양한
방법이 있는데요, 속도를 최적화하는
방법을 실무적인 부분에서 총정리를
좀 해주시면 좋을것 같습니다
감사합니다
인텔 주식 다 팔고 엔비디아 주식 사야 하나? < 이왜진 ㅋㅋ
우리가 흔히 쓰는 그래픽카드는 코어가 몇천개인데
m1 같은 프로세서는 왜 그래픽코어가 8개인걸까요
이것도 뭔가 일하는게 다른건가?
m1은 스마트폰의 cpu+gpu라고 생각하시면 됨니다..
스마트폰의경우 그래픽가드가 따로없습니다..
반면 pc는 cpu와gpu가 따로존제
공간의 차이부터 다름니다..
소수정예 대학생 vs 절대다수 초등학생
엔비디아가 떡상한 이유: OpenCL과 SYCL이 동시기에 출시되지 못함
라고 할 때 샀어야
KT를 털었어!! 감사합니다 😊
gpu와 cpu의 차이를 모르겟어
CPU: UDT와 같은 특수부대원 소규모 부대.
GPU: 정규군 사단.
둘의 성격은 완전히 달라서 잘 하는 임무가 다릅니다.
특수 작전이나 조건이 복잡한 임무, 요인 암살 같은 임무는 대원 한 명의 역량이 뛰어난 특수부대가 잘하고
대원들 개인 전투력은 특수부대보다 떨어져도 대규모로 넓게 판 벌려서 하는 싸움은 정규군 사단이 더 잘하겠죠?
위의 비유처럼 비교적 소규모의 분기가 복잡하고 병렬성이 떨어지는 작업은 CPU가 더 잘하지만
대규모의 작업량을 가지면서 병렬성이 높은 작업은 GPU가 월등히 잘합니다.
연산을 위한 장치라는 것엔 결이 같지만, GPU는 대부분 CPU보다 코어 개수가 많죠. 담당하는 일이 다르기 때문입니다. 더 잘 이해하기 위해서는 컴퓨터의 연산 방식과 연산에 쓰이는 숫자를 표현하는 방식부터 이해해야 하지만, 단순히 결론만 말씀 드리자면 gpu는 연산 속도에 초점을 맞춰 다중 코어와 낮은 정밀도를 갖습니다. 그러므로 복잡한 연산과 정밀한 결과값을 요하는 작업에는 부적합 하나 그래픽 처리와 같이 단순 병렬연산과 낮은 정밀도를 요하는 작업엔 딱이죠. 이러한 부분에 있어서 인공신경망에도 GPU가 적합하다고 볼 수 있습니다. 대부분의 인공 신경망 모델은 학습 과정에서 방대한 양의 연산이 필수이고, 이러한 연산이 행렬연산이라 많은 코어를 이용해 동시에 계산하는 것이 좋죠. 물론 코어의 정밀도가 높다면 좋겠지만 cpu에 들어갈 수준의 코어를 이용해 gpu를 만든다면 그 가격이 어마어마 하겠죠?
아하 cpu는 똑똑한놈,gpu는 바보같아서 물량으로 밀어 붙이는놈 중국처럼
주가는 떡락중이건만.. ㅠㅠ
일빠~~~~~♡♡
응원해주셔서 감사해요~!
cpu없이 gpu만으로 cpu처럼 사용하는 컴퓨터는 없을까요?
(ex gtx3090에 window11 설치해서 사용가능할까요?)
cpu는 다양한 명령을 처리할 수 있게 만들어졌지만 gpu는 처리할 수 있는 명령의 수가 한정되어 있어서 그런 컴퓨터는 없을 겁니다
팔 걸
ㅋ ㅑ~
니콜라스 넌정체가머냐 한국사람이냐 외국사람이냐
감사합니다~ 좋은 정보에요 굿~