instagram.com/unrealtech.error RUclips 채널 커뮤니티를 통해 빅테크, AI, 반도체를 비롯한 다양한 테크 소식과 함께 제 개인적인 생각을 간략히 전달드리고 있는데요. 이와 관련된 내용을 일목요연하게 정리해서 보는 동시에 향후 안될공학 굿쯔나 기타 다양한 소식을 함께 전달하는 채널로서 Instagram 채널을 활용하고자 합니다. 많은 관심과 사랑, 팔로우 부탁드립니다!
전세계 사람들이 잘만 쓰고 있어서 존나 잘팔리고 전세계 시총 1,2위 다투고 있구만 병신 램무새 ㅋㅋㅋㅋ 램 많으면 좋지~ 애초에 옵션상 없는것 보다 더 싸게 살 수 있는 옵션있으면 좋은거지 이상황이 즐거움 ㅇㅈㄹ ㅋㅋㅋ 남이 최소 16기가 사도록 강제 해줘야만 하는 미개한 속성 티내누^^
솔직히 rtx4090으로 고해상도 이미지 AI 돌리는 거 무리가 많음. 비됴 메모리 택도 없이 부족. 안돌아감. 그래픽카드 두 개 이쌍 꼽는 거는 뭐 마더보드 부터 다 바꾸고 새로 꾸미려면 가격이 ㄷㄷ, 병렬처리 적용하려면 복잡...ㄷㄷ @.@ 맥은 메모리는 자유롭지만 쿠다가 또 걸리고... ㅋ
M3 맥스 맥북 프로 쓰고 있는데 참고로 M3 맥스 맥북 프로도 128GB까지 메모리 지원하고 있습니다(제가 사용 중). 라마 405B 모델을 로컬에서 직접 돌릴 필요 없이 양자화 버전을 사용하면 웬만한 대용량 LLM은 무리 없이 돌릴 수 있더라고요~ 이번 맥북 시리즈는 프로 모델이 찐인 것 같은데, M3 맥북 프로는 뭔가 성능 코어 너프가 있었다면, M4 맥북 프로는 이번에 너프 없이 잘 나온 거 같더라고요~
이건 전형적인 상술이고..썬더볼트 5나 맥용 앱을 개발하는 사람에게는 뭐 구매 대상이겠지만..AI 관련된 것은 애플이 CUDA 같은 API를 자체적으로 M 칩에 맞게 개발하지 않은한 전혀 의미가 없음. 문제는 학습 속도가 M3도 개판인데 M4가 뭘 어쩐다는 건지..메모리 스펙만 늘어나고 조금 빨라진 것인데 그 만큼 더 발열 늘어나고 더 팬이 시끄럽게 돌겠죠..M3 Max에서 과부하 작업시에 팬이 얼마나 시끄럽게 돌았는지 아시는 분은 아실듯요. 인텔맥 보다 더 심했다고 당시 리뷰어가 그랬던 것이 기억나는데, 애플은 지금 CUDA 같은 자체 M 칩용 API가 없는데 매년 칩을 내놔야 하는 딜레마에 잡혀 있습니다. API를 내놔야 하는 생각은 전혀 안하고 있어요. 그냥 빨라진 칩인 것입니다. 노트북에서 Inference 빨라진거 아무 의미 없고요. 학습이 빨라져야 하는데 그건 CUDA 같은 자체적인 M칩용 API 없으면 불가능합니다. 그리고 엔비디아도 못하는 건 아니고요..이미 서버측에서 하고 있어요..NVLink로 연결하여 총 100테라바이트(TB)의 GPU 메모리를 연결 가능합니다. 뭐 노트북에서 했다고 그건 놀랄 만한 건 아니죠..왜 메타에서 H 시리즈 서버를 나오자 마자 구매했을까요? 그리고..추론에 사용하신다는 분들은 배포환경에 맞춰야죠? AWS 기준으로 배포환경에 SageMaker/ECS/ECK에 맞추는 것인데, 왜 자기 노트북이 1천만원짜리가 되어야 하죠? 추론은 AWS 컨테이너에서 되는데요? 거기 접속해서 RESTful 명령어 날리는데 1천만원짜리 장비가 필요하나요? 웹에서 Postman으로도 되는데? 맥 환경에서 돌아가면 뭐하죠? 그 환경이 배포 환경인가요? 추론환경이랑 다른데 무슨 소용이 있나요? 우분투로 하다가 ECS에 안맞아서 Amazon Linux 2에 맞추고 있는데..맥에서 추론 해서 된다고 그걸 배포해요? 무슨 소리죠? 배포환경에서 추론 못하면 그것은 포르쉐 911 사놓고 운전면허증 없어서 주차장에서 시동만 걸어 놓고 1cm 도 앞으로 못나가는 상황과 다를바 없어요. 맥북으로 테스트환경에서 쓸 수 있는 유일한 환경은 그 앱이 맥용으로 나온 앱을 테스트할 때입니다. 그래서 저건 상술이라는 거죠. 딥러닝 솔류션으로 OpenAI를 대놓고 OSX에 가져다 놓고 있으면서, 마치 자기네 M칩이 딥러닝 솔류션인 것 처럼 광고 하죠.
@enronmusk-k1d 예 그부분을 잘 알고 있습니다만 속도와 사용용도에 차이가 있다보니...이 부분에서 썩 와닿지라 않아서요 apu 코어라 하고 물리적인 거리가 짧다하더라도 gddr의 한번에 대용랑을 처리하는 속도와 처리양은 아무리 많은 메모리를 가지고 있더라 하더라도 서로 비교할 부분이 아니라서요.. 괜히 gddr이 비싼게 아닌데.. 이게.. 잘 모르겠습니다...
@@karlla1220 메모리 버스 클럭만 중요한게 아니고 레이턴시 비트 스트로브까지 해서 안중요한게 없죠 서로 성능차인 극명합니다 인텔 암드쪽 시피유도 램 속도가 발목잡아서 램 오버만 해도 성능향상이 눈에띄게 보이는게 요즘이에요 이걸로 커버된다고 하면 그건 코어성능이 떨어진다는 소리와 같은 말이 됩니다
애플 주가나 실적 보면 여기에서 댓글로 애플이 AI에서 약하다, 뭐하러 이렇게 쓰냐 이딴소리 해도 하드웨어랑 소프트웨어 둘 다 잘하는 기업은 애플이 유일해서 시대의 변화에 맞게 계속 성장할거라는게 보임. 안그래도 이번 3분기도 전년대비 또 성장해서 역대급 매출 기록했던데
가끔 애플실리콘 램 용량을 생각하게 됩니다. 기본으로 충분하다... 다다익램이다.. 등등 말은 많은데, 당연히 램이 용량이 높으면 좋겠지만 통장잔고와 직결되기 때문에 선택하기도 쉽지 않은 것 같습니다. 정작 애플실리콘 출시 이후 어느 정도가 개인사용환경에서 적정한가에 대한 정보는 생각보다 찾기 쉽지 않더군요. 특히 애플 홈을 봐도 전문가도 일정정도로도 충분하지만 128이상은 진짜 전문가들이 사용하는 거다라든지 혼동되는 부분이 있습니다. 기회가 된다면 안될과학님의 관점에서 쉬운 예로 램에 대한 영상을 요청드리고 싶습니다. 늘 좋은 정보 잘 보고 있습니다.
@@nss2785 애플의 공식 발표는 아니더라도 일단 애플이 급하게 M4를 반년만에 내놓은 이유는 지금 AI에 대응하기 위한 전략인데 M3 울트라를 위해서 TSMC의 다른 3나노 공정을 따로 투 트랙으로 돌릴 이유가 없습니다(더군다나 M3에 쓰인 3나노는 수율이 안 좋습니다) 지금 맥북 프로에 넣은 M4 Max칩을 연결해서 울트라를 만들거기 때문에 한 번에 M4 울트라를 내는게 훨씬 이득인거죠
안삽니다. 사실싱 휴대용 짬통. 자기 취미로 AI쓰는 사람들은 맥북 안써요. 금액대비 성능이 더럽게 안나옴. 그냥 엔비디아 글카 쿠다 쓰는게 맞습니다. 그리고 5090 내년 초 출시. 4090, 4080s 3090보유자인데 굳이 지원 프로그램도 적은 맥북 살 이유가 없습니다. 램도 용량 장난질 하는 기업이라 그냥 컷하고 기존꺼 업그레이드 해서 쓰면 됩니다. 뉴타입 램 적용 하나요? 안하죠? 학습용으로도 맥은 업계인들이 샘플용으로만 쓴다고 들었고 앱 개발용 아닌 이상 굳에 쓸 이유가 없죠. 어차피 주축은 엔비디아니까요.
Blender 같은 3D 소프트웨어에서도 실리콘 맥의 통합메모리가 장점이 됩니다. 절대적인 렌더링 속도는 RTX 발끝에도 못 미치기 때문에 애니메이션 렌더링에는 비효율적이나 아주 많은 폴리곤이나 고해상도 텍스쳐가 사용된 매우 복잡한 스틸씬을 렌더링할 경우, 24G의 RTX 4090도 그대로 렌더링하지 못하는 경우가 많은데, 램이 넉넉한 맥이라면 그냥 렌더링이 가능합니다. 그래서 M4 칩들의 실질적인 GPU 성능이 어느 정도 나올지 궁금합니다.
instagram.com/unrealtech.error
RUclips 채널 커뮤니티를 통해 빅테크, AI, 반도체를 비롯한
다양한 테크 소식과 함께 제 개인적인 생각을 간략히 전달드리고 있는데요.
이와 관련된 내용을 일목요연하게 정리해서 보는 동시에
향후 안될공학 굿쯔나 기타 다양한 소식을 함께 전달하는 채널로서
Instagram 채널을 활용하고자 합니다.
많은 관심과 사랑, 팔로우 부탁드립니다!
👍👍👍👍
LLAMA 모델 한정일 수 있어도, NVIDIA 시스템으로 구축하는 PC보다 더 저렴한 세팅으로 대형 AI를 추론을 할 수 있다는 점만 확인되더라도 정말 놀라운 성과인 것 같습니다.
근데 안될게 팩트임 ㅋㅋ
@@일이삼사-z5x뭐가 안된다는겨ㅋㅋㅋㅋ
애플 논문 읽고보고 댓글 달기 바람
추론용으로만.. 학습도 병행하려면 nvidia 절대 못따라옴
텍스트 추론정도만 우월하지 않을까요? 이미지 프로세싱등 다양한 기능을 복합적으로 사용가능한건 엔비디아가 시장 파괴자…..
작은 사무실에서 전직원이 맥을 쓰고 있는데요 직원들 맥을 같은 네트워크에서 병렬 처리해서 우리만의 AI 모델이 있을 수 있겠네요. 협업 기능에 관심이 많은 애플이기 때문에 그런 재밌는 상상을 하게 됩니다.
일단 램크루지라고 악명이 높았던 애플이 울며 겨자먹기 식으로도 그걸 포기할 수 밖에 없는 이 상황이 정말 즐거움 ㅋㅋ
ㅇㄱㄹㅇ
애플 ㅈㄴ 꼬시다 ㅋㅋㅋㅋㅋㅋㅋㅋㅋ
전세계 사람들이 잘만 쓰고 있어서 존나 잘팔리고 전세계 시총 1,2위 다투고 있구만 병신 램무새 ㅋㅋㅋㅋ 램 많으면 좋지~ 애초에 옵션상 없는것 보다 더 싸게 살 수 있는 옵션있으면 좋은거지 이상황이 즐거움 ㅇㅈㄹ ㅋㅋㅋ 남이 최소 16기가 사도록 강제 해줘야만 하는 미개한 속성 티내누^^
ai 아니였으면 많이 늘려줘도 기본 12기가. 아니면 진지하게 8기가로 시작했을 수도 있음 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
가격도 엄청나겠지만 m4 max는 성능 ㅎㄷㄷ 하네요 램도 128기가 지원하고
이번에 맥미니 가격 너무 좋게 나옴 ㄷㄷ 학생할인 74만원 ㄷㄷ
온 디바이스 필요 없는데 16기가 기본모델 개이득
솔직히 rtx4090으로 고해상도 이미지 AI 돌리는 거 무리가 많음. 비됴 메모리 택도 없이 부족. 안돌아감.
그래픽카드 두 개 이쌍 꼽는 거는 뭐 마더보드 부터 다 바꾸고 새로 꾸미려면 가격이 ㄷㄷ, 병렬처리 적용하려면 복잡...ㄷㄷ @.@
맥은 메모리는 자유롭지만 쿠다가 또 걸리고... ㅋ
Rtx5090은 충분할거라고 보시나요??
Gddr7 32gb로 나올거 같던데
이정도면 충분할까요?
@@uzmakinaruto-v9t 글쎄요. 32GB도 충분한 건 아니죠. 그냥 클라우드 쓰는 게 속 편함.
데톱도 힘들죠.. 괜히 워크스테이션 찾는게 아님 걍 윗분말처럼 클라우드가 속편할 수 있음
@@uzmakinaruto-v9t 애초에 워크스테이션 아니면 로컬에서 돌릴 생각을 안하는게 좋아요..
@@uzmakinaruto-v9t 80gb는 되야 충분해요~ 엔비디아 H100 사시면 됩니다.
라마 405B를 개인피시로….ㄷㄷㄷㄷㄷ😮
인텔 핵심 인력들이 애플로 수년전에 많이 건너갔다더니 가면갈수록 ㄷㄷ
물론 개비싸게 파니 비즈니스 작업자용이긴 하지만
M2 MAX 96GB로 LLAMA 70B 돌려서 Agent 만들고 있습니다만, 배터리가 정말 순삭입니다. 추론속도가 크게 중요하지 않다면 겨우 50~60W로 LLM Application 개발하고 돌릴수 있어서 좋습니다…ㅎㅎ
혹시 속도가 어떤가요?
RTX 에 비해 어느정도 달리나요
0.5TB/s 대역폭의 128GB 메모리 하나로 압살이군요.
M3 맥스 맥북 프로 쓰고 있는데 참고로 M3 맥스 맥북 프로도 128GB까지 메모리 지원하고 있습니다(제가 사용 중). 라마 405B 모델을 로컬에서 직접 돌릴 필요 없이 양자화 버전을 사용하면 웬만한 대용량 LLM은 무리 없이 돌릴 수 있더라고요~ 이번 맥북 시리즈는 프로 모델이 찐인 것 같은데, M3 맥북 프로는 뭔가 성능 코어 너프가 있었다면, M4 맥북 프로는 이번에 너프 없이 잘 나온 거 같더라고요~
M1 Max도 너무 만족하고 쓰고 있음..
나중에 M6정도 나오면 고민해볼 수 있을듯
꼭 이런 애들 있더라 돈 많았으면 너도 신제품 출시마다 바꿨겠지 이런글 쓰지마
@ 니가 뭔데 쓰네 마네 개소리냐?ㅋㅋㅋ 꼴깝떨고 있네ㅉㅉ
니 인생이나 똑바로 살어 키보드 워리어짓하는 니인생도 레전드다ㅋㅋ
돈없어서하는소리일뿐
뭔 개소이들이지? M1 잘돌아 가는데 바꾸는게 멍청한거 아닌가?
놀고들있네ㅋㅋㅋㅋ
꼭 보면 저런 쉬운말 하는것들 급식들이 쉬운소리들 하더라고ㅋㅋㅋㅋㅋ
개발이나 좀 제대로 배우고 그딴소리들 해라
개발도 못하는 것들이 장비빨 세우더라고
@@yionann7590돈있다고 사면 뉴욕빌딩도 샀겠죠 ㅋㅋ 살만한제품이아니였긴했음
아이패드에서도 넣었던 oled 디스플레이도 못넣고 차세대나 m6에서는 넣을거생각하면 m1max이 성능이안나오는것도아니고, llm한다고했을때 m4max두개사도 4090이 더성능높음 ㅋㅋ
라마를 돌릴 수 있을지 모르겠지만..... 일단 cuda 안돼서 flux 못돌리면 저에게는 의미가 없습니다 ㅠㅜ
라마 3.1 8b 도 상용화 가능하죠 그럼 추론 속도와 리소스 절약 끝내 줄꺼라 봐요
맥 진영에서는 cuda가 아닌 metal을 사용해야할텐데.. 대안이 될까요?
맥스튜디오만 목빠지게 기다리는 중..블렌더 유저
맥이 메모리 커서 좋긴 한데 cuda 포기 못함.. 일부 ai 모델은 애플 실리콘에서 제대로 학습이 안되기도 하고 ㅠ
학습은 클라우드 사용하는게 좋고, 추론만 애플실리콘 128g로 돌리면 어느정도 돌아감,, 405는 무리고 90b ,, 울트라같은경우 지금도 메모리대역폭이 800이라서 쓸만한 수준 나옴
이건 전형적인 상술이고..썬더볼트 5나 맥용 앱을 개발하는 사람에게는 뭐 구매 대상이겠지만..AI 관련된 것은 애플이 CUDA 같은 API를 자체적으로 M 칩에 맞게 개발하지 않은한 전혀 의미가 없음. 문제는 학습 속도가 M3도 개판인데 M4가 뭘 어쩐다는 건지..메모리 스펙만 늘어나고 조금 빨라진 것인데 그 만큼 더 발열 늘어나고 더 팬이 시끄럽게 돌겠죠..M3 Max에서 과부하 작업시에 팬이 얼마나 시끄럽게 돌았는지 아시는 분은 아실듯요. 인텔맥 보다 더 심했다고 당시 리뷰어가 그랬던 것이 기억나는데, 애플은 지금 CUDA 같은 자체 M 칩용 API가 없는데 매년 칩을 내놔야 하는 딜레마에 잡혀 있습니다. API를 내놔야 하는 생각은 전혀 안하고 있어요. 그냥 빨라진 칩인 것입니다. 노트북에서 Inference 빨라진거 아무 의미 없고요. 학습이 빨라져야 하는데 그건 CUDA 같은 자체적인 M칩용 API 없으면 불가능합니다. 그리고 엔비디아도 못하는 건 아니고요..이미 서버측에서 하고 있어요..NVLink로 연결하여 총 100테라바이트(TB)의 GPU 메모리를 연결 가능합니다. 뭐 노트북에서 했다고 그건 놀랄 만한 건 아니죠..왜 메타에서 H 시리즈 서버를 나오자 마자 구매했을까요? 그리고..추론에 사용하신다는 분들은 배포환경에 맞춰야죠? AWS 기준으로 배포환경에 SageMaker/ECS/ECK에 맞추는 것인데, 왜 자기 노트북이 1천만원짜리가 되어야 하죠? 추론은 AWS 컨테이너에서 되는데요? 거기 접속해서 RESTful 명령어 날리는데 1천만원짜리 장비가 필요하나요? 웹에서 Postman으로도 되는데? 맥 환경에서 돌아가면 뭐하죠? 그 환경이 배포 환경인가요? 추론환경이랑 다른데 무슨 소용이 있나요? 우분투로 하다가 ECS에 안맞아서 Amazon Linux 2에 맞추고 있는데..맥에서 추론 해서 된다고 그걸 배포해요? 무슨 소리죠? 배포환경에서 추론 못하면 그것은 포르쉐 911 사놓고 운전면허증 없어서 주차장에서 시동만 걸어 놓고 1cm 도 앞으로 못나가는 상황과 다를바 없어요.
맥북으로 테스트환경에서 쓸 수 있는 유일한 환경은 그 앱이 맥용으로 나온 앱을 테스트할 때입니다. 그래서 저건 상술이라는 거죠. 딥러닝 솔류션으로 OpenAI를 대놓고 OSX에 가져다 놓고 있으면서, 마치 자기네 M칩이 딥러닝 솔류션인 것 처럼 광고 하죠.
너처럼 아는척하는 허언증 환자는 진짜 왜사는지 모르겠네. Mps 나온지가 언젠데. 그마저도 mlx로 자체프레임워크 나온지도 오래다. 지나가는 개발자 어이가 없어서 욕박고간다 으휴
이게 맞다
맞말 유투버 말이 사실이라면 애플은 엔비댜가 필요없음 자체 M시리즈 칩으로 학습 다하고 세계 짱먹음
학습보단 파인튜닝은 가능하지 않을까요
맞는 말씀이긴 한데,
애초에 온디바이스는 학습목적이아니라 추론목적이라 추론적인 관점만 보고 비교하는 게 맞을 것 같다고 생각하긴합니다.
m4 ultra 나오고
m4부터 리눅스 커널 포팅 해주면 정말 좋겠네~ 정말 좋겠네~
apple 도 CUDA 같은 라이브러리를 내주겠죠? NVIDIA 가 1황된게 칩도 칩이지만 CUDA 영향이 큰데
CoreML과 mps가 있지만.. 아무도 안쓰는 듯한 그런게 있죠.. ㅋㅋ
어림도 없죠 ㅋㅋㅋ 아무도 못따라함
할 수 있는가의 문제보다 갑자기 리눅스가 표준이 되어서 윈도우가 나락가거나 마소 오피스가 나락가고 전 세계가 한글 오피스를 쓰는 미래를 상상해 보시면... 😂
궁금한게 있는데요 개인pc에서 로컬 ai 돌리면 GPT 같은 퀄리티가 나오나요?
gpt 하루 유지비 생각하시면 답이 되실거라 생각합니다.
@자전거타는나그네 하루 유지비가 얼마든 로컬ai 돌려서 나오는 퀄리티가 gpt와 현저히 차이가 나면 의미없는게 아닌가...
궁금한게 S램을 HBM식으로 쓸순 없나요?
그냥 비용대비 비효율이라서 안하는건가요?
CPU도 SRAM 면적이 ALU만큼 되는데도 용량이 3MB 12MB 밖에 안 되잖아요?
세레브라스마냥 웨이퍼 하나 통째로 쓰는거 아닌이상 안될듯여
그게 세레브라스가 만든 칩이에요
4090에서 AI 돌릴때 자체 메모리 용량 부족으로 PC 메모리까지 사용하면 연산속도 기하급수적으로 느려지는데 단순히 메모리 확장가능하다고 돌릴수 있다고해서 그게 실사용이 가능할 수준인지는 모르겠다..
상체루틴에대한 리뷰가 절실합니다.
와우
4090두개 600넘는데 울트라 사는게 싸게 먹히긴 하겠네요
400b 4bit로 성능열화될바에야 70b fp8 쓸듯..
게이밍 성능이 4090 넘어서면 좋겠네요...램 용량만 넘어서면...무슨 소용인지 근데 애플인텔리전스 업그레이드 이후에 시리가 안되는데 혹시 아실까요?
혹시 m4pro에 48기가 램 업글하면 쓸만할까요?
ai의 혁신은 램용량의 혁신!
비싸다 비싸..
똑똑하누
ㄷㄷ
이게 좀 전 이해가 안가는게... vram gddr을 사용한다거나 hbm을 사용한게 아닌 ddr5 를 그대로 사용하는거 아닌가요? 그럼 성능은 한참 내려가고 서로 비교할 상황이 아니라 보이는데요....
cpu gpu ram 다 나눠져있고 서로 간 통신을 하는 경우는 말씀대로 ddr5가 별개이고 gddr은 통합되어 있어서 맞습니다만, 애플칩은 이미 통합된 원칩이라서.
@enronmusk-k1d 예 그부분을 잘 알고 있습니다만 속도와 사용용도에 차이가 있다보니...이 부분에서 썩 와닿지라 않아서요 apu 코어라 하고 물리적인 거리가 짧다하더라도 gddr의 한번에 대용랑을 처리하는 속도와 처리양은 아무리 많은 메모리를 가지고 있더라 하더라도 서로 비교할 부분이 아니라서요.. 괜히 gddr이 비싼게 아닌데.. 이게.. 잘 모르겠습니다...
gddr이냐 hbm 이냐가 중요한게 아니고 메모리 버스 크기랑 클럭이 문제인거고 통합칩 병렬구조로 비비는 정도는 나온다는데서 의의가 있는거죠
@@karlla1220 메모리 버스 클럭만 중요한게 아니고 레이턴시 비트 스트로브까지 해서 안중요한게 없죠 서로 성능차인 극명합니다 인텔 암드쪽 시피유도 램 속도가 발목잡아서 램 오버만 해도 성능향상이 눈에띄게 보이는게 요즘이에요 이걸로 커버된다고 하면 그건 코어성능이 떨어진다는 소리와 같은 말이 됩니다
렌더링이나 AI는 램이 부족하면 속도건 뭐건 그냥 아웃 오브 메모리~ 수고 하고 파업해버립니다. 느려 터져도 돌아는 간다라는게 큰 부분이죠.
이젠 os 효율이 좋은 애플도 램 꾸역꾸역 넣어주는데 아직도 플래그쉽에 8기가 달아주는 그 회사는 뭐하고있는건가 ?
애플도 이제 넣어놓고 무슨 ㅋㅋㅋㅋㅋ S25 기본 이번에 12기가로 올라가더만
그리고 플래그쉽에 8기가 다는건 애플이 더 심한데 프맥까지 8기가잖아
@@RubaASC1001 12기가 줬다가 8기가로 내리고 다시 12기가 준게 올린거구나 ... 역시 착시현상 장인 대삼성 ㄷㄷㄷㄷ
@@kanginlee2065 12기가에서 8기가 되면서 출고가 25만원 내려간건 빼고 얘기하네? ㅋ
@@RubaASC1001 25만원을 내리던 할인을 쳐 해주던 알빠 아니고 확실한건 애플은 누구마냥 보급형에 램 더주는 하극상 짓거리도 안하고 줬다 뺏지도 않는다는 사실 ~ ☝🏻
Llmma 405B을 그마저도 int4 quantizing model을 edge device로 돌릴 수 있다는 것의 장점이 뭘까요..? 어차피 fine-tuning은 어려울꺼라 큰 의미는 없을 것 같긴 합니다만...
10:08 단위중에 tokens/s 은 뭘 나타내는건가요?
LLM 추론에서 초당 토큰 출력 수를 나타내는 단위입니다.
@@Srin- 댓글 감사합니다
m3 ultra는 패싱인가요?
아씨 m3 mbp 13 1tb 36gb 389만원 때려박고 샀는데
같은 가격에 48기가에 메모리 대역폭도 273gb/s이라니..
미친 m3 시리즈 산 나같은 흑우들 눈물 날듯... 중고가 방어도 안되겠네 이정도면
애플 주식 사라는거죠?
애플 주가나 실적 보면 여기에서 댓글로 애플이 AI에서 약하다, 뭐하러 이렇게 쓰냐 이딴소리 해도 하드웨어랑 소프트웨어 둘 다 잘하는 기업은 애플이 유일해서 시대의 변화에 맞게 계속 성장할거라는게 보임. 안그래도 이번 3분기도 전년대비 또 성장해서 역대급 매출 기록했던데
엔비디아 독주도 멀지 않았구나
맥북 프로 구매 하고 싶네요 ...가격이 ㅜㅜ
하…. M4 max 큰 맘 먹고 사보려고 했는데 깡통 m4 맥북프로 가격의 2배네요 ㅋㅋㅋㅋ
지갑이 좀 위험합니다
M4맥스에 들어간 gpu는 4060 보다 약간 낮은 수준입니다
오바하시는 분 없으면 합니다
이제 게임도 되면최강이겜ㅅ다 ㅛㅔㅎ
스팀겜 돌리려면 가상윈도우 써야겠네요
램 8G 추가할때마다 30만원 추가로 하는 램장난질 하지 않을까...
발열만 잡고 나오면 끝판왕 될 거 같긴 하네요 ㄷㄷ
Apple Silicon 의 전성비 발열은 저세상 수준. 퀄컴보다 최소 4년 앞서 있죠. 그리고 대기전력도 며칠 덮어놔도 1%~2% 떨어지는 정도 (퀄컴 X 엘리트는 10% 넘게 빠짐)
@yskim7827 애플이 1위인건 맞지만 llm돌리는건 또 별개의 문제니까요
m4 모델들이 애플 인텔리전스를 대비해서 대부분 램16g 이상을 지원하는데 아이패드 m4 램 8g 제품은 애플 인텔리전스 사용에 괜찮을까요?
가끔 애플실리콘 램 용량을 생각하게 됩니다. 기본으로 충분하다... 다다익램이다.. 등등 말은 많은데, 당연히 램이 용량이 높으면 좋겠지만 통장잔고와 직결되기 때문에 선택하기도 쉽지 않은 것 같습니다. 정작 애플실리콘 출시 이후 어느 정도가 개인사용환경에서 적정한가에 대한 정보는 생각보다 찾기 쉽지 않더군요. 특히 애플 홈을 봐도 전문가도 일정정도로도 충분하지만 128이상은 진짜 전문가들이 사용하는 거다라든지 혼동되는 부분이 있습니다. 기회가 된다면 안될과학님의 관점에서 쉬운 예로 램에 대한 영상을 요청드리고 싶습니다. 늘 좋은 정보 잘 보고 있습니다.
엔비디아 폭주를 막는게 애플이 될 수도 있겠네요
울트라 프로 맥스도 나올기세...
이정도면 파운드리. 힘들어짐
여기서 얘기하는 메모리 용량은 x86으로 치자면 걍 메인보드에 있는 그 메모리 얘기하는거 아닌가요? 글카에 내장된 그 vram이 아니라
애플 실리콘 이후로는 씨퓨랑 지퓨랑 메모리 공유함. VRAM이 따로 엄씀.
애플 실리콘은 통합 메모리라고 해서 CPU, GPU, NPU(뉴럴 엔진)이 공유함
온디바이스ai 혁명이 아니라 디바이스 혁명 ㅋㅋ 애플이 메모리를 아낌없이 퍼주는 날이 온다고? 아 ㅋㅋ
그 메모리 짠돌이 애플이 이렇게 과감하게 넣어주는거 보면 애플 스스로 AI 쪽에서는 확실히 좀 밀리고 있다고 판단하는 듯?
저도 그게 제일 놀랐어요. 램용량증가 시키고 가격동결이라니😂😂😂
미국 중국 기업 완성품PC 를 보니 Windows 는 인텔이 선점한것 같고.....
아니 근데 ssd랑 ram 올리는데 가격이 기하급수적으로 올라가는걸까요
두 대 이상 연결해서 선수행 해 볼 수 있으면 개꿀티의 쌉갓가성비.
누가 놋북에서 AI를 연구해요 ㅜ
미래는 몰라도 현재는, 맥북이든 윈트북이든 그냥 원격 접속용임
16인치 땡긴다..
맥북은 게임못해서 너무 아쉬움
성능이좋고안좋고를떠나 스테이블디퓨전ai도못하는 m칩은..
M4든 뭐든 M칩은 생성AI 돌리면 탈탈탈 털림.. RTX4090도 간신히 돌아가는 정돈데;;; H100 처럼 80GB 는 되야 돌릴만 함
H100가격은 얼만지나 알고 하는 소리임?
@@Mh-wn6ne 애플 M칩으로는 이미지생성AI 접근자체가 불가하다는 소리임..
@@Mh-wn6ne그 개쩌는 h100의 핵심은 성능이 아니라 연결성이고 선능도 딸리는 m칩따리가 연결성은 고려했겠냐?
core 1.6배 성능2.2배 칩의 재설계가 필요하다는 의미 m5에 기대
램용량이 혁신이라고! ㅋㅋ
울트라는 언제 나옴? 😂❤
일단 cuda가 돌아가야....
아니 근데 왜 m3 울트라에 대한 언급은 하나도 없으시죠??? m3 울트라에 무슨일이 있었나요??
울트라는 아직 안나왔습니다
@@낫씽 그러니깐요 m3울트라도 안나왔는데 m4 울트라로 바로 건너뛰는지 궁금해요
@@nss2785이미 M4가 나온 시점에서 M3 울트라는 안 나오고요 M4 울트라로 나올 가능성이 높아서 그렇습니다
@@yoongun 스튜디오 디스플레이가 나오면서 아이맥 27인치는 안나온다고 애플의 공식 언급이 있었는데 이거처럼 m3 울트라는 아직 그런 정보를 못봤어요.....m3 울트라가 안나오는다는 애플이 발표가 있었나요??
@@nss2785 애플의 공식 발표는 아니더라도 일단 애플이 급하게 M4를 반년만에 내놓은 이유는 지금 AI에 대응하기 위한 전략인데 M3 울트라를 위해서 TSMC의 다른 3나노 공정을 따로 투 트랙으로 돌릴 이유가 없습니다(더군다나 M3에 쓰인 3나노는 수율이 안 좋습니다)
지금 맥북 프로에 넣은 M4 Max칩을 연결해서 울트라를 만들거기 때문에 한 번에 M4 울트라를 내는게 훨씬 이득인거죠
애플 팔았는디 십
M4MAX 120gb통합메모리 진짜 탐나지만 최소700만원.. 의외로 저렴한가?? 내 뇌가 이상해진 것 같다.
공부용이나 단순 테스트가 아닌 이상.. 저런 가정용으로 AI를 크게 할게 있나요?
프로젝트하는 대학생들이나 개발자, 1인 기업 등등 많죠
대.학.원.
@@감비아-w6k 크아아악
왕뽕 어깨보러 왔는데 ㅠㅠ
ㅠㅠㅠㅠㅠㅠㅠㅠㅠㅠㅠㅠㅠㅠㅠㅠ
ai 최대이득 : 기본 16gb ram탑재
안삽니다. 사실싱 휴대용 짬통. 자기 취미로 AI쓰는 사람들은 맥북 안써요. 금액대비 성능이 더럽게 안나옴. 그냥 엔비디아 글카 쿠다 쓰는게 맞습니다. 그리고 5090 내년 초 출시. 4090, 4080s 3090보유자인데 굳이 지원 프로그램도 적은 맥북 살 이유가 없습니다. 램도 용량 장난질 하는 기업이라 그냥 컷하고 기존꺼 업그레이드 해서 쓰면 됩니다. 뉴타입 램 적용 하나요? 안하죠? 학습용으로도 맥은 업계인들이 샘플용으로만 쓴다고 들었고 앱 개발용 아닌 이상 굳에 쓸 이유가 없죠. 어차피 주축은 엔비디아니까요.
에러횽, 영상 잘보고 있어요. 미국 테크 기업 소식도 좋지만 가끔 우리나라 삼성이나 SK하이닉스 소식도 전해주세욧!
이게 됐으면 지금 애플이 AI에서 언플만하고 빌빌거리지도 않았겠지ㅋㅋㅋㅋ
자체적인 모델이 부족하다는거지 하드웨어 분야에서 빌빌거린다는 뜻은 아니죠. 진짜 빌빌대는곳은 저기 빨간동네랑 퍼런동네죠 ㅋㅋ 모델? 그딴거 없고 하드웨어도 초록동네한테 개발리고
m3 pro는 최악의 설거지 ;;
독재 엔비댜는 쿠다 생태계가 깡패인지라 ...
비추
디지털 덕후들 과시용이지뭐
근육보여줘요 형
삼성은 뭐하냐 삼성 망했다 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
이제 PC 게이밍도 Mac 이 집어삼키는 시대가 온거 같네요. AAA 대작들도 속속 나오고 있고
Apple Silicon + Metal3 등장으로 5년안에 Mac mini 가 최고의 갓성비 게이밍 PC 가 될듯
그것은 꿈
Gpu개똥이라 불가능 겜이고 머고간에 맥으로 3d모델작업하는사람없음
이건 뭔 개 쌉소리냐 앱등아
당장 M4 MAX 16코어 짜리 연산 성능이 18.4TFLOPS 수준인데 비해 4090이 82.58TFLOPS인데 순수 연산 성능만으로도 이렇게 차이 나는데 뭔
앱등아 작작해라 가서 포토샵이나 돌려
애플이 머가 나오든 .. 그냥 통과
애플의 문턱은 소프트웨어. 기계는 달라도 소프트웨어는 호환되야 하는데,
언제부턴가 영상에서 왜 암내가 나는 것 같냐ㅋㅋ
단정한 옷은 없으신가 봐요
Blender 같은 3D 소프트웨어에서도 실리콘 맥의 통합메모리가 장점이 됩니다. 절대적인 렌더링 속도는 RTX 발끝에도 못 미치기 때문에 애니메이션 렌더링에는 비효율적이나 아주 많은 폴리곤이나 고해상도 텍스쳐가 사용된 매우 복잡한 스틸씬을 렌더링할 경우, 24G의 RTX 4090도 그대로 렌더링하지 못하는 경우가 많은데, 램이 넉넉한 맥이라면 그냥 렌더링이 가능합니다. 그래서 M4 칩들의 실질적인 GPU 성능이 어느 정도 나올지 궁금합니다.
안달공학?
미국 중국 기업 완성품PC 를 보니 Windows 는 인텔이 선점한것 같고.....