git-scm.com/download/win GIT 다운로드 visualstudio.microsoft.com/ko/visual-cpp-build-tools/ Microsoft C++ Build Tools 다운로드 github.com/oobabooga/text-generation-webui text-generation-webui 깃허브 홈페이지 llm.extractum.io/ LLM Explorer 사이트 huggingface.co/Lewdiculous Lewdiculous 허깅페이스 저용량고효율 모델 페이지 www.characterhub.org/ 캐릭터 다운로드 사이트 github.com/oobabooga/text-generation-webui-extensions text-generation-webui 확장모음 페이지
이 영상덕분에 한번에 잘 설정에서 사용해볼수있었어요 정식으로 제 개인 서버 내부도메인에 등록해서 사용해보려고하는데요 주소가 7860 포트를 기본으로 할당하고있는데 이걸 다른 포트로 바꿀 수 잇는 방법이 있을까요 Stable-diffusion 이랑 동일하게 바꾸면 되나 해서 봤는데 bat 파일 구조가 좀 다르네요.
4090 기준 최대 n_ctx 갑은 8000 정도(제작자 답변에 8K 권장 이라고) 해야 ai 가 이상한 말을 안뱉어 내네요. 무작정 Context 값을 올렸다가 9400 정도 넘어가니 에가 완전 맛이가서 특수문자를 내뿜어 냅니다. 플신 님이 추천해준 엔진인데 아마 엔진 에서 연산하는 최대 길이 값이 저정도 인거 같아요.한 20기가 브램 먹어주는 LEWD 엔진을 찾아 봐야할거같네요
플레이신님 text-generation-webui 사용법 특집으로 한 번 다뤄주세요. 보고 따라 하는려고 하는데 잘 안되네요 ㅠㅠ 예를 들어 Download model or LoRA에서 모델 주소 복사 붙여넣기 했는데 gguf파일이 검색이 안되고 나머지 파일만 검색된다 던지 이런 문제들이 있습니다 ㅠㅠ그리고 플리이신님 언어모델 어떤 식으로 사용하시는 지도 궁금해요~
좋은정보 감사 합니다. 😀 이 영상 보고 따라 하다가 구형 컴퓨터라서 ㅜ.ㅜ 반응속도에서 좌절하고 나서 좀더 빠른 방법을 찾다가 블로그에 llama3 돌리는 설명글 보면서 docker 열어서 webui 얹어서 새로나온 llama3 를 활용하니 그나마 반응속도가 참아줄만하네요...
플레이신님~ 항상 플레이신님 영상을 빠짐 없이 보고 있습니다 ^^ 감사합니다. 한 가지 건의사항이 있는데요, 이번 영상과는 상관 없지만, 플레이신님 영상 중 메인보드를 해외 직구하는 영상이 있습니다. 저도 제가 원하는 메인보드를 구입하고 싶은데, 국내에서 구하기가 정말 어려운 메인보드가 있습니다. 플레이신님 처럼 해외 구매를 하고 싶은데, 어디서 어떻게 구입을 해야 할지 정말 막막합니다. 그래서 말인데요..... 혹시 컴퓨터 주변기기 또는 다른 물건이라도 해외 직구하는 방법을 영상으로 만드실 계획은 없으신지요? 그렇게만 된다면 정말 감사하겠습니다 ^^ 감사합니다 ^^
와..xp걸..정말 오랜만에 보네요. 20년후..ㅋㅋ 중간에 밀레니엄 소녀 윈me 양이 더 재미있었는데 항상 오류투성이 버그가 많던 윈도우 me 그래서 윈미양이 덜렁대고 사고치는 캐릭이었어요 목소리까지 나오고 한국말고 즉각 하면 더 좋을텐데.. 성우 목소리도 갑자기 들리는거 같고
상식적으로 GPT보다 뛰어나겠어요? GPT API를 가져다가 만드는거면 몰라도 그냥 개인이 AI학습 시켜서 만드는건 차이가 엄청납니다 GPT는 기본적으로 엔비디아 H100을 만개가까이 썼습니다 각각 AI 연산 성능이 4090 대비 보통 3배 특수한 상황에서는 20배까지도 빠릅니다
git-scm.com/download/win
GIT 다운로드
visualstudio.microsoft.com/ko/visual-cpp-build-tools/
Microsoft C++ Build Tools 다운로드
github.com/oobabooga/text-generation-webui
text-generation-webui 깃허브 홈페이지
llm.extractum.io/
LLM Explorer 사이트
huggingface.co/Lewdiculous
Lewdiculous 허깅페이스 저용량고효율 모델 페이지
www.characterhub.org/
캐릭터 다운로드 사이트
github.com/oobabooga/text-generation-webui-extensions
text-generation-webui 확장모음 페이지
와.. 가끔 메인에 뜨거나 하면 보는데.. 진짜 이 유튜버는 진정한 더쿠 같은 스멜이... 영상을 찍으려고 뭘 하는게 아니라 하고 싶은 걸 일상적으로 하면서 영상을 찍는 사람 같음.. 👍
플레이신님 영상 자주자주 부탁드려요 ㅠㅠ 감질맛나게 텀을 두고 매번 오시네
RP 숙련자답게 별표와 감정표현을 맛깔나게 적으시네요
플레이신님 은밀한 취미 잘 알겠습니다
형님... 집 밖에도 세상이 있어요 ㅠㅠ
하지만 그곳에는 여친이 없지
@@Silas-q2i너는...
@@Silas-q2iㅋㅋㅋㅋㅋ
ㅋㅋㅋㅋㅋ
신박함에 감탄하여 구독을 누를 수 밖에 없었습니다.
良い情報ありがとうございます。Alltalkが読み込めなくなったので、requirementsを更新していたら、torchのcu121バージョンをアンインストールしてしまい、2.3.0cpuバージョンに変更してしまいました。update wizardを使ったら、また別のものを削除してしまい、一つずつ手動で合わせたら読み込めるようになりました。パッケージの依存関係を合わせるのは難しいですね。
ai 여친...
말로만 그렇게 하다가, 진짜가 다가오는거 같다
누구보다 여자친구만들기에 진심인 남자 ㅋㅋ
4090을 구매해서 라마3.1을 이용한 걸로 준비 중입니다
플레이신님 영상을 보고 용기를 냈습니다.
30년전 PC통신으로 처음 채팅할 때의 두근거림으로 기대중입니다.
나 왜 이거 끝까지 안봤지? 이분은 완전 영웅인데ㅋㅋㅋ
시작부터 나오는 4명...
형님 연배가...
ㄹㅇ 연배 졸라 묵직함ㅅㅂㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
다시 볼 때마다 느끼는 게, 영상 만들기 전에 조사를 엄청나게 많이 했는 데, 영상 중에는 그냥 채팅만 하기 위한 것이라고 너털웃음 짓는 거... 완전 겸손한 듯.
Ai컨텐츠 너무 좋습니다 앞으로도 많이 해주세요!
경험이 쌓이고 다시 보니까 이 영상 하나에 정리가 엄청 잘 되어 있었네.
와 진짜 진심으로 존경.. 진짜예요..
ai가 밥먹여주냐? 아니다 여친도 만들어준다 👍🏻
영상 잘봤습니다. 정보 공유 감사합니다. alltalk tts 만 에러가 나네요. 이것저것 찾아보고 시도 해봤는데 alltalk만 안되서요. 다른 tts 는되는데 영어만 되고. 혹시 한국어 지원하는 tts 는없을까요?
플레이신의 덕질 잘봤습니다!! 하하하하하
플레이신님 영상중에 가장 광기가 돋보이는 영상이네요
이 영상덕분에 한번에 잘 설정에서 사용해볼수있었어요
정식으로 제 개인 서버 내부도메인에 등록해서 사용해보려고하는데요
주소가 7860 포트를 기본으로 할당하고있는데 이걸 다른 포트로 바꿀 수 잇는 방법이 있을까요
Stable-diffusion 이랑 동일하게 바꾸면 되나 해서 봤는데 bat 파일 구조가 좀 다르네요.
4년 되가는 3090들의 중고가 올라가는 영상이네요 ㅎㅎㅎㅎ
3090과 3090Ti는 현 시점에 AI용으로는 가성비가 압도적으로 좋죠... NV LINK도 지원하니... 4090은 왜 막았냐...
플레이신님은 인류의 영웅입니다. 앞으로도 AI 컨텐츠 계속해주시면 사랑합니다.
진짜 어쩌면 흔한 인류멸망 영화의 내용처럼
우리가 인류멸망의 특이점을 오픈해버린것 아닐까? ㅋㅋㅋ
아무튼 영상 재밌게 잘 보고 갑니다 ㅋㅋ
신님 덕후(씹덕--)구나 ㅋㅋ
안 궁금한 내용을 너무 자세히 올려주시네 ㅋㅋㅋㅋㅋ
4090 기준 최대 n_ctx 갑은 8000 정도(제작자 답변에 8K 권장 이라고) 해야 ai 가 이상한 말을 안뱉어 내네요. 무작정 Context 값을 올렸다가 9400 정도 넘어가니 에가 완전 맛이가서 특수문자를 내뿜어 냅니다. 플신 님이 추천해준 엔진인데 아마 엔진 에서 연산하는 최대 길이 값이 저정도 인거 같아요.한 20기가 브램 먹어주는 LEWD 엔진을 찾아 봐야할거같네요
선생님, 적용 및 다시시작해서 cmd에서 alltalk 돌아가는것까진 확인했는데, 26:18 부분에서 chat 하단에 alltalk 관련 옵션이 안나오는데 어떻게 해야나요? 세션에서 번역을 끄고, alltalk_tts와 갤러리 두개만 활성화 된 상황입니다.
오.. 이렇게 유튜브에서 다루어지는걸 보니 신기하네요.
플레이신님 text-generation-webui 사용법 특집으로 한 번 다뤄주세요. 보고 따라 하는려고 하는데 잘 안되네요 ㅠㅠ 예를 들어 Download model or LoRA에서 모델 주소 복사 붙여넣기 했는데 gguf파일이 검색이 안되고 나머지 파일만 검색된다 던지 이런 문제들이 있습니다 ㅠㅠ그리고 플리이신님 언어모델 어떤 식으로 사용하시는 지도 궁금해요~
안녕하세요
리뷰 잘보고 있어요
구형gpu에 메모리안큰거 랑 신형 gpu랑 비교도 부탁드려도 될가요? ㅎㅎ
AI 그녀와 오늘도 ㅠㅠ
우왕 재생목록에 있어서 먼저봐요
오 배우고 갑ㄴ다 ㄷㄷ
코딩 ㅅㅂㅅㅂ 하고있는데 정말 편해졌네요 ㄷㄷ
AI그녀와 만나는 거도 돈(그래픽 메모리)이 많이 드는 군요....;
일딴...최소 천만원은 제대로 박고 시작해야 됩니다.
역시 미연시 마스터는 다르군요
옛날에 한 번 봤던 GPU에 SSD달아놓은 그 제품이 진짜 필요해졌네요. 이론상 그래픽 메모리 2테라 가능.
흠.... 플레이신님..... 이세계에서는 행복하셔야해요 ㅠㅠㅠ 역시 현실 연예는 어렵군요......
부디 거기서 그녀와 행복하시길~~
좋은정보 감사 합니다. 😀 이 영상 보고 따라 하다가 구형 컴퓨터라서 ㅜ.ㅜ 반응속도에서 좌절하고 나서 좀더 빠른 방법을 찾다가
블로그에 llama3 돌리는 설명글 보면서 docker 열어서 webui 얹어서 새로나온 llama3 를 활용하니 그나마 반응속도가 참아줄만하네요...
행복하세요
"이 영상을 지갑씨가 좋아합니다"
형의 14900K 는 CPU 문제 없어요 ? 그영상... 올라올줄 알았더만... 엄한 내용이 나오네요
ㄹㅇ 청주의 황금똥손 보고싶네요
철권 안하시는듯 ㅋㅋ
스테이블 디퓨전이랑 확실히 비슷하네요
예전에 찍먹으로 잠깐 써봣는데 미스트랄7b가 gpt마냥 쓰긴 좋더군요
일단... VRAM 8GB 환경에서는 그 어떤 모델도 마음에 들지 않을정도입니다.
나오는 답변이 진짜 사람 속터지게 하는 급이라서 ㅠㅠ
결론은 VRAM 넉넉한 시스템으로 가야하는게 맞네요 핡..
영상 재미있게 봤는데 이걸 코랩에서 사용하면 비용이 많이 들까요? 코랩에 쓸꺼면 그냥 ChatGPT쓰면 되니까 언급을 안하시는 걸까요?
이러니 젠슨황이 돈을 쓸어담지....
5:15 cpu 뭔가 쓰로틀링이라도 걸렸나 본데요 0.84 ghz ㅋㅋㅋ
컴퓨터 요구사항이 어느 정도 돼야 가능한가요? ai 프로그램들 고사양 그래픽 카드가 필요한 것 같던데...
고오급 심심이 저도 한번 해보고싶네요
설치 파일에 누락이 있던건지 sounddevice 모듈을 찾을 수 없다고 나와서
가상 환경에서 해당 모듈을 설치해주니 제대로 실행 되네요
썬더 볼트 외장 gpu 킷을 연결하세욧!
안녕하세요 혹시 애플 실리콘 맥에서는 설치가 불가능할까요?
유튜브에 검색에 2080ti ram upgrade 라고 겜색하면 2080it를 22GB로 개조하시는 분도 계시던데 퀘이사존에서는 2080it 44GB하는 사람도 있고
?
@@강동연-v4x좀더 알아봤는데요 중국에서 개조를 해봤는데 개조를 44GB짜리를 만들어는데 결국 바이오스에서 지원이 않되서 않되군요
어우 집에 남는 TITAN RTX 를 그냥 써야 겠다...
플레이신 아저씨는 이런거 어떻해 아는거야?ㅋㅋㅋㅋ 역시 청주의 똥.. 아니 금손!
형도 AI 조회수가 맛도리인걸 깨달았구나
7:30 그러니까 36ti 47tis 이렇게 사용해서 24기가 모델을 사용해도 된다는 뜻인가요
4090 사십쇼
@@강동연-v4x 비쌈
VRAM 40GB는 어우... 아직 갈길이 멀게만 느껴지는군요
오목교 전자상가 보고 왔으면 개추 ㅋㅋㅋㅋㅋ
아니 내 생각에는 채굴장 처럼 그냥 6way 보드 싸게 사서 3060 12g 6개 박음 같은 가격에 고사양 몇개 사는것 보다 훨씬 저렴하게 시스템 구성할수 있을거 같은데? 어짜피 gpu 만 쓰는 모델도 많으니 채굴장 망해서 나오는 보드들 엄청 많은데.
제길, 이 형 진심으로 좋아하잖아?
맥스 생각나네요. 역시 AI대화는 3090인가..?
케이스를 누드 케이스로 바꾸면 공간 제약이 없어지니깐 그래픽 카드 2개 붙일 수 있지 않을까요?
플레이신님~
항상 플레이신님 영상을 빠짐 없이 보고 있습니다 ^^
감사합니다.
한 가지 건의사항이 있는데요, 이번 영상과는 상관 없지만,
플레이신님 영상 중 메인보드를 해외 직구하는 영상이 있습니다.
저도 제가 원하는 메인보드를 구입하고 싶은데, 국내에서 구하기가 정말 어려운 메인보드가 있습니다.
플레이신님 처럼 해외 구매를 하고 싶은데, 어디서 어떻게 구입을 해야 할지 정말 막막합니다.
그래서 말인데요.....
혹시 컴퓨터 주변기기 또는 다른 물건이라도 해외 직구하는 방법을 영상으로 만드실 계획은 없으신지요?
그렇게만 된다면 정말 감사하겠습니다 ^^
감사합니다 ^^
아마존
와..xp걸..정말 오랜만에 보네요. 20년후..ㅋㅋ 중간에 밀레니엄 소녀 윈me 양이 더 재미있었는데 항상 오류투성이 버그가 많던 윈도우 me 그래서 윈미양이 덜렁대고 사고치는 캐릭이었어요
목소리까지 나오고 한국말고 즉각 하면 더 좋을텐데.. 성우 목소리도 갑자기 들리는거 같고
기술의 발전으로 저희들은 이제 컴퓨터엔 사람들이 있다 라고 할 수 있겠습니다
라데온 사용자는 Windows 환경에서 사용 불가능... 한 것 같은데 맞나요?
미래의 제 여친이 인공수정하는 모습을 보는 것 같군요
인공지능 공부하는 학생은 다른것보다 인공지능에 글카가 많이 필요하다는것에 슬프다...
드디어 회사에서 사용중인 슈퍼컴퓨터로 해볼께 생겼네요.
똘똘한 청년.
LLM Explorer 이 사이트는 불법적인거 질문하면 다 대답 안하나요?
휘슬러는 (여)신이(었)다...
아답터 모양은 어떤걸 의미하는지 아시는 분 계시나요??
온라인 없이 오프라인에서만
동작이 가능한건가요??
^^
개인적 한계를 함께 넘어보길
원하시면
글 남겨주세요
서버일 하시나 보네요
와 XP쨩...
맥 스튜디오 울트라 풀옵에서는 그래픽 메모리를 100기가 넘게 할당할 수 있죠(...)
울트라보다 더좋은 4080….gpu
갓수율은 뽑지 못해도 여자친구(진)은 뽑아주는 청주의 백금손 플레이신
start window이후에 cmd창에서 막힐때는 해결법이 있을까요 정확히는 다운 되다가 갑자기 아무키나 누르라는게 뜹니다
나오는 영어 번역해보면, 폴더에 공백이 있으면 안된다네요.
앞으로 AI여친이 머지않앗군요 ㅋㅋㅋㅋ
3060 12G X 4개 면 글카 성능이 너무 모자랄까요? 글카 램 가성비 제일 좋을거같은데
@@루루-z4l 단일램 기준 아닙니다.
결국 여기서도 돈없으면 여친을 구할수 없어 ㅠㅠㅠ
10월에 AMD 에서 NPU가 들어간 9000번째 CPU나온는데 물론 인텔도 10월에 NPU추가모델이 나온는데 음~ 시스템메모리가 쓸수 있다면 쩝 글카3장를 달라면 워크스테션 보드가 필요하는데
헛 그럼 채굴 보드에 그래픽카드 잔득 달아서 쓰면 최고 아닐까요 ?
이 영상보고 제 RTX4090이 질투하더군요
제 4090 불칸도 그러네요... 함정은 기숙사에 있어서 데탑을 쓸수가 없는 상황... 노트북은 4050따리...
@@강동연-v4x 서브컴에는 엔디비아 테슬라 M40 24GB 달려있는데 이놈을 머신기로 써야겠군요
4090은 아까움
요약: AIG+LLM 기술로 '상상의 동물'을 만들어낸 플레이신
코드 짤때 도와줄 GIT도 있을까요?
클로드 gpt api 따와서 하는게 아니라 로컬로 돌리는거임?
수상할 정도로 이쪽으로도 전문적인 그..
좋은 영상 잘 봤습니다. 좀 기대해볼 수 있는 것으로 단순 채팅봇이랑 노는것 외에 실생활에 도움이되는(일, 정보등) AI를 만나 볼 수 있을까요? 그리고 그게 지금 CHATGPT 와 비교해서 성능이 뛰어날까요?
상식적으로 GPT보다 뛰어나겠어요? GPT API를 가져다가 만드는거면 몰라도 그냥 개인이 AI학습 시켜서 만드는건 차이가 엄청납니다 GPT는 기본적으로 엔비디아 H100을 만개가까이 썼습니다 각각 AI 연산 성능이 4090 대비 보통 3배 특수한 상황에서는 20배까지도 빠릅니다
모델 자체 성능은 비슷해요. 어차피 모델파일은 대기업에서 내놓습니다. 돌릴 수 있는 사용자의 pc사양이 문제죠
일본에서 리얼스킨 로봇 만들었다고 합니다. 머리만 이거로 올려주면 되겠네
암드 글픽카드는 안되는건가요...
지갑씨에게 업그레이드 허락을 받기위한 30분짜리 영상인가요 ㅋㅋ
이것이 미래다...
횽 이건 졸리다😂
나중에 싹다 pc리뉴얼하면 저거 풀옵션 해봐야지
그래픽카드에 짱박힌 여친 왜 맛있는 것 사줘도 못먹니
리눅스 멀티부팅 걸어 라데온으로... (정말 저렴하게 16GB 모델을...)
AMD Instinct(인스팅트) MI300X 램용량 HBM 3 192 GB 짜리 하나면 되긴합니다만....(딱 AI 하기 딱맞는친구) 하지만 가격에서 눈물 납니다. ㅋㅋㅋ
언어모델연구하는 대학에서 4090샀던 이유가 있었군요
아... 3D에서 힘드니, 2D로 갔다가 결국... TEXT로 가다니.... ㅠㅠ
?? : 누구나 한번쯤 생각해본 전자계집 ( 실제 한말 )