Đã đăng ký theo dõi từ mấy tháng nay kênh của bạn trẻ này, tuổi trung niên như mình chả lo bị tụt hậu với xã hội. Hãy ra nhiều hướng dẫn về công nghệ chi tiết và dễ hiểu nữa nhé bạn.
Mong Quạ HD ra thêm các phần tiếp nâng cao chút, chẳng hạn như: - Cách sử dụng controlnet - Add plugin của các loại controlnet - Train LORA - Batch các frame của video sao cho video không bị khác các step, flicker,.... Cảm ơn quạ ạ
Bonus: - Có 1 cách để bạn hack chất lượng đó là chỉnh clip skip lên 2 bằng cách vào Settings->Stable Diffusion->Clip skip kéo lên 2 là đc, tuy nhiêu, độ chính xác sẽ giảm đi. - VAE: nếu hình ảnh bạn bị nhạt màu, đó là do thiếu VAE đấy. Bạn sẽ tải VAE về (thường sẽ có kèm theo checkpoint hoặc tải một VAE từ Hugging Face, tui dùng sd-vae-ft-mse), quăng vào folder models/VAE, sau đó vô Settings->Stable Diffusion->SD VAE và chọn cái bạn vừa tải về. Hy vọng sẽ giúp ích cho các anh em.
Tháng trước mình cũng có tìm hiểu con SD này, nhưng mà các nguồn hướng dẫn khác hay nói linh tinh với vòng vo quá nên đợi Quạ ra video hướng dẫn. Và cuối cùng ngày này cũng tới :v
góp ý 30:06 thường những ảnh preview trên CivitAi đó, trong hình ảnh chứa sẵn dữ liệu Prompt rồi, chỉ cần load ảnh đó vào tab PNG info, chạy rồi ấn import to txt2img là được, ko phải căng mắt copy từng chỗ một
cái đó thì đúng là nhanh hơn, nhưng rõ ràng là tui chỉ nói về cách tham khảo chứ ko copy hoàn toàn, với người mới khi nhả ra 1 đống thông số như v họ sẽ rất khó control lại như ban đầu. Và theo tui thì ở những video nâng cao mới nên thêm cái đó.
Khuyên là tự sáng tạo bạn à lấy mấy ảnh preview sẽ ko tót đâu :)) như hình avatar mình tự tạo ra và đang dùng này.Mình đã tự mò cách tải và tự sáng tạo 9 tháng nay rồi :))
@@phongkishi595 có thấy mình nói câu nào là nỗ lực dựa vào ảnh của người ta không? mục đích của bình luận chỉ là cách lấy thông tin từ ảnh generated chứ không phải bảo Hãy dựa dẫm vào cách tạo ảnh của người khác
@@namluongthanh3601 ông bạn à🤣 tôi biết hình như ông bạn đã tự emotional dameged chính bản thân rồi , ý tôi nói là tự làm ra ảnh bằng những tags mình nghĩ ra chứ ko nên copy nguyên cái info ảnh bên CivitAi vì nó sẽ ko giống lúc chạy đâu nó sẽ cần những thứ checkpoint, vae,những lora thêm chi tiết khác và các model hỗ trợ negative chưa tải về nữa kìa.🤣
@@johnwinner9992 Bậy m, ko biết gì đừng nói vớ vẩn. Trong vid bạn này cũng có nhắc sẽ làm về LORA. ControlNet cũng có nhắc. Comment mà ko suy nghĩ gì à. Về nhờ ba mẹ hay thầy cô gì dạy lại đi nha.
@@laurapeterson146 có nhắc không có nghĩa là làm được. Kênh này chỉ biết chút về mặt nghịch nghịch ứng dụng chứ đâu có hiểu gì bên trong bản chất. Muốn train một large model mới như OpenJourney thì cần máy siêu khủng, cực nhiều labeled data, và vài tháng trời train liên tục. Ko phải người dùng thông thường cứ muốn là train
@@h2Mechanic checkpoint là một model đã được huấn luyện trên một tập dữ liệu (ở đây là ảnh). Cùng một model là Stable Diffusion, khi huấn luyện trên các tập ảnh khác nhau (ví dụ như anime, ảnh nghệ thuật, chân dung,...) sẽ được các checkpoint khác nhau, và kết quả cũng khác nhau. VD huấn luyện trên toàn ảnh anime thì khi sinh ảnh nó sẽ tạo ra ảnh có style anime. Còn Lora hay Dreambooth là một số kĩ thuật fine-tuning để tinh chỉnh một model đã được train sẵn, để cái model đó làm thêm được một số chức năng cụ thể. Nhờ vậy mà ko cần train cái model lại từ đầu (với hàng trăm nghìn ảnh) mà vẫn thêm được chức năng theo ý mình (chỉ cần dùng vài ảnh mới để huấn luyện), tận dụng được những model đã được train từ trước trên những tập dữ liệu ảnh lớn.
Bạn cho hỏi, mình cài tới bước 4, chạy webui.bat thì báo lỗi: ERROR: Could not find a version that satisfies the requirement torch==2.1.2 (from versions: 2.2.0, 2.2.0+cu121, 2.2.1, 2.2.1+cu121, 2.2.2, 2.2.2+cu121, 2.3.0, 2.3.0+cu121, 2.3.1, 2.3.1+cu121, 2.4.0, 2.4.0+cu121) ERROR: No matching distribution found for torch==2.1.2
báo lỗi nào thì fix ntn ạ :(((( NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.
NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check Như này là sao z ạ ;-;
Lỗi này Fix sao @quahd NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.
@@thanhvnhd dùng cái này nó yêu cầu mặc định là trình duyệt Chrom. Với lại mình có sữa một số mã lệnh, xíu về nhà mình up cho anh em kham khảo, cái này cũng hên xui. máy mình cũng lỗi như vậy mà chạy dc rồi
Lỗi này phải làm sao vậy bạn: modules.devices.NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.
Ông Quạ xưa hay làm mấy videos bên a Độ với mấy game thì phải. Lâu lắm giờ tự dưng đang mò nghịch AI lại thấy lại. Hướng dẫn chi tiết vãi đạn. Thank ông nhé 🫶🏻
Tôi đã thử cách đầu tiên mà Gemini gợi ý, tôi làm theo và đã thành công, chúc anh em cũng cài được giống tôi nhé: Yêu cầu chương trình bỏ qua kiểm tra GPU: Mở tệp webui-user.bat trong thư mục cài đặt Stable Diffusion (thường là C:\stable-diffusion\stable-diffusion-webui). Tìm dòng bắt đầu bằng set commandline_args=. Thêm --skip-torch-cuda-test vào cuối dòng đó. Lưu tệp và chạy lại Stable Diffusion.
Mình đang tải trên laptop acer có 2 card AMD và NVIDIA Bây giờ Stable Diffusion đang dùng GPU của AMD thì làm cách nào để chuyển GPU từ AMD sang dùng AVIDIA vậy
e đã trở thành fan của bác từ video này :)) người đâu vừa hài hước, vừa tài năng lại hướng dẫn có tâm
Đã đăng ký theo dõi từ mấy tháng nay kênh của bạn trẻ này, tuổi trung niên như mình chả lo bị tụt hậu với xã hội. Hãy ra nhiều hướng dẫn về công nghệ chi tiết và dễ hiểu nữa nhé bạn.
1 trong những video hướng dẫn có tâm nhất mà mình từng xem. Thêm cách dẫn chuyện hài hước dí dỏm nữa. Cảm ơn bạn rất nhiều
Hướng dẫn quá ............ là chi tiết luôn ạ, thiếu điều quạ tới tận nơi cầm cái tay ấn vào nút gì nữa thôi. Xin cảm ơn team Quạ HD rất nhiều.
Mong Quạ HD ra thêm các phần tiếp nâng cao chút, chẳng hạn như:
- Cách sử dụng controlnet
- Add plugin của các loại controlnet
- Train LORA
- Batch các frame của video sao cho video không bị khác các step, flicker,....
Cảm ơn quạ ạ
up cmt vì cùng mong muốn Quạ HD ra video nâng cao =)))
Anh làm có tâm quá, cảm ơn anh:3
Cùng chung ý với bạn này. Đợi Quạ ra thêm video nâng cao về lora. Kênh của bạn rất dễ hiểu.
Coi video hướng dẫn tôi đã biết làm. Rất dễ hiễu, rất sư phạm... hay và cuốn hút! Cảm ơn người Thày Online rất có tâm và nhiệt huyết!
Công nghệ ngày càng chạy nhanh, cảm ơn anh đã ra video hướng dẫn cho những người giống em theo kịp.
Hay Đăng ơi, mình mất khá nhiều tgian tự mò mẫm để chạy. Các bạn mới học thì cứ xem vid này là hiểu kha khá rồi, sướng ghê
Bonus:
- Có 1 cách để bạn hack chất lượng đó là chỉnh clip skip lên 2 bằng cách vào Settings->Stable Diffusion->Clip skip kéo lên 2 là đc, tuy nhiêu, độ chính xác sẽ giảm đi.
- VAE: nếu hình ảnh bạn bị nhạt màu, đó là do thiếu VAE đấy. Bạn sẽ tải VAE về (thường sẽ có kèm theo checkpoint hoặc tải một VAE từ Hugging Face, tui dùng sd-vae-ft-mse), quăng vào folder models/VAE, sau đó vô Settings->Stable Diffusion->SD VAE và chọn cái bạn vừa tải về.
Hy vọng sẽ giúp ích cho các anh em.
bạn ơi , mình cài luôn VAE kéo clip skip r, sao nó tạo ra mà ko nét j hết z , help
ra video nữa đi E êiiiii - hướng dẫn có tâm mà dễ hiểu nhất mà tui tìm được luôn á, thanks nhiềuuu
- Video Stable Diffusion nâng cao ở đây nha mng ơi: ruclips.net/video/DiriLaoDVTw/видео.html
áp dụng model cho cái bản web như nào a ???
bạn ơi có cách nào tải về không dùng như nào cài đặt như nào , có cần máy tính cấu hình cao để dùng không
sao web cứ một lúc là lỗi sv phải out ra vào lại ms đc v a
web beta vào thấy trống không :(
anh ơi, em bị lỗi này fix ntn ạ: Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check
quá đã, mong quạ hd sẽ ra thêm nhiều video nữa về con SD này
Lần đầu xem video của kênh, thực sự ấn tượng, cám ơn bạn. Hy vọng sắp tới có thêm nhiều video hay về khai thác sức mạnh của AI.
Tháng trước mình cũng có tìm hiểu con SD này, nhưng mà các nguồn hướng dẫn khác hay nói linh tinh với vòng vo quá nên đợi Quạ ra video hướng dẫn. Và cuối cùng ngày này cũng tới :v
lần đầu tiên tạo đc ảnh anime bằng AI. 1 trải nghiệm thú vị❤. cảm ơn anh ạ hibi🎉
Hướng dẫn kiểu này mù công nghệ cũng biết làm. Hay quá em ơi, cảm ơn nhiều nhé!
góp ý 30:06 thường những ảnh preview trên CivitAi đó, trong hình ảnh chứa sẵn dữ liệu Prompt rồi, chỉ cần load ảnh đó vào tab PNG info, chạy rồi ấn import to txt2img là được, ko phải căng mắt copy từng chỗ một
cái đó thì đúng là nhanh hơn, nhưng rõ ràng là tui chỉ nói về cách tham khảo chứ ko copy hoàn toàn, với người mới khi nhả ra 1 đống thông số như v họ sẽ rất khó control lại như ban đầu. Và theo tui thì ở những video nâng cao mới nên thêm cái đó.
Khuyên là tự sáng tạo bạn à lấy mấy ảnh preview sẽ ko tót đâu :)) như hình avatar mình tự tạo ra và đang dùng này.Mình đã tự mò cách tải và tự sáng tạo 9 tháng nay rồi :))
@@phongkishi595 có thấy mình nói câu nào là nỗ lực dựa vào ảnh của người ta không? mục đích của bình luận chỉ là cách lấy thông tin từ ảnh generated chứ không phải bảo Hãy dựa dẫm vào cách tạo ảnh của người khác
@@namluongthanh3601 ông bạn à🤣 tôi biết hình như ông bạn đã tự emotional dameged chính bản thân rồi , ý tôi nói là tự làm ra ảnh bằng những tags mình nghĩ ra chứ ko nên copy nguyên cái info ảnh bên CivitAi vì nó sẽ ko giống lúc chạy đâu nó sẽ cần những thứ checkpoint, vae,những lora thêm chi tiết khác và các model hỗ trợ negative chưa tải về nữa kìa.🤣
@@namluongthanh3601 dù sao đây là ý kiến của bạn mình ko đánh giá gì cả và tôn trọng ý kiến của bạn ,mỗi người đều có những ý kiến khác nhau 🙋👍.
B này hướng dẫn chi tiết dễ hiểu quá. Cảm ơn b đã chia sẽ
Mong xem đc nhìu video về sd hơn.
Cần lắm những tutorial nâng cao như:
- ControlNet
- LORA
- Tự train model, như OpenJourney
- Dreambooth
Hóng :)
mấy cái này m qua kênh lập trình mà coi =))) chứ kênh này sao chỉ ta =))
@@johnwinner9992 Bậy m, ko biết gì đừng nói vớ vẩn. Trong vid bạn này cũng có nhắc sẽ làm về LORA.
ControlNet cũng có nhắc.
Comment mà ko suy nghĩ gì à. Về nhờ ba mẹ hay thầy cô gì dạy lại đi nha.
@@laurapeterson146 có nhắc không có nghĩa là làm được. Kênh này chỉ biết chút về mặt nghịch nghịch ứng dụng chứ đâu có hiểu gì bên trong bản chất. Muốn train một large model mới như OpenJourney thì cần máy siêu khủng, cực nhiều labeled data, và vài tháng trời train liên tục. Ko phải người dùng thông thường cứ muốn là train
mình vẫn chưa phân biệt đc giữa Lora và checkpoint (model) nó khác gì nhau? Có ai giải thích giúp mình đc ko ạ
@@h2Mechanic checkpoint là một model đã được huấn luyện trên một tập dữ liệu (ở đây là ảnh). Cùng một model là Stable Diffusion, khi huấn luyện trên các tập ảnh khác nhau (ví dụ như anime, ảnh nghệ thuật, chân dung,...) sẽ được các checkpoint khác nhau, và kết quả cũng khác nhau. VD huấn luyện trên toàn ảnh anime thì khi sinh ảnh nó sẽ tạo ra ảnh có style anime. Còn Lora hay Dreambooth là một số kĩ thuật fine-tuning để tinh chỉnh một model đã được train sẵn, để cái model đó làm thêm được một số chức năng cụ thể. Nhờ vậy mà ko cần train cái model lại từ đầu (với hàng trăm nghìn ảnh) mà vẫn thêm được chức năng theo ý mình (chỉ cần dùng vài ảnh mới để huấn luyện), tận dụng được những model đã được train từ trước trên những tập dữ liệu ảnh lớn.
ủng hộ team Quạ và anh hướng dẫn viên siêu đz
Trong prompt hay có những prompt đặt trong các dấu "( )" ,"[ ]", "{ }"
Mong QuaHD sẽ giải thích sâu hơn về prompt ở clip sau. Thank you!
() để nhấn mạnh ,[ ]để giảm sự quan trọng của một thuật ngữ
BIẾT ƠN KÊNH RẤT NHIỀU, KIẾN THỨC RẤT GIÁ TRỊ ! CHÚC KÊNH PHÁT TRIỂN TIẾP CẬN NHIỀU KHÁN GIẢ Ạ
Bạn cho hỏi, mình cài tới bước 4, chạy webui.bat thì báo lỗi:
ERROR: Could not find a version that satisfies the requirement torch==2.1.2 (from versions: 2.2.0, 2.2.0+cu121, 2.2.1, 2.2.1+cu121, 2.2.2, 2.2.2+cu121, 2.3.0, 2.3.0+cu121, 2.3.1, 2.3.1+cu121, 2.4.0, 2.4.0+cu121)
ERROR: No matching distribution found for torch==2.1.2
Bạn cần cài Python đúng version 3.10.6 mới ko bị lỗi này, các version sau đều lỗi
@@oanngocthanh3060 vesion cao hơn có dc không bác. Hay cứ phải đúng 3.10.6
e dính lỗi k sử dụng trên GPU mà mò đc mấy bài của ông nc ngoài làm đc r, cảm ươn a nhiều
mình cung bị như bạn , cách khắc phục sao bạn , mong dc sự giúp đỡ
Mình cũng bị lỗi nàu nhờ bạn hướng dẫn với
quả SD này thực sự "tà đạo" phết, ae nhớ dùng đúng mục đích nhé :>
Ko 💀💀
Cái j cũng vậy thôi. Khi người ta lần đầu tạo ra việc quay và chiếu phim, họ đã nghĩ ngay đến việc sao ko đóng pỏn kiếm tiênd
làm P đc hả 🤣
Hè hè hè. Cảm ơn đã gợi ý
Không :v
Cám ơn em! Nhờ phong cách hài hước nên hướng dẫn dễ nuốt hơn rất nhiều. ^^
báo lỗi nào thì fix ntn ạ :((((
NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.
"Use --disable-nan-check commandline argument to disable this check." vào commandline gõ --disable-nan-check hoặc đặt COMMANDLINE_ARGS= --no-half-vae
@@bpiuubzybyboqzyudpbseamorp7920 vẫn ko fix đc ông ơi hay do cấu hình máy :V máy tôi card NVDIA 1650
@@tasao5556 thiếu vram rồi bro =)) card tối thiểu lắm thì 6gb vram, dùng tạm là 12gb, còn muốn mượt thì 3090 24gb thẳng tiến nhé
@@bpiuubzybyboqzyudpbseamorp7920 ui cám ơn bro nhiều nhé nhờ bro mà tui mới xài được :v
@@bpiuubzybyboqzyudpbseamorp7920 COMMANDLINE_ARGS= thư mục này nó nằm ở đâu vậy bro ơi ? help me
Thank you anh chờ ng hướng dẫn như v lâu lắm r chi tiết dễ hiểu mà quan trọng phải cuốn :> Các khoá học AI bên ngoài h toàn mất tiền triệu vl thật :))
NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check
Như này là sao z ạ ;-;
Thêm --no-half vào parameter bạn. Giống ở cuối clip ổng chỉ ó
@@tungho2537 ohhh, cảm ơn nhaaa
Add lowvram hoặc medium vram, tối qua tôi cài ông kia 1660s cũng bị
@@PhamDucThanh92 bạn ơi tôi set up như này được chưa bạn t dùng card NVIDIA 1650
@@PhamDucThanh92 set COMMANDLINE_ARGS= --xformers --disable-nan-check --autolaunch --skip-version-check --no-half --lowvram
xem xong video này đúng mới hiểu lora vs checkpoint và hiểu tổng quan về SD. Cảm ơn ad nhé
Lỗi này Fix sao @quahd NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.
fix được chưa bạn ^^ mình cũng dính tương tự
me too :((( how to fix this one
card lõ
@@tasao5556 mình cũng bị, mà mình mới fix dc. xíu về nhà mình chỉ cho, hên xui á.
@@thanhvnhd dùng cái này nó yêu cầu mặc định là trình duyệt Chrom. Với lại mình có sữa một số mã lệnh, xíu về nhà mình up cho anh em kham khảo, cái này cũng hên xui. máy mình cũng lỗi như vậy mà chạy dc rồi
Cảm ơn bạn, clip chi tiết tuyệt vời dễ hiểu. Ít khi khen kênh nào, nhưng kênh này khen mạnh.
Lỗi này phải làm sao vậy bạn: modules.devices.NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.
tôi cũng bị lỗi này :(
nhờ Quạ hướng dẫn cách sài cũng như cài đặt chi tiết mà có đc 1 còn ảnh đẹp làm hình nền cảm ơn Quạ
tui là team xem chùa của quạ từ lâu, nay tui chính thức đăng ký kênh và nhận thông báo video mới từ quạ
Quá toẹt vời luôn. Hướng dẫn dễ hiểu lại hay nữa cảm ơn Admin rất nhiều.
Làm video rất có tâm. Cảm ơn Quạ HD rất nhiều!
Ông Quạ xưa hay làm mấy videos bên a Độ với mấy game thì phải. Lâu lắm giờ tự dưng đang mò nghịch AI lại thấy lại. Hướng dẫn chi tiết vãi đạn. Thank ông nhé 🫶🏻
Quá đỉnh luôn anh zai, mong có nhiều clip hơn về A.i
Hướng dẫn có tâm và rất dễ hiểu
cảm ơn anh quạ, vừa có tài vừa có tâm, chúc anh thật nhiều sức khỏe 😍😍😍
xem quạ không lâu nhưng từ một người không biết gì mình cũng có thể edit một số video cơ bản. mong quạ càng ra nhiều video hay hơn nữa :)
Tks Ad Đăng. Hướng dẫn rất sinh động và dễ hiểu. Rất có tâm
Video hay thật, rất hữu ích, giải thích rất dễ hiểu, cảm ơn bạn.
Càm ơn Quạ HD đã hướng dẫn rất chi tiết 😍
anh làm dễ hiểu đầy đủ, mong anh sớm ra phần Lora, chúc anh luôn nhiều sức khỏe và thành công
Civic ai có nút copy k cần cop riêng từng phần đâu cứ nhấn copy r paste vào khung promt r nhấn mũi tên xanh dưới nút gen là nó tự set hết
từ giờ tui sẽ là fan anh quạ, mãi iu ạ
cám ơn anh đã chia sẻ.e gặp rất nhiều vấn đề để tải xg cũng như cài đặt.nhưng đã cùng bà AI chat gpt giải quyết ok hết rồi,,,chiến thôi😅😅
Cảm ơn quạ. Hướng dẫn chi tiết, dễ hiểu cho người mới.
Hướng dẫn thêm sử dụng LoRa để ghép mặt vào ảnh đi Quạ
chờ mãi clip này của a
Cám ơn video rất chi tiết và hữu ích của Quạ HD nhé :D
Tôi đã thử cách đầu tiên mà Gemini gợi ý, tôi làm theo và đã thành công, chúc anh em cũng cài được giống tôi nhé:
Yêu cầu chương trình bỏ qua kiểm tra GPU:
Mở tệp webui-user.bat trong thư mục cài đặt Stable Diffusion (thường là C:\stable-diffusion\stable-diffusion-webui).
Tìm dòng bắt đầu bằng set commandline_args=.
Thêm --skip-torch-cuda-test vào cuối dòng đó.
Lưu tệp và chạy lại Stable Diffusion.
mà mình gặp lỗi khác đang tìm cách fix các cậu ơi :v
Hướng dẫn rất chi tiết cám ơn Quạ HD rất nhiều 😊😊😊
Content quá chất lượng, nếu ko có video của Quạ thì chắc m cũng lười vọc con này.
1:48 hình số 9 :v, mặn quá a êi :D
xem 1 lần hiểu luôn, cảm ơn mr Quạ nhiều nha
Hướng dẩn có tâm. Like. ❤
tuyệt vời, cảm ơn ad rất nhiều, mình làm được rồi
RTX3060TI
hay thật sự, rất cảm ơn anh vì đã ra vid này
quá đỉnh anh quạ ơi, xứng đáng like và sub
hướng dẫn rất chi tiết và có tâm
Thanh niên này giỏi vãi. Làm video cuốn
Triệu like, nhìn a hơi giống diễn viên Trúc Nhân, nói chuyện cuốn quá :D
video rất chi tiết và dễ hiểu hơn các video dạy SD khác
Quá hay và dễ hiểu, hóng phần tiếp theo a ơi
cảm ơn bạn nhiều nha, video hướng dẫn chi tiết quá ❤❤❤
Cám ơn quạ Hd siêu nhiều ❤ siêu có tâm luôn ý
Tôi chờ mãi cái này hehe,anh em biết dùng làm gì rồi đó
má 7 tháng sau cài thì python nó ra phiên bản mới . tìm tòi mãi mới tìm lại đươc bạn 3.10.6 :( thanks quạ HD
Cảm ơn trên nhiều nhé,
lượng kiến thức này mà tự nghiên cứu thì chắc thâm quần đôi mắt mất thôi
26:43 sao mình không thấy cái mắt như video hướng dẫn nhỉ, có đăng nhập bằng discord luôn mà không có cái mắt để chọn thử cái everything
rất hay ạ, mong anh ra video hướng dẫn, tạo video AI bằng Stable Diffusion
Quạ chỉ rất rõ ràng và có tâm, thank u
cảm ơn bạn, hướng dẫn rất chuyên nghiệp, dễ hiểu
Nghe bạn hướng dẫn dễ thương quá Subscribe luôn :))
Dễ thương thì dễ thương vừa vừa phải phải thôi ba!!!!
rất chi tiết và dễ hiểu. Cảm ơn a.
hay dễ hiểu lắm Quạ ơi :))
Quạ AI trước làm diễn viên hài à. Xem video cuốn quá
ai có tâm như anh này
Quá bổ ích. Cám ơn anh
CẢM ƠN EM CHIA SẺ NHÉ, CHÚC VUI VẺ!!!
Chau chu. I understand what you're saying but I don't know how to write in vietnamese. Nice to see my peeps online youtube though!
em cũng làm như anh mà trong file em không có cái bat đó phải làm sao anh?
anh ơi..mifh cài vào ổ hdd với ssd tốc độ load ảnh có khác nhau ko ạ
có xuất được project không quạ ơi.
b ơi cho mình hỏi với, tại sao máy mình kích thước dài, rộng tối đa chỉ được 2048px nhỉ
Thanks ! Video quá bổ ích
chờ a zai mãi , sáng dỗi ngồi tải luôn r =)))
cho em hỏi là dung lệnh medvram , và lowvram ảnh hưởng đến việc sử dụng SD nhiều không ạ ?
Cam ơn em! hay và rất rõ ràng chi tiết.
Xin cám ơn bạn vì video, cho mình hỏi thêm là Stable Diffusion này cài trên MacBook Pro Intel được không bạn?
Mình phải bấm đăng ký ngay sau khi xem video , quá là bổ X
tôi đã đăng kí bạn khi xem xong clip này!
co chi cách chinh mau hong ah
cám ơn anh đã chia sẻ, cho e hỏi phần mềm này có cần mua bản quyền ko Ad
thanks clip hay . QuạHD hướng dẫn cái gì đại loại như "generative fill" loại ngon bổ rẻ ấy
Tuyệt vời, cảm giác ngon hơn con Midjourney luôn, trong khi con MJ trả phí, cám ơn kênh QuạHD
có điều con này tốn tài nguyên máy nhiều hơn
Con này nặng kinh ấy
Mình đang tải trên laptop acer có 2 card AMD và NVIDIA
Bây giờ Stable Diffusion đang dùng GPU của AMD thì làm cách nào để chuyển GPU từ AMD sang dùng AVIDIA vậy