Wypowiem się na temat Stable Diffusion na karcie AMD (rx 6650xt 8GB) z wykorzystaniem Automatic1111. Windows kompletnie odpada jeżeli ktoś planuje się tym bawić, testowałem rozwiązania takie jak wtyczka directml do bazowej wersji Automatic1111 i działało to przeciętnie - 1.2it/s przy obrazku 512x512. Maksimum przy którym nie wywalało błędu o braku VRAMu to było jakieś 640x768, a dodatkowym zastrzeżeniem było tutaj trzymanie się danego wymiaru, który musiał być podzielny przez 64 bo inaczej się wysypywało, więc odpadał jakikolwiek niestandardowy refine obrazka, a w dodatku prompt musiał być ograniczony do rozmiaru 75 bo takie ograniczenia zostały nałożone i nie było szans tego ominąć. Warto tu także wymienić to że upscaling obrazka odbywał się nie z wykorzystaniem GPU, a obliczenia przenoszone były na CPU i trwało to czasem nawet kilka minut. Było też inne rozwiązanie do niedawna promowane na blogu AMD, czyli pobranie pewnej wersji A1111 ze wsparciem dla ONNX w połączeniu z DirectML ale działało to trochę inaczej i zdecydowanie gorzej niż directml jako extension do bazowego A1111. Oba te rozwiązania wymagały transformacji modelu na format ONNX. Pierwszy z nich operuje na unet a drugi bodajże na modelu w formacie ONNX z rozszerzeniem .ckpt. Więc dochodzi jeszcze odpowiednia umiejętność konwersji między formatami, optymalizacji tego itd... Generalnie sporo zabawy żeby to w ogóle zaczęło działać i nie jest to tego warte na Windows. Stwierdziłem w pewnym momencie że nie ma możliwości żebym się tak męczył, więc wydzieliłem odpowiedni rozmiar dysku na partycję z Ubuntu, pobrałem rocm według zaleceń AMD i po odpowiednich drobnych modyfikacjach (podmiana identyfikatora karty na wspierany przez rocm - rx 6800 xt oraz wyłączenie secure boota, który blokował wykorzystanie sterowników w systemie) wszystko działa jak marzenie - 3.6it/s przy obrazku 512x512, 4x upscaling w dosłownie kilka sekund. Różnica jest kolosalna, a w dodatku można korzystać z pełnej palety funkcjonalności A1111, a wykorzystanie VRAM nawet przy generowaniu obrazka 1024x1024 nie przekroczyło 6.2GB i ani razu nie miałem problemu ze stabilnością tego wszystkiego.
Powiem szczerze że nigdy nie miałem takich problemów chociaż mam karte NV i to może robić różnice, próbowałeś dodać parametry startowe ? jak --api --lowvram --always-batch-cond-uncond --xformers --no-half-vae ? Fakt że na windowsie demonem szybkości może to nie jest ale 1m 30sec average 7.52s/it 1024x768 i 1024x1024 z refinerem i esgran x4 Hires (na karcie 1050TI 8GB 4+4shared) dla SD 1.5 / 2 Dla SDXL polecam Fooocus, działa na 4GB ram pod windowsem więc pod linuxem powinno jeszcze szybciej, czas podobny jak dla SD 1.5 przy 2048x2048.
Tak, testowałem wiele parametrów startowych, które były polecane na wielu subredditach właśnie dla osób wykorzystujących te metody uruchamiania tego konkretnego narzędzia (A1111) na kartach AMD. Najważniejszym problemem tutaj jest niestety brak obsługi CUDA dla kart od czerwonych (ich technologia pozwalająca obsłużyć narzędzia z niej korzystające działa jedynie pod Linuxem) i trzeba próbować obchodzić to naokoło właśnie przez włączenie obsługi zoptymalizowanych modeli pod rozwiązania Microsoftu i zabawę z tym na wielu płaszczyznach żeby to działało tak jak powinno, a i tak mi się to nie udało w pełni i większość zadań była przerzucana z GPU na CPU i dlatego to tak wolno działało w większości przypadków. Być może właśnie są jakieś narzędzia które lepiej sobie z tym radzą, lub mają jakieś rozwiązania które po prostu działają, ale na tamten moment, gdy jeszcze próbowałem z tym działać na Windows, nie byłem w stanie znaleźć niczego sensownego na forach, a po przerzuceniu się na rocm widzę diametralną różnice w prędkości oraz stabilności, więc to jest jedyne rozwiązanie które poleciłbym komuś z układami od AMD. Szczerze mówiąc miałem do niedawna 1050 ti 4GB i kiedyś próbowałem generować za pomocą Stable Diffusion. W porównaniu do AMD karty NV działają od strzała i nic więcej nie trzeba robić, wystarczy mieć tylko narzędzie, model, wystarczająco VRAM i dobre parametry startowe. Nie wiem czy korzystałem z dzielonej pamięci, aby mieć dostęp do generowania czegoś większego, ale raczej nie, bo dość szybko docierałem do limitu pamięci. Zdecydowanie obczaję sobie tego Fooocus-a, ciekawe jakby to mogło działać z rocm. @@ephionis
Jestem głównym informatykiem w średniej fabryce i gpt dużo mi pomaga. Piszę budżety, odpowiada na e-maile, odpowiada na pytania odnośnie sieci, środowiska serwerowego, itp. Chętnie przetestuję to na swojej lokalnej maszynie :)
1. można połączyć kilka komputerów aby generować na jednym, szybciej i lepiej? 2. Czy są modele pracujące tylko na CPU + j.w. czyli połączenie kilku dla szybszego/lepszego efektu?
Powiadasz, że na starszym kompie idzie pogadać na czasie GPT? U mnie koboldcpp się zamyka gdy ładuję większość modeli. Mam Win 10, procesor Intel Xeon E3-1246 v3, grafikę GF RTX 2060 super. Mógłbyś zrobić jakiś film który szerzej by omawiał ten program? Jest tam trochę do ustawiania i może o czymś istotnym nie wspomniałeś w tym filmie? Zauważyłem np, że część modeli działa ale tylko jak ustawię dla grafiki presety Vulkan w nazwie. Pozostałe presety nie działają a program się zamyka natychmiast po kliknięciu w launch. A może trzeba dobrać odpowiedni model? Jest tych oznaczeń modeli co nie miara i trudno się w tym połapać. Wiem tylko, że im wyższa cyferka przy q tym mocniejszy sprzęt potrzebny. Tylko nie każdy model ma podaną literkę q. Te modele które działają, to akurat nie trafiłem na taki z językiem polskim. Bywa, że zamiast odpowiadać sypią jakimiś tekstami zupełnie haotycznymi, wygląda to czasem jak podsumowanie naszej rozmowy podane w dwóch językach plus znaki specjalne. Albo bot się zapętli i odpowiada niemal to samo tylko w różnych konfiguracjach, choć moje pytania są już inne. Zupełnie inaczej to wygląda jak np. na stronie czatkropkaai.
Jestem czynnym programistą i powiem Wam, że z jednej strony cieszę się na to jak rozwijają się narzędzia oparte o sieci neuronowe, z drugiej strony tempo tego rozwoju trochę mnie przeraża :D
ja chciałem zostać grafikiem i zacząłem coś robić w tym kierunku, nagle pojawiło się AI. Po prostu skaczę z radości na widok tego, że za kilka lat AI będzie generować lepsze obrazy niż ludzie i będę skazany na pracę w biedronce xD
@@tomaszstaron1233 tu się nie zgodzę. To nadal chatboty. Testowałem je wielokrotnie i dalekie są choćby umiejętności mida. Są dobrym narzędziem wspomagającym ale programisty nie zastąpią przez jeszcze parę ładnych lat :)
WhisperGUI świetne, na pewno kiedyś tego użyję jak już będę po remoncie w domu i wezmę się za hobby (yt/stream/gry/tech etc) - mam nadzieję znaleźć też podobny soft ale działający w czasie rzeczywistym. Stability Matrix i NMKD Stable Diffusion świetnie nadadzą się do prostych projektów, w sumie to nawet na steamie używam profilowych zdjęć które generowały AI.
Bawię się w generowanie obrazków - WOW. RTX 4090 można spoko wykorzystać do generowania naprawdę dobrej jakości obrazów i maks co mi zajmuje na obrazek to 23 sekundy
Ciekawa sprawa z tym odczytywaniem plików. Fajnie by było jakby była możłiwość wrzucenia ustaw naszego prawa i zadawać mu pytania i żeby odpowiadał na podstawie tych ustaw ze wskazaniem źródeł :D
11 месяцев назад+1
LMstudio też służy do lokalnego uruchamiania LLM i pod czatem wyświetla benchmark w tokenach na sekundę. U mnie aktualnie: od 0,6tok/s na modelu 72B Q5 (największy jaki udało mi się odpalić, zajmuje 56GB RAMu) do 3tok/s przy trochę mniejszych modelach. Wszystko to na GTX1050Ti 4GB, Ryzen 3600, 64GB RAMu, z offloadingiem 1 warstwy do GPU i kontekstem ustawionym zawsze na domyślne 2048.
Ja w pewnym sensie wykorzystuję lokalną sieć neuronową w postaci dodatku o nazwie... kurde nie pamiętam... w każdym razie dodatek do OBSa, współpracujący z osprzetem Elgato, a wchoidzacy w skład sterownika nVidia Studio i działający jedynie na kartach RTX. Co on daje? Otóż teoretycznie jakieś baery z dźwiękiem (ale nie mam mikrofonu od elgato), do czego ja go nie używam, ale przede wszystkim za pomoca algorytmów sieci neuronowych usuwa tło w bardzo skuteczny i dokładny sposób. Ptrymitywna wersja czegoś takiego jest wam pewnie znana z jakiegoś zooma, czy czegoś w tym styuku, ale to nie zawsze działa dobrze, czasami dziwnie ucina kawał głowy, czy podmienia część ubrania - a u mnie działą idelnie tak, jakbym miał green screena za plecami, co znacznie pomaga mi w prowadzeniu streamów, czy nagrywaniu treści na kanał, gdzie potrzebuję wrzucić siebie z czymś w tle. Wymaga jednak dobrego światła, ale nie jakiegoś wybitnego - u mnei to nawet nie jest profesjonalny softbox, a zwykła lapma z IKEI, z tym, ze z dużo mocniejszą żarówką ledową (bodajże 14,5W). Da sie bawić ustawieniami, ale ja jestem laikiem i mam po prostu ustawioną wysoką jakość a reszta domyślnie.
Używam już od dłuższego czasu stable diffiusion i powiem że mój model "wyuczył się" robić zajebiste cyberpunkowe i kosmiczne obrazy Jedno z takich obrazów nam na profilowym na steam
Siemka, zainteresuj się burn w RUST, bazują na webgpu które tłumaczy na VULKAN, METAL czy Dirext12 np. Ogólnie biblioteka na razie w fazie alpha ale wiele rzeczy już działa naprawdę świetnie. Jest to co prawda coś na zasadzie PyTorch czyli służy naukowcom czy devom, ale mogę ci coś wyskrobać na testy początkowo pod linux'a a przy większej chęci na Window'a, choć osobiście nie mam tego systemu w domu, korzystam tylko z Linux'a na co dzień do pracy i Mac'a rekreacyjnie.
PS GUI przyszłościowo tez była by szansa pod benchmark ogarnąć w Tauri np. A w sumie rozwijając myśl co daje biblioteka burn w porównaniu do pytorch na której to bazuje niemal wszystko to to że zbudowany model od 0 można puścić na CPU, GPU
@@piotrgo9939 Niestety linki nie przechodzą albo Łukasz usunął mój komentarz :kekw: Więc nie jestem w stanie ci nic wysłać. Drugi raz komentarza nie chce mi się pisać więc tylko napisze że projekt plus github i na githubie jest zawsze instrukcja co i jak.
Wspominałeś o pamięci VRAM, że jest tutaj istotna, w takim razie jak rozumiem lepiej jest kupić przy składaniu kompa RTX 3060 zamiast nowszej karty RTX 4060? Czy może RTX 4060 ma jakieś przewagi i finalnie lepiej będzie sobie radził z algorytmami AI? Z góry dzięki za odpowiedź, pozdrawiam! :)
Hmm... warto spróbować. Mam nadzieję, że moja 3060 w wersji 12GB sobie sprawnie poradzi:) Ale mam inne pytanie - czy znasz drogi Łukaszu jaki dodatek do takiego modelu, czy ogólnei jakiś ciekawy program, współpracujący z jakimś asystentem głosowym - tak aby mi takie AI odpowiedziało nei tylko tekstem, ale i odczytało go na głos. Albo ogólnie coś, co po prostu czyta teksty z ekranu na głos.
@@nihilistycznyateista oobabooga webgui plus dodatki. whisper do rozpoznawania mowy, elevenlabs do generowania audio (czytania tekstu). Elevenlabs jest płatny, ale są też jakieś darmowe odpowiedniki, szukaj tts (text to speech). Czy ogarniają język polski - nie mam pojęcia.
Co do programu Whisper Gui, to jaki język na wyjściu dostaniesz jeśli ustawisz na wejściu rozpoznawanie auto lub podasz jakiś język a odznaczysz j.angielski na wyjściu? Chodzi mi o to, że nie ma ten program opcji wyboru na jaki język ma być tłumaczony materiał. Tobie stworzył napisy pl przy pokazanym ustawieniu ale to jest transkrypcja a nie tłumaczenie. Z jakiego źródła pobierałeś program? W każdej z wersji na jaką trafiłem virustotal wykrył w pliku exe jakiegoś wirusa lub kilka sztuk. Są to fałszywe alerty? Z tego linka co podałeś w opisie też wykrył wirusy, sztuk 2.
15:57 Tymczasem w napisach "...nie mamy żadnego paska PODSTĘPU" Chociaż jak się "wsłuchać" w tym co mówisz faktycznie - nie wiadomo skąd - "okociła się" gratisowa litera D (jak wiadomo co, lub Danuta)
A co tam trzeba jeszcze ładować do pozostałych pól w programie koboldcpp np. pole lora itd? A jeśli w tym wypadku nic a czasem trzeba to w jakich wypadkach trzeba?
Cześć Zmaslo chciałbym zapytać czy była by możliwość abyś nagrał odcinek lub po prostu sprawdził ile zajmuje czasu generowanie tych obrazków na karcie K80?
Wszytko pięknie i ładnie, bajery, buzery itp. Wszyscy yutuberzy technologiczni i nie tylko opowiadają jakie to nie jest fajne, jakie to daje możliwości, jak to zrobić w domowym zaciszu. Ale jakoś nie widzę materiałów o negtywnych tego aspektach, a takowe niestyty są. I w miarę jak sztuczna inteligencja będzie rozwijana, implementowana w coraz większej ilości urządzeń i oprogramowaniu i stanie się nieodłączną częścią życia człowieka, dobrze byłoby, aby informować ludzi nie tylko o pozytywnych jak i o negatywnych cechach AI.
Tak, masz rację w zupełności, ale ten filmiki jest trochę nie o tym. Bo ten film ma pokazać jak to uruchomić u siebie i co można z tym zrobić, a nie mówię tu ogólnie o tym jakie pozytywy czy negatywy to niesie dla świata. To trochę tak jak z młotkiem można go użyć do wbijania gwoździ w swoich meblach albo wybić komuś szybę.
U mnie na 9900K z 6700XT NMKD obciąża tylko procesor, karta śpi a generowanie trwa wieki. Jak kliknie AI implementations - for AMD GPUs to nie mogę wtedy wybrać modelname - brak wyboru stablediffusion. Jak ten program ogarnać żeby generowało na 6700xt a nie na procku?
Pod Windows na AMD jest w chwili obecnej nie najlepiej, niby jest ten DIrectML od MS ale działa to bardzo słabo. Jak chcesz się pobawić w Stable Difusion na poważnie to polecam Linuksa, tam to działa znacznie lepiej, jego uruchomienie to zaledwie kilka krótkich poleceń. Nawiasem mówiąc polecam ComfyUI, do tworzenia obrazów, masz mnóstwo "workflow" od społeczności, a to znacznie ułatwia start.
Ja bym chciał AI działające w tle w Windowsie, monitorujące pracę systemu i wszystkie jego procesy, tak aby wykrywał i monitorował błędy, oraz pomagał lub rozwiązywał by problemy z działaniem systemu i aplikacji. Apka czy gra się wywala to AI informuje nas co to spowodowało i pyta czy rozwiązać problem oraz mówi jak to robi. Coś co pomaga optymalizować system lub może powiedzieć co zmienić w konfiguracji sprzętowej aby wyciągnąć jeszcze więcej z obecnego sprzętu ale żeby znało też granice, że np. RAM-u nie ma sensu więcej ładować albo mocniejsze GPU tu nic nie zmieni itp.
Ja od siebie mogę polecić RVC-GUI, który pozwala powiedzieć dowolną rzecz dowolnym głosem (prawie dowolnym głosem bo najpierw ktoś musi zrobić model RVC do tego głosu bo samemu trudno taki zrobić).
Teraz aż prosi się o sprawdzenie czy akceleratory graficzne (pokroju NVIDIA Tesla) są lepsze w dziedzinie AI od swoich odpowiedników skonstruowanych typowo do celów gamingowych. Oczywiście dla kart w podobnym przedziale cenowym i/lub rocznikiem wypustu.
ZMASLO trochę za wcześnie wykonałeś ten filmik, 2 dni temu został wypuszczony na światło dzienne projekt ZLUDA który pozwala uruchomić programy oparte o biblioteki cuda na kartach amd bez modyfikacji programu
Ten chat RTX będzie działać na plikach tekstowych czy tylko na tekście? Bo jeżeli na plikach to czuję potencjał do szybkiego tłumaczenia niektórych gier. Sam próbowałem tłumaczyć grę przy użyciu GPT i faktycznie nieźle szło ale ten non stop przerywał, gubił wątek lub zmieniał język na jakiś inny niezwiązany z tematem. Dodatkowo ilość linijek jakie może przerobić jest ograniczona. A jest model wyspecjalizowany w tłumaczeniu? Może wrócę do tłumaczenia? Niesiesz czy własne AI ma limit znaków do przyjęcia?
Z tego co rozmawiałem z inżynierami na CES to mówili o plikach tekstowych. Limit długości takiego pliku na pewno będzie bo póki co chyba każde Ai ma problem z bardzo dużą ilością tekstu. Myślę, że jeśli podzielić by teskt na kawałki może się udać taki proces. Trzeba poczekać aż wyjdzie i sprawdzić. Więcej o tym info w opisie!
Niezwykle ciekawy materiał, dzięki! Jeśli mogę coś polecić, to nie puszczaj na telewizorze za sobą filmików, bo rozpraszają. Sam kilka razy złapałem się na tym, że przestałem Cię słuchać, bo skupiłem się na driftach z tyłu :) Keep up the good work!
Ja gram w totolotka dzieki AI i powiem wam, ze zakup 4090 zwrocil sie szybciej niz myslalem! Teraz to juz czysty zarobek... Ciagle wakacje i bujanie noga. Aktualnie mam 6 4090 grajacych w w totka i inne tego typu gry. Nie ma tygodnia bez wygranej... I bynajmniej nie sa to 3jki... :)))
Hej zlaslo zaczalem sie bawic tym programem i probowalem pobrac jakies inne wersje zeby obrazki nie wygladaly tak zle i przy convertowaniu jest blad co to moze powodowac? NMKD stable diffiusion
No dobra, generowanie obrazków z tekstu, a co jeśli chcielibyśmy na czymś bazować załadować jakiś inny obrazek i go zmodyfikować lub wykorzystać twarze do edycji i modyfikacji i wrzuceniu w jakieś "nowe realia". Jak ma się sprawa generowania video?
StabilityMatrix ma wbudowane img2video, ale to bardziej gif a nie wideo. Repozytorium Fooocus dostępne w aplikacji pozwala na takie rzeczy związane z twarzą.
Dobrze że edukujesz ludzi, sam bawię się AI/ML od pól roku stablediffusion, whisper, xtts, wav2lip, xtts-webui, waifu-gui i masę innych, wszystko na gtx 1660S ;) bedę kupował 4070TIS. Niestety nvidia jak powiedziałeś góruje bezapelacyjnie w tym temacie. Co można wygenerować offline nie wygenerujesz online dużo ograniczeń i wszystko zostaje na ich serwerach.
Mam już pewne doświadczenie z tymi darmowymi czatami offline i jak do tej pory trafiam na samych imbecyli a nie na normalną AI. To zupełnie inny poziom jak np. czat AI online. Trudno jest uzyskać jakąkolwiek pomoc. Co z tego, że mogę offline gadać bez końca jak bot się zaplącze i w kółko to samo gada albo nie pamięta co napisał zdanie wcześniej. lub nie umie policzyć do 30 itd.
Cześć, Często wspominasz że "dzisiejszy odcinek sponsoruje firma..." jak to się odbywa? Ty piszesz do nich że chcesz zrobić coś a oni wysyłają Ci sprzęt? Może jakiś odcinek właśnie o kulisach nagrywania na RUclips w dziedzinie elektroniki? Np skąd bierzesz sprzęt? Czy musisz go oddać? Albo co musisz zrobić żeby go nie oddawać? Itp. Itd.
Zmaslo zajebisty programem do generowania obrazu stacjonarnie Easy Diffusion V3 bardzo rozbudowany i prosty w użyciu i interfejs przyjazny użytkownikowi
Cześć Łukasz masz może jakas rade na temat kodu 15. Złożyłem pc'ta i cały czas bootuje mi system do kodu 15 a potem działą normalnie ale jest tak za każdym razem :( Już nie wiem co mam robić, niby system chodzi ale długoooo sie odpala :( Mam asusa b650 e e do tego ramy dominator 2x16gb 6000mhz. Profil expo 1 nie pomaga, 2 tez nie w biosie :( Dzięki.
ja jako użytkownik gtx 1660ti powiem że da się odpalić stable diffusion tylko trzeba wpisać parametr startowy odpowiadający za pominięcie sprawdzania vram ale jaki on jest to nie powiem bo nie pamiętam
Jestem pod wrażeniem, jak to AI się rozwinęło przez tyle czasu. Na początku 2023 roku byłem do tego sceptycznie nastawiony, bo robił to... żle w większości sytuacji (a przynajmniej u mnie). A teraz nie dość, że to jest prostsze i lżejsze do generowania, to jeszcze wygląda to znacznie lepiej. Jak tylko będę miał czas, to zabawię się z tym raz jeszcze. :)
Nie wiem dlaczego w Stable Diffusion po przełączeniu na Ai Implementation na ONNX dla kart AMD, nie mogę wybrać żadnego z modeli. Próbowałem konwertować modele na różne sposoby, bez żadnego rezultatu. Jakieś pomysły?
Warto, ale pod ostatnim filmem gdzie tłumaczyłem instalację gia i pythona to miałem pół komentarzy w pytaniach bo coś komuś nie działało. Postawiłem więc na prostotę tym razem :D
Witam ponieważ nie znam się na komputerach to mam pytanko do ciebie czy płyta główna msi b85 g43 procesor Intel cor i5 4570 plus pamięć RAM ddr3 8gb Nada się do podstawowych gier typu ETS2 Roblox i tym podobnych Pozdrawiam serdecznie
Myślę, o tym żeby dodać jakieś benchmarki Ai przy GPU - to jest dziedzina która się rozwija i warto wiedzieć jak te karty wypadają. Czy to będzie A1111 nie zdecydowałem. W idealnym świecie chciałbym, żeby to było coś co zadziała na każdym GPU.
Odswiezalbym ten film co pół roku, mega ciekawy temat. Pewnie dużo nowych narzędzi powstanie.
O panie, dobry materiał. Chętnie się pobawię lokalnymi AI.
TYLKO NIE zmieniaj historii
Łukasz, więcej takich filmów o AI!!! Ogromnie szanuje za tego AI benchmarka. Wydaje mi się że nikt takiego testu na yt nie zrobił.
Ale sztos. Zaczęło się w zasadzie rok temu od publicznego chata gpt a do dzisiaj tyle tego powstało 😊😊😊😊😊
Zmaslo kiedy ten windows vista?
Do dwóch tygodni temat powinien być zamknięty - czekam jeszcze na dogrywki od innych twórców i jeszcze kilka testów zostało 😀
@@ZMASLO Powodzenia :D
W końcu @@ZMASLO
Zmaslo kiedy E8400?
@@AdrianKiel było i lepiej nie przypominać o tym temacie....
Bardzo bardzo bardzo bardzo fajny odcinek ❤❤❤❤
Wypowiem się na temat Stable Diffusion na karcie AMD (rx 6650xt 8GB) z wykorzystaniem Automatic1111. Windows kompletnie odpada jeżeli ktoś planuje się tym bawić, testowałem rozwiązania takie jak wtyczka directml do bazowej wersji Automatic1111 i działało to przeciętnie - 1.2it/s przy obrazku 512x512. Maksimum przy którym nie wywalało błędu o braku VRAMu to było jakieś 640x768, a dodatkowym zastrzeżeniem było tutaj trzymanie się danego wymiaru, który musiał być podzielny przez 64 bo inaczej się wysypywało, więc odpadał jakikolwiek niestandardowy refine obrazka, a w dodatku prompt musiał być ograniczony do rozmiaru 75 bo takie ograniczenia zostały nałożone i nie było szans tego ominąć. Warto tu także wymienić to że upscaling obrazka odbywał się nie z wykorzystaniem GPU, a obliczenia przenoszone były na CPU i trwało to czasem nawet kilka minut. Było też inne rozwiązanie do niedawna promowane na blogu AMD, czyli pobranie pewnej wersji A1111 ze wsparciem dla ONNX w połączeniu z DirectML ale działało to trochę inaczej i zdecydowanie gorzej niż directml jako extension do bazowego A1111. Oba te rozwiązania wymagały transformacji modelu na format ONNX. Pierwszy z nich operuje na unet a drugi bodajże na modelu w formacie ONNX z rozszerzeniem .ckpt. Więc dochodzi jeszcze odpowiednia umiejętność konwersji między formatami, optymalizacji tego itd... Generalnie sporo zabawy żeby to w ogóle zaczęło działać i nie jest to tego warte na Windows. Stwierdziłem w pewnym momencie że nie ma możliwości żebym się tak męczył, więc wydzieliłem odpowiedni rozmiar dysku na partycję z Ubuntu, pobrałem rocm według zaleceń AMD i po odpowiednich drobnych modyfikacjach (podmiana identyfikatora karty na wspierany przez rocm - rx 6800 xt oraz wyłączenie secure boota, który blokował wykorzystanie sterowników w systemie) wszystko działa jak marzenie - 3.6it/s przy obrazku 512x512, 4x upscaling w dosłownie kilka sekund. Różnica jest kolosalna, a w dodatku można korzystać z pełnej palety funkcjonalności A1111, a wykorzystanie VRAM nawet przy generowaniu obrazka 1024x1024 nie przekroczyło 6.2GB i ani razu nie miałem problemu ze stabilnością tego wszystkiego.
Powiem szczerze że nigdy nie miałem takich problemów chociaż mam karte NV i to może robić różnice, próbowałeś dodać parametry startowe ? jak --api --lowvram --always-batch-cond-uncond --xformers --no-half-vae ?
Fakt że na windowsie demonem szybkości może to nie jest ale 1m 30sec average 7.52s/it 1024x768 i 1024x1024 z refinerem i esgran x4 Hires (na karcie 1050TI 8GB 4+4shared) dla SD 1.5 / 2
Dla SDXL polecam Fooocus, działa na 4GB ram pod windowsem więc pod linuxem powinno jeszcze szybciej, czas podobny jak dla SD 1.5 przy 2048x2048.
Tak, testowałem wiele parametrów startowych, które były polecane na wielu subredditach właśnie dla osób wykorzystujących te metody uruchamiania tego konkretnego narzędzia (A1111) na kartach AMD. Najważniejszym problemem tutaj jest niestety brak obsługi CUDA dla kart od czerwonych (ich technologia pozwalająca obsłużyć narzędzia z niej korzystające działa jedynie pod Linuxem) i trzeba próbować obchodzić to naokoło właśnie przez włączenie obsługi zoptymalizowanych modeli pod rozwiązania Microsoftu i zabawę z tym na wielu płaszczyznach żeby to działało tak jak powinno, a i tak mi się to nie udało w pełni i większość zadań była przerzucana z GPU na CPU i dlatego to tak wolno działało w większości przypadków. Być może właśnie są jakieś narzędzia które lepiej sobie z tym radzą, lub mają jakieś rozwiązania które po prostu działają, ale na tamten moment, gdy jeszcze próbowałem z tym działać na Windows, nie byłem w stanie znaleźć niczego sensownego na forach, a po przerzuceniu się na rocm widzę diametralną różnice w prędkości oraz stabilności, więc to jest jedyne rozwiązanie które poleciłbym komuś z układami od AMD. Szczerze mówiąc miałem do niedawna 1050 ti 4GB i kiedyś próbowałem generować za pomocą Stable Diffusion. W porównaniu do AMD karty NV działają od strzała i nic więcej nie trzeba robić, wystarczy mieć tylko narzędzie, model, wystarczająco VRAM i dobre parametry startowe. Nie wiem czy korzystałem z dzielonej pamięci, aby mieć dostęp do generowania czegoś większego, ale raczej nie, bo dość szybko docierałem do limitu pamięci. Zdecydowanie obczaję sobie tego Fooocus-a, ciekawe jakby to mogło działać z rocm. @@ephionis
WIęcej, więcej, więcej tego contentu!
Jestem głównym informatykiem w średniej fabryce i gpt dużo mi pomaga. Piszę budżety, odpowiada na e-maile, odpowiada na pytania odnośnie sieci, środowiska serwerowego, itp. Chętnie przetestuję to na swojej lokalnej maszynie :)
Przetestuje, dzięki za wspaniały materiał, zmaślok :D
Dzięki za filmik. Nie wiedziałem, że jest to możliwe, a teraz na pewno skorzystam! 😃
1. można połączyć kilka komputerów aby generować na jednym, szybciej i lepiej?
2. Czy są modele pracujące tylko na CPU + j.w. czyli połączenie kilku dla szybszego/lepszego efektu?
to jest pierwszy taki typ bez neta wiec tylko na karcie od nvidi
Powiadasz, że na starszym kompie idzie pogadać na czasie GPT? U mnie koboldcpp się zamyka gdy ładuję większość modeli. Mam Win 10, procesor Intel Xeon E3-1246 v3, grafikę GF RTX 2060 super. Mógłbyś zrobić jakiś film który szerzej by omawiał ten program? Jest tam trochę do ustawiania i może o czymś istotnym nie wspomniałeś w tym filmie? Zauważyłem np, że część modeli działa ale tylko jak ustawię dla grafiki presety Vulkan w nazwie. Pozostałe presety nie działają a program się zamyka natychmiast po kliknięciu w launch. A może trzeba dobrać odpowiedni model? Jest tych oznaczeń modeli co nie miara i trudno się w tym połapać. Wiem tylko, że im wyższa cyferka przy q tym mocniejszy sprzęt potrzebny. Tylko nie każdy model ma podaną literkę q. Te modele które działają, to akurat nie trafiłem na taki z językiem polskim. Bywa, że zamiast odpowiadać sypią jakimiś tekstami zupełnie haotycznymi, wygląda to czasem jak podsumowanie naszej rozmowy podane w dwóch językach plus znaki specjalne.
Albo bot się zapętli i odpowiada niemal to samo tylko w różnych konfiguracjach, choć moje pytania są już inne. Zupełnie inaczej to wygląda jak np. na stronie czatkropkaai.
Jestem czynnym programistą i powiem Wam, że z jednej strony cieszę się na to jak rozwijają się narzędzia oparte o sieci neuronowe, z drugiej strony tempo tego rozwoju trochę mnie przeraża :D
ja chciałem zostać grafikiem i zacząłem coś robić w tym kierunku, nagle pojawiło się AI. Po prostu skaczę z radości na widok tego, że za kilka lat AI będzie generować lepsze obrazy niż ludzie i będę skazany na pracę w biedronce xD
@@HeadHunter-cu7yw Taki sam los czeka większość programistów, ale też większość zawodów .
@@tomaszstaron1233 zajebiście
@@tomaszstaron1233 tu się nie zgodzę. To nadal chatboty. Testowałem je wielokrotnie i dalekie są choćby umiejętności mida. Są dobrym narzędziem wspomagającym ale programisty nie zastąpią przez jeszcze parę ładnych lat :)
NMKD Stable Diffusion - nie ma już wersji z modelami. Ściągnąłem kilka dni temu, jest 3GB plik, ale modeli brak, inni też ściągali i też nie mają.
WhisperGUI świetne, na pewno kiedyś tego użyję jak już będę po remoncie w domu i wezmę się za hobby (yt/stream/gry/tech etc) - mam nadzieję znaleźć też podobny soft ale działający w czasie rzeczywistym. Stability Matrix i NMKD Stable Diffusion świetnie nadadzą się do prostych projektów, w sumie to nawet na steamie używam profilowych zdjęć które generowały AI.
Zobacz program SpeechTranslate1.3.10 oparty też na whisperze i ma funkcję czasu rzeczywistego.
Bawię się w generowanie obrazków - WOW. RTX 4090 można spoko wykorzystać do generowania naprawdę dobrej jakości obrazów i maks co mi zajmuje na obrazek to 23 sekundy
Ciekawa sprawa z tym odczytywaniem plików. Fajnie by było jakby była możłiwość wrzucenia ustaw naszego prawa i zadawać mu pytania i żeby odpowiadał na podstawie tych ustaw ze wskazaniem źródeł :D
LMstudio też służy do lokalnego uruchamiania LLM i pod czatem wyświetla benchmark w tokenach na sekundę. U mnie aktualnie: od 0,6tok/s na modelu 72B Q5 (największy jaki udało mi się odpalić, zajmuje 56GB RAMu) do 3tok/s przy trochę mniejszych modelach. Wszystko to na GTX1050Ti 4GB, Ryzen 3600, 64GB RAMu, z offloadingiem 1 warstwy do GPU i kontekstem ustawionym zawsze na domyślne 2048.
Uuuu to już konkretny model odpaliłeś :D
Pięknie dziękuję. Fajnie objaśniłeś temat dla lajkoników. 👍
Miłego wieczoru!
Jak generujesz napisy używając AI to musisz popracować nad dykcją. Bo potem masz taki kwiatek jak: "usług w murze". W 2:44
Dziękuję za świetny, wartościowy film!
Super materiał! Dzięki! :)
@ZMASLO 15:02 folder "płyta z PS5" i "film ps5.mp4" czyżby się szykował nowy odcinek o ps5😏
Nie, to był stary filmik, dokładnie ten: ruclips.net/video/HsENsKcF-6Y/видео.html
@@ZMASLO a szkoda myślałem że jakiś mini projekcik taki pc mini do gier
Wiecie może, czy istnieje już jakiś program A.I do tłumaczenia z automatu MANG na polski ??
🤩czyli już wiem, że weekend zleci na próbie uruchomienia tego na VM z VGA passthrough na Linuxie w piwnicy...no Dzięki😅
Ja w pewnym sensie wykorzystuję lokalną sieć neuronową w postaci dodatku o nazwie... kurde nie pamiętam... w każdym razie dodatek do OBSa, współpracujący z osprzetem Elgato, a wchoidzacy w skład sterownika nVidia Studio i działający jedynie na kartach RTX. Co on daje? Otóż teoretycznie jakieś baery z dźwiękiem (ale nie mam mikrofonu od elgato), do czego ja go nie używam, ale przede wszystkim za pomoca algorytmów sieci neuronowych usuwa tło w bardzo skuteczny i dokładny sposób. Ptrymitywna wersja czegoś takiego jest wam pewnie znana z jakiegoś zooma, czy czegoś w tym styuku, ale to nie zawsze działa dobrze, czasami dziwnie ucina kawał głowy, czy podmienia część ubrania - a u mnie działą idelnie tak, jakbym miał green screena za plecami, co znacznie pomaga mi w prowadzeniu streamów, czy nagrywaniu treści na kanał, gdzie potrzebuję wrzucić siebie z czymś w tle. Wymaga jednak dobrego światła, ale nie jakiegoś wybitnego - u mnei to nawet nie jest profesjonalny softbox, a zwykła lapma z IKEI, z tym, ze z dużo mocniejszą żarówką ledową (bodajże 14,5W). Da sie bawić ustawieniami, ale ja jestem laikiem i mam po prostu ustawioną wysoką jakość a reszta domyślnie.
Używam już od dłuższego czasu stable diffiusion i powiem że mój model "wyuczył się" robić zajebiste cyberpunkowe i kosmiczne obrazy
Jedno z takich obrazów nam na profilowym na steam
Ciekawy film. Masz ode mnie suba. 👍
Siemka, zainteresuj się burn w RUST, bazują na webgpu które tłumaczy na VULKAN, METAL czy Dirext12 np. Ogólnie biblioteka na razie w fazie alpha ale wiele rzeczy już działa naprawdę świetnie.
Jest to co prawda coś na zasadzie PyTorch czyli służy naukowcom czy devom, ale mogę ci coś wyskrobać na testy początkowo pod linux'a a przy większej chęci na Window'a, choć osobiście nie mam tego systemu w domu, korzystam tylko z Linux'a na co dzień do pracy i Mac'a rekreacyjnie.
PS GUI przyszłościowo tez była by szansa pod benchmark ogarnąć w Tauri np. A w sumie rozwijając myśl co daje biblioteka burn w porównaniu do pytorch na której to bazuje niemal wszystko to to że zbudowany model od 0 można puścić na CPU, GPU
Hej, czy podlinkujesz jakiś guide jak zainstalować na linux któreś z tych usług o których mówi Łukasz w klipie? Używam Minta 21.2.
@@piotrgo9939 Niestety linki nie przechodzą albo Łukasz usunął mój komentarz :kekw: Więc nie jestem w stanie ci nic wysłać. Drugi raz komentarza nie chce mi się pisać więc tylko napisze że projekt plus github i na githubie jest zawsze instrukcja co i jak.
fajną masz pasje, dzięki że sie nią dzielisz, super kanał :)
Nie mogę się doczekać kiedy będzie retro, komp ze śmietnika czy vista ;)
Wspominałeś o pamięci VRAM, że jest tutaj istotna, w takim razie jak rozumiem lepiej jest kupić przy składaniu kompa RTX 3060 zamiast nowszej karty RTX 4060? Czy może RTX 4060 ma jakieś przewagi i finalnie lepiej będzie sobie radził z algorytmami AI? Z góry dzięki za odpowiedź, pozdrawiam! :)
poprosił bym o instrukcje z kobold bo ta strona jest chaotyczna, instrukcje nie jasne. błądzę i błądzę i cholera wie czy dobrze robie
Hmm... warto spróbować. Mam nadzieję, że moja 3060 w wersji 12GB sobie sprawnie poradzi:)
Ale mam inne pytanie - czy znasz drogi Łukaszu jaki dodatek do takiego modelu, czy ogólnei jakiś ciekawy program, współpracujący z jakimś asystentem głosowym - tak aby mi takie AI odpowiedziało nei tylko tekstem, ale i odczytało go na głos. Albo ogólnie coś, co po prostu czyta teksty z ekranu na głos.
Raczej będzie ciężko
@@davydgorski5051 nie musi być lekko, byle działało
@@nihilistycznyateista oobabooga webgui plus dodatki. whisper do rozpoznawania mowy, elevenlabs do generowania audio (czytania tekstu). Elevenlabs jest płatny, ale są też jakieś darmowe odpowiedniki, szukaj tts (text to speech). Czy ogarniają język polski - nie mam pojęcia.
@ZMASLO pytanie jak uważasz ma to sens na rx580?
Mam rx590 i nie polecam. Zastanawiam się nad 4060 Ti 16GB żeby lepsze modele załadować. Na AMD więcej kombinowania i wydajnościowo kiepsko.
@@Mariousz1 no zauważyłem i podobne podejście mam teraz
Co do programu Whisper Gui, to jaki język na wyjściu dostaniesz jeśli ustawisz na wejściu rozpoznawanie auto lub podasz jakiś język a odznaczysz j.angielski na wyjściu?
Chodzi mi o to, że nie ma ten program opcji wyboru na jaki język ma być tłumaczony materiał. Tobie stworzył napisy pl przy pokazanym ustawieniu ale to jest transkrypcja a nie tłumaczenie. Z jakiego źródła pobierałeś program? W każdej z wersji na jaką trafiłem virustotal wykrył w pliku exe jakiegoś wirusa lub kilka sztuk. Są to fałszywe alerty?
Z tego linka co podałeś w opisie też wykrył wirusy, sztuk 2.
15:57 Tymczasem w napisach "...nie mamy żadnego paska PODSTĘPU" Chociaż jak się "wsłuchać" w tym co mówisz faktycznie - nie wiadomo skąd - "okociła się" gratisowa litera D (jak wiadomo co, lub Danuta)
A co tam trzeba jeszcze ładować do pozostałych pól w programie koboldcpp np. pole lora itd? A jeśli w tym wypadku nic a czasem trzeba to w jakich wypadkach trzeba?
Cześć Zmaslo chciałbym zapytać czy była by możliwość abyś nagrał odcinek lub po prostu sprawdził ile zajmuje czasu generowanie tych obrazków na karcie K80?
Wszytko pięknie i ładnie, bajery, buzery itp. Wszyscy yutuberzy technologiczni i nie tylko opowiadają jakie to nie jest fajne, jakie to daje możliwości, jak to zrobić w domowym zaciszu. Ale jakoś nie widzę materiałów o negtywnych tego aspektach, a takowe niestyty są. I w miarę jak sztuczna inteligencja będzie rozwijana, implementowana w coraz większej ilości urządzeń i oprogramowaniu i stanie się nieodłączną częścią życia człowieka, dobrze byłoby, aby informować ludzi nie tylko o pozytywnych jak i o negatywnych cechach AI.
Tak, masz rację w zupełności, ale ten filmiki jest trochę nie o tym. Bo ten film ma pokazać jak to uruchomić u siebie i co można z tym zrobić, a nie mówię tu ogólnie o tym jakie pozytywy czy negatywy to niesie dla świata. To trochę tak jak z młotkiem można go użyć do wbijania gwoździ w swoich meblach albo wybić komuś szybę.
U mnie na 9900K z 6700XT NMKD obciąża tylko procesor, karta śpi a generowanie trwa wieki. Jak kliknie AI implementations - for AMD GPUs to nie mogę wtedy wybrać modelname - brak wyboru stablediffusion. Jak ten program ogarnać żeby generowało na 6700xt a nie na procku?
Pod Windows na AMD jest w chwili obecnej nie najlepiej, niby jest ten DIrectML od MS ale działa to bardzo słabo. Jak chcesz się pobawić w Stable Difusion na poważnie to polecam Linuksa, tam to działa znacznie lepiej, jego uruchomienie to zaledwie kilka krótkich poleceń. Nawiasem mówiąc polecam ComfyUI, do tworzenia obrazów, masz mnóstwo "workflow" od społeczności, a to znacznie ułatwia start.
Ja bym chciał AI działające w tle w Windowsie, monitorujące pracę systemu i wszystkie jego procesy, tak aby wykrywał i monitorował błędy, oraz pomagał lub rozwiązywał by problemy z działaniem systemu i aplikacji. Apka czy gra się wywala to AI informuje nas co to spowodowało i pyta czy rozwiązać problem oraz mówi jak to robi. Coś co pomaga optymalizować system lub może powiedzieć co zmienić w konfiguracji sprzętowej aby wyciągnąć jeszcze więcej z obecnego sprzętu ale żeby znało też granice, że np. RAM-u nie ma sensu więcej ładować albo mocniejsze GPU tu nic nie zmieni itp.
Ja od siebie mogę polecić RVC-GUI, który pozwala powiedzieć dowolną rzecz dowolnym głosem (prawie dowolnym głosem bo najpierw ktoś musi zrobić model RVC do tego głosu bo samemu trudno taki zrobić).
fajny t-shirt, też chcę :P
Zmaslo, daj poradnik jak i jakich programów można użyć do rozbierania panienek!
Żadnych. Wystarczy dobra bajera (albo gruby portfel).
Super materiał, dzięki!
zrobisz taki poradnik ale na macOS ?
Teraz aż prosi się o sprawdzenie czy akceleratory graficzne (pokroju NVIDIA Tesla) są lepsze w dziedzinie AI od swoich odpowiedników skonstruowanych typowo do celów gamingowych. Oczywiście dla kart w podobnym przedziale cenowym i/lub rocznikiem wypustu.
Może w przyszłości jakiś materiał o home lab serwerze pod AI?
Witaj. Dzięki za ten film. Czy znasz może "podobne" programy Ai do tworzenia prostych animacji? Pozdrawiam.
Od kilku tygodni twoi widzowie czekają na film z linux gentoo
Ooo, stary. Właśnie ostatnio szukałem czegoś o takiej tematyce.
Zmaslo ja chce taką koszulkę , skąd masz.
Wiesz może jak zrobić dual boot na rog ally asus?😅
ZMASLO trochę za wcześnie wykonałeś ten filmik, 2 dni temu został wypuszczony na światło dzienne projekt ZLUDA który pozwala uruchomić programy oparte o biblioteki cuda na kartach amd bez modyfikacji programu
Jak uruchomić stable diffusion na Debianie? Mam kartę AMD i co nie zrobię to torch się pluje że nie może użyć karty graficznej
Jaki masz model karty graficznej?
@@raven1439 AMD 7900 XT, ale chyba wiem w czym leżał problem. Próbowałem uruchomić na Pythonie 3.11 a musi być 3.10 żeby Torch działał.
Ten chat RTX będzie działać na plikach tekstowych czy tylko na tekście? Bo jeżeli na plikach to czuję potencjał do szybkiego tłumaczenia niektórych gier. Sam próbowałem tłumaczyć grę przy użyciu GPT i faktycznie nieźle szło ale ten non stop przerywał, gubił wątek lub zmieniał język na jakiś inny niezwiązany z tematem. Dodatkowo ilość linijek jakie może przerobić jest ograniczona. A jest model wyspecjalizowany w tłumaczeniu? Może wrócę do tłumaczenia? Niesiesz czy własne AI ma limit znaków do przyjęcia?
Z tego co rozmawiałem z inżynierami na CES to mówili o plikach tekstowych. Limit długości takiego pliku na pewno będzie bo póki co chyba każde Ai ma problem z bardzo dużą ilością tekstu. Myślę, że jeśli podzielić by teskt na kawałki może się udać taki proces. Trzeba poczekać aż wyjdzie i sprawdzić. Więcej o tym info w opisie!
@@ZMASLO I tak daje to szansę na wiarę łatwe i szybkie tłumaczenie gier które normalnie by tłumaczenia się nigdy nie doczekały. 👍
@@BRX_2137Świetna sprawa 😊
Jak wrzucić bazę danych do tego Cobolt? Da radę nauczyć go obsługi strony i zarządzanie sklepem?
1:55 już cue club miało bardziej zaawansowane ai gra o bilardzie z wirtualnym czatem z komputerem było bardziej zaawasnowane z roku 2000
Siema zmaslo mam pytanie zrobisz jeszcze film o hackintoshu a konkretnie czy to się opłaca?
Niezwykle ciekawy materiał, dzięki! Jeśli mogę coś polecić, to nie puszczaj na telewizorze za sobą filmików, bo rozpraszają. Sam kilka razy złapałem się na tym, że przestałem Cię słuchać, bo skupiłem się na driftach z tyłu :) Keep up the good work!
Ja gram w totolotka dzieki AI i powiem wam, ze zakup 4090 zwrocil sie szybciej niz myslalem! Teraz to juz czysty zarobek... Ciagle wakacje i bujanie noga. Aktualnie mam 6 4090 grajacych w w totka i inne tego typu gry. Nie ma tygodnia bez wygranej... I bynajmniej nie sa to 3jki... :)))
ciekawe :D
wow nie wiedzialem ze AI to wrozka i przepowiada liczby 🤣🤣🤣
Jak się nazywa ten model Ai który potrafi wygenerować te klucze?
Super materiał
Mega, osiagnales mega fajny poziom, jestem zachwycony, mozesz mi podlinkowac twojego githuba na priv ?
Hej zlaslo zaczalem sie bawic tym programem i probowalem pobrac jakies inne wersje zeby obrazki nie wygladaly tak zle i przy convertowaniu jest blad co to moze powodowac? NMKD stable diffiusion
Czy w programie Whisper GUI wygenerowanie napisów pl do filmu z j. angielskim da taki sam efekt, czy lepszy jak napisy generowane na youtube ?
O niebo lepszy
@@sebastianstec Na win 7 wywala błąd i się nawet nie uruchamia.
No dobra, generowanie obrazków z tekstu, a co jeśli chcielibyśmy na czymś bazować załadować jakiś inny obrazek i go zmodyfikować lub wykorzystać twarze do edycji i modyfikacji i wrzuceniu w jakieś "nowe realia". Jak ma się sprawa generowania video?
StabilityMatrix ma wbudowane img2video, ale to bardziej gif a nie wideo. Repozytorium Fooocus dostępne w aplikacji pozwala na takie rzeczy związane z twarzą.
Dobrze że edukujesz ludzi, sam bawię się AI/ML od pól roku stablediffusion, whisper, xtts, wav2lip, xtts-webui, waifu-gui i masę innych, wszystko na gtx 1660S ;) bedę kupował 4070TIS. Niestety nvidia jak powiedziałeś góruje bezapelacyjnie w tym temacie. Co można wygenerować offline nie wygenerujesz online dużo ograniczeń i wszystko zostaje na ich serwerach.
Polecacie jakiś model do KoboldCpp przeznaczony do tłumaczenia tekstu z/na angielski?
Mam już pewne doświadczenie z tymi darmowymi czatami offline i jak do tej pory trafiam na samych imbecyli a nie na normalną AI. To zupełnie inny poziom jak np. czat AI online. Trudno jest uzyskać jakąkolwiek pomoc. Co z tego, że mogę offline gadać bez końca jak bot się zaplącze i w kółko to samo gada albo nie pamięta co napisał zdanie wcześniej. lub nie umie policzyć do 30 itd.
nie działa mi instalacja modeli, przy każdym mam że jest niekompletny
a nie powiedziałeś o jan ai i w sumie możesz zrobić odcinek ze storny do szukania modeli ai
Czy można taki czat szkolić ? Bardzo proszę od odpowiedz .
Chętnie przejrzy historię Twojego przeglądania
Mam paręnaście kart po koparkach można coś z tego ciekawego stworzyć ?
Cześć,
Często wspominasz że "dzisiejszy odcinek sponsoruje firma..." jak to się odbywa? Ty piszesz do nich że chcesz zrobić coś a oni wysyłają Ci sprzęt?
Może jakiś odcinek właśnie o kulisach nagrywania na RUclips w dziedzinie elektroniki?
Np skąd bierzesz sprzęt?
Czy musisz go oddać?
Albo co musisz zrobić żeby go nie oddawać?
Itp. Itd.
A NV Tesla K80 24GB VRAM się nada?
Mam 3 sztuki w maszynach do Boinc.
Hej zmaslo kiedy kolejne gotowanie na karcie graficznej?
Zmaslo zajebisty programem do generowania obrazu stacjonarnie Easy Diffusion V3 bardzo rozbudowany i prosty w użyciu i interfejs przyjazny użytkownikowi
Cześć Łukasz masz może jakas rade na temat kodu 15. Złożyłem pc'ta i cały czas bootuje mi system do kodu 15 a potem działą normalnie ale jest tak za każdym razem :( Już nie wiem co mam robić, niby system chodzi ale długoooo sie odpala :( Mam asusa b650 e e do tego ramy dominator 2x16gb 6000mhz. Profil expo 1 nie pomaga, 2 tez nie w biosie :(
Dzięki.
@zmaslo @8:42 podasz linki gdzie mozna pograc modele?
Proszę: civitai.com/models
Dzieki. pobrałem i wywala mi failed convert, a jak pobralem inny to pobralo mi gdzies 50gb i nie mam tego na liscie programu
ja jako użytkownik gtx 1660ti powiem że da się odpalić stable diffusion tylko trzeba wpisać parametr startowy odpowiadający za pominięcie sprawdzania vram ale jaki on jest to nie powiem bo nie pamiętam
nic nie zmieniałem a na 1060 działa doskonale :)
@@marcindj3411 a bo to różnie bywa ja musiałem pominąć sprawdzanie vram nwm jak na dzisiejszy dzień to wyglada
bardzo dobry odcinek🙂😉👍
Cześć skąd pobrać tego dreamshapera?
Jestem pod wrażeniem, jak to AI się rozwinęło przez tyle czasu. Na początku 2023 roku byłem do tego sceptycznie nastawiony, bo robił to... żle w większości sytuacji (a przynajmniej u mnie). A teraz nie dość, że to jest prostsze i lżejsze do generowania, to jeszcze wygląda to znacznie lepiej. Jak tylko będę miał czas, to zabawię się z tym raz jeszcze. :)
Nie wiem dlaczego w Stable Diffusion po przełączeniu na Ai Implementation na ONNX dla kart AMD, nie mogę wybrać żadnego z modeli. Próbowałem konwertować modele na różne sposoby, bez żadnego rezultatu.
Jakieś pomysły?
Mam to samo, rozwiązałeś problem?
Nie musimy instalować Pythona, ale warto! :-) Warto uczyć się programowania! :)
Warto, ale pod ostatnim filmem gdzie tłumaczyłem instalację gia i pythona to miałem pół komentarzy w pytaniach bo coś komuś nie działało. Postawiłem więc na prostotę tym razem :D
@@ZMASLO Mówisz o tym stable diffusion? Zaraz tam zerknę, jeśli ktoś jeszcze ma problem to chętnie pomogę ;)
Witam ponieważ nie znam się na komputerach to mam pytanko do ciebie czy płyta główna msi b85 g43 procesor Intel cor i5 4570 plus pamięć RAM ddr3 8gb Nada się do podstawowych gier typu ETS2 Roblox i tym podobnych Pozdrawiam serdecznie
czemu nie działa konwertowanie innych modeli poza dreamshaper?
Na bank jest lepsze od paździerza od Google... Gemini np nie widzi różnicy międz stalinizmem a wegetarianizmem czy patriarchatem.
Będzie 200k special?
Czy są jakieś bazy danych którymi uczymi i aktualizujemy to AI?
Jaka to dokładnie karta graficzna z nvidia rtx 4070 fe?
Co myślisz o języku RUST ma to przyszłość?
Zrobisz pełny film o windows server? 🖥
Czy będzie nauka o chacie gpt i innych tego typu programach?😅
o ile dobrze pamiętam, to 1660 Super ma 6GB VRAM'u a nie 8GB
Skoro i tak masz automatic1111 to może możesz dodać tabelkę przy recenzjach dla wybranego przez siebie obrazka w 512x512 i 1024x1024? :)
Myślę, o tym żeby dodać jakieś benchmarki Ai przy GPU - to jest dziedzina która się rozwija i warto wiedzieć jak te karty wypadają. Czy to będzie A1111 nie zdecydowałem. W idealnym świecie chciałbym, żeby to było coś co zadziała na każdym GPU.