Co ty Zmaslo sprawdzałem i na NVIDIA i na Radku , jeden pieron kwestia neta i pingu, a postawiłem to na na poprzedniej gen CPU Intela i GPU enki i Radka!!!!!
12:55 - do obrazka 1024x1024, a nawet 1280x1280 na tym WebUI wystaczy spokojnie 8gb pamięci VRAM - po prostu nie wszystkie dane naraz są wtedy tam przenoszone. Trwa to trochę dłużej, ale działa.
Spoko zabawka. W momencie gdy te obrazki będą ogólnie dostępne w najwyższej jakości wielu grafików będzie miało ułatwioną pracę - nie sądzę aby to zastąpiło profesjonalistę. Człowiek poprawi sieć neuronową i praca szybka oraz przyjemna wykonana. Można się zarejestrować na dall-e 2 i czekać w kolejce, może uda się na dostęp do mocniejszego narzędzie. 😉
Idealne narzędzie do szukania inspiracji np. projektu loga, Na bazie najlepszych wygenerowanych obrazów możemy dac artyście do zrobienia konkretne działo. Zdecydowanie łatwiej będzie na przykładzie pokazać co mamy na myśli (mniej więcej)
Niektórzy zrobili z tego niezły użytek - na kanale Marcin Strzyżewski od paru miesięcy miniaturki są robione przez AI. Nie wiem, czy ktoś je później obrabia, ale zdecydowanie widać jak dobrze wpływa to na jakość.
Odpowiedz na pytanie zadane na poczatku filmu: Mysle, ze sie spozniles bo juz sporo o tym filmikow. Ja osobiscie uzywalem tego przez discorda, spoko rozkmina.
Małe sprostowanie Dall-e 2 jest dostępne szerokiej publice, należy jednak się zalogować i miesięcznie mamy możliwość wygenerować jakaś ilość obrazków. Innym podobnym oprogramowaniem działającym na discordzie jest midjourney
Zmaslo mam pytanko na repo modeli Stable diffusion są 2 paczki - jedna 4GB o której mowiles i druga 7Gb - one się czymś róznią? może lepiej pobrać tą większą?
Dwóch kolegów w klasie zrobiło kolaż (chyba to jest z tej kategorii) na j. polski żeby zobrazować przebieg "Świtezianki" A. Mickiewicza bardzo fajnie im to wyszło
To zależy od twojego sprzętu, podam przykład na podstawie mojej karty graficznej i podstawowych ustawien które generują już całkiem niezłe obrazy: fork użytkownika AUTOMATIC1111 (ten sam którego używa zmaslo) karta graficzna: RTX 3060ti 8GB sampling steps: 20 sampler: euler a rozdzielczość: 512x512 1 obraz generuje się ok. 3 sekund
Próbowałem (Komp nie Mój) i mi nie wyszło (15:31 - Jak zainstalować Stable Diffusion na PC?) . Jakbyś mógł zrobić jakiś dokładny Tutorial, jak to ma dokładnie wyglądać od A. do Z. (Wytłumaczyć jak dla chłopa łopatologicznie.) [THX!]
Hhehe, interesuję się tematem, bawiłem sie dalle e2 jak jeszcze była era zapisów. Wygenerowałem sobie np. "Dobry Jezu a na szpanie" używając oczywiście swoich metod opisu w języku angielskim. A końcowe pytanie- czy nie wygryzie artystów. To już się podobno zaczęło. Czytałem artykuł, gdzie była opisana sytauacja w której "artysta" zdobył pierwsze miejsce w konkursie posługując się właśnie którymś z wymienionych systemów jedynie lekko poprawiając sztucznie wygenerowany obraz. I był dylemat.
Cześć masz jakiś pomysł dlaczego po zainstalowaniu pythona 3.10 dalej nie działa wyskakuje mi taki błąd: Creating venv in directory venv using python "C:\Users\...........\AppData\Local\Programs\Python\Python311\python.exe" Unable to create venv in directory venv exit code: 3 stderr: System nie może odnaleźć określonej ścieżki. Launch unsuccessful. Exiting. Press any key to continue . . . przy instalacji pokazywało tą ścieżkę na górze i jak sprawdziłem nie ma go tam a pobrałem na 100% Jakieś pomysły
Jakiś czas temu wyszła afera że ktoś za pomocą sztucznej inteligencji stworzył jakiś rysunek który był wzorowany na Live jakieś artysty i wydał go szybciej niż dany artysta. Oba rysuku są mega do siebie podobne ale jednak org. ma dużo więcej szczegółów i mniej błędów graficznych.
MidJurneybot na discordzie na specjalnym serwie robi to samo i ma dużo większą moc niż ta którą możemy w domu osiągnąć. Generuje grafiki w wysokich rozdzielczościach - też mozna sie pobawic i nie trzeba mocnego kompa
Uzywales tego w trybie offline? Zeby nie bylo, ze pobiera jakies dane z baz danych online. Jakos nie chce mi sie wierzyc, ze to AI wie jak wyglada kapibara, konkretny tron z serialu albo kto to zmaslo.
Tak, po pierwszej konfiguracji działa to w 100% offline. Za to właśnie jest odpowiedzialny model Stable Diffusion, który jest w stanie te obrazy wygenerować 😉 Sam model waży około 4GB jak mówiłem. I model nie wie kto to zmaslo, tylko był w stanie ogarnąć "polish youtuber".
@@ZMASLO I to tylko przypadek, ze jakies podobienstwo bylo (okulary, czarne wlosy)? Jak to naprawde dziala 100% offline to robi sie ciekawie - do tej pory mialem wrazenie, ze te wyniki (wlasne proby) to jakies prace poczatkujacego photoshopera i zabawy z roznymi filtrami.
@@ferdynand40 Stable diffusion AI było uczone na bazie publicznych obrazków z google/artstation itd (2,3 billiona z tego co pamiętam) najbardziej popularnym artystą którego praca została można powiedzieć skradziona jest Greg Rutkowski, ktoś może powiedzieć ze to kopiuje tylko styl danego artysty ale prawda jest taka że to AI bierze fragmenty z masy zdjęć i skleja w całość (czasami nawet generuje z podpisem XD). W sieci jest już głośno bo artyści nie wydali zgody na używanie ich prac, wiec pewnie w przyszłości skończy się to prawnie i nie tylko z SD bo jest kilka modeli AI.
Mało jeszcze wiesz,😆 jak chcesz generować sceny erotyczne lub z broniom wystarczy że weźmiesz wersję Novel ai a nie zwykłą i nie masz żadnych ograniczeń a i same efekty bywają lepsze. Minus ai zacznie generować anime.
Ja tam wolę Midjourney. Działa na każdym kompie przez Discorda. Można generować sobie dowolną ilość grafik w wysokiej rozdzielczości. Teoretycznie ilość grafik które można wygenerować jest ograniczona ale za to można sobie zakładać na Discord nieograniczoną ilość kont 🙃. Ciekawy efekt daje "Mahomet w pralce na pustyni" albo "Putin całujący się z Wołodymyrem Zełenskim".
Ja zdążyłem wygenerować Minionki pod Stalingradem z 20 razy, Ryuko Matoi w średniowiecznej Japonii z 50 i ze 200 razy Alitę i wniosek mam taki, że działa tu zasada Pareto. AI wygeneruje niezły obrazek, ale, żeby go dopieścić trzeba włożyć w to niewspółmiernie dużo. Ewentualnie ja jestem idiotą. PS. Próbowałem też wygenerować Chwiczę Kwaracchelię, gruzińskiego piłkarza Napoli...i AI nie wie kto to k***a jest, tak więc limitem na pewno jest baza danych na jakiej operuje AI.
Powiedz mi, Twoim zdaniem czym kapibara miała trzymać miecz świetlny ? Jeżeli zaskoczyło Cię że w pysku lub kończyną? Gdyby trzymała skrzydłami wtedy powiedziałbyś co ? eeee normalka ;)
Trzy minuty oczekiwania na render na procesorze, hehe . Kurde, przypomnialem sobie, jak na Amidze w programie Real 3D, czekalo sie kilkanascie godzin, zeby wyrenderowac szklana kule z oswietleniem i cieniami.
Po pierwsze mogles uzyc difusion model 1.5 a nie 1.4 ... dlatego masz problem z generowaniem nagosci lub broni ;) ... 1.5 sobie radzi duzo lepiej.... mozez na 1.5 spokojnie porno generowac ;D Po 2 trzeba bylo uzyc przynajmniej 100 przbiegow .. ja daje na 150 i obrazki sa duzo lepsze w mojej opini ... domyslne przzebiegi 20--30 sa duzo gorsze. Nie dodales tez modelu do poprawiana twazy. Na mojej RTX 360ti mam 7.5 obrazka na sekunde ...
To ciekawe bo na huggingface nie widziałem wersji 1.5 póki co, inne nieoficjalne modele pomijałem bo słyszałem, że zbyt dużo anime generują. Co do ilości przebiegów na tym co ja sprawdzałem nie było specjalnej różnicy pomiędzy 20, 50 ani 150 - może to kwestia preferencji 😀
@@ZMASLO 1.5 dzialaja swietnie .. te testowalem huggingface co runwayml stable-diffusion-v1-5 johnslegers stable-diffusion-v1-5 huggingface co runwayml stable-diffusion-v1-5 A tu masz porownanie ilosci przebiegow i.ibb.co/vm4fm7L/1661440027115223.jpg
A w WSL na windowsie z kartami od AMD by się nie dało? Czy może już łatwiej ten zwykły "skomplikowany" poradnik, albo może w wsl nie działałyby stewrowniki poprawnie?
Jak to wszystko szybkoleci dzis mamy juz Dall-E on line i wszystko prosto sie robi . Jakie to jest wciagajace cos jak zbieranie grzybow nigdy nie wiesz na co natrafisz czy na purchawke czy na prawdziwka . Pozdrawiam serdecznie wszystkich Dall-E fanow . 👍👍😉😉
Ja tam wolę stable diffusion bo jest darmowe, nie ma żadnych ograniczeń (można wpisywać co tylko się chce podczas gdy DALL-E ma regulamin), można zmieniać bardzo dużo rzeczy i jest to w pełni edytowalne, możesz robić z tymi obrazkami co tylko chcesz i oczywiście Stable Diffusion jest open-source. Także więcej plusów niż minusów.
pomocy zrobiłem wszystko i pokazało mi bląd: Creating venv in directory venv using python "C:\Users\...........\AppData\Local\Programs\Python\Python311\python.exe" Unable to create venv in directory venv exit code: 3 stderr: System nie może odnaleźć określonej ścieżki. Launch unsuccessful. Exiting. Press any key to continue . . .
mogles sie lepiej do tego przygotowac i potrenowac na swoich zdjeciach no i sciagnac inne modele , no i colab jest darmowy nie trzeba mocnej grafiki, dziala szybciej niz na gtx1080ti
Zmasło, jako że dobry jesteś z Linuxa. Powiedz jak przez Terminal w Linux Mint przywrócić ustawienia fabryczne w Retropie. Przypisałem źle przyciski do klawiatury podczas uruchamiania i teraz nie mogę znaleźć sposobu aby to odwócić.
Szczerze mówiąc nie do końca rozumiem tę autocenzurę na broń, przemoc i porno. Ale myślę, że to jest kwestia kilku miesięcy (o ile to już się nie dokonało) aż jakiś sprytny i mądry człowiek zrzuci ten kaganiec AI.
przetestuj na e8400 który jest na pierwszym miejscu w bencharku w programie hardinfo w linux zorin os (ubuntu) wygrał z q6600 na którym oglądałem ten film😆
Udało się to komuś uruchomić na karcie AMD? Kopię się już z tym kilka godzin wszystko wskazuje na to, że nie są wspierane :/ Działa mi teraz, tylko korzysta z procesora i prędkość jest mocno niezadowalająca XD
PROSZĘ O POMOC, BARDZO PILNE!! Witam, niedawno bo wczoraj zakupiłem komputer z Media Expert a dokładnie:MAD DOG MD 3600-A06 R5-3600 16GB RAM 500GB SSD 1TB HDD GeForce RTX3060 Windows 11 Home. Po przywiezieniu do domu podlaczeniu do zasilania i do monitora włączyłem wspomniany komputer. Na starcie zaczął pikać przez ok. 2 sekundy, na monitorze był zupełnie czarny ekran, brak sygnału hdmi na 1 i 2.Trafil mi sie wadliwy sprzęt czy coś zrobiłem źle?Proszę o pomoc będę bardzo wdzieczny.
wiesz że kręcenie wentylatorem na wyłączonej karcie graficznej może powodować wytworzenie napięcia i w rzadkich przypadkach zrobić kuku? Wtedy wentylator działa jak dynamo kiedy nim obracaszi podaje prund na gniazdo 6 pin, tak załatwiłem 7870 był kurewsko zakurzony, wypiąłem kartę wziąłem odkurzacz i przyłożyłem do wentylatorów ciąg odkurzacza wprawił je w obroty na max no i po podpięciu karty nic, oddałem na serwis i poszło ponad 12V na to gniazdo i na rdzeń huehue aż tam się przypalił jeden pin, także uważaj z tym 4090 RTX
Niestety niełatwa to sprawa aby zmusić do działania ten program. Wyskakują błędy - to ścieżka PATH Pythona się nie zgadza, to wersja Pythona, to zaś jakieś inne "Couldn't install gfpgan" i znowu "stderr: ERROR: Error [WinError 2] Nie mona odnale okrelonego pliku while executing command git version ERROR: Cannot find command 'git' - do you have 'git' installed and in your PATH?" NIe wiem jak to ma zadziałać skoro jest tyle problemów niewiadomej natury. Win11, RTX 3060, i9 13900, 64GB RAM, Python 3.10.6
stderr: ERROR: Could not find a version that satisfies the requirement torch==1.12.1+cu113 (from versions: none) ERROR: No matching distribution found for torch==1.12.1+cu113 [notice] A new release of pip available: 22.3 -> 22.3.1 Dokładnie coś takiego mi wyskakuje.
Beznadzieja. Nie dziala na polowie kart gragucznych. I brak aktualizacji od pół roku. Jest coś lepszego od tego ? Ps: do kogo nalezy grafika jeśli ktoś ją wygeneruje ? Lub co sie stanie jeśli dwie osoby wyhenerują taki sam obrazek ? To co wtedy ? Obrazek będzie nalezał do dwóch autorów ??
Chciałem się pobawić, ale niestety pokazuje mi błąd run(f'"{python}" -m {torch_command}', "Installing torch and torchvision", "Couldn't install torch"), a dalej run(f'"{python}" -m {torch_command}', "Installing torch and torchvision", "Couldn't install torch"). Ma ktoś pomysł jak to naprawić
Niby wszystko fajnie pięknie, ale mi po odpaleniu web ui user wyskakuje w wierszu poleceń tylko komunikat........... Creating venv in directory venv using python "C:\Users\Rafa│ Klaus\AppData\Local\Programs\Python\Python311\python.exe" Unable to create venv in directory venv exit code: 3 stderr: System nie może odnaleźć określonej ścieżki. Launch unsuccessful. Exiting. Press any key to continue . . .
@@ZMASLO W ścieżce docelowej, czyli (C:\Users\Rafał Klaus\AppData\Local\Programs\Python\Python39) znajdują sie odpowiednie pliki a reinstall na starszą wersję nie pomógł.
Jeśli macie problemy z uruchomieniem Stable Diffusuion spróbujcie użyć Pythona 3.10 zamiast 3.11 😀
Co ty Zmaslo sprawdzałem i na NVIDIA i na Radku , jeden pieron kwestia neta i pingu, a postawiłem to na na poprzedniej gen CPU Intela i GPU enki i Radka!!!!!
Moja podpowiedz 🤪
dzieki
nie działa mi na pythonie 3.11 wyskakuje błąd w wierszu poleceń że nie znalazł pythona 3.11 a mam pobranego 3.10 próbowałem na 3.11
@@krzychuyt5333 to zainstaluj 3.10 LOL
12:55 - do obrazka 1024x1024, a nawet 1280x1280 na tym WebUI wystaczy spokojnie 8gb pamięci VRAM - po prostu nie wszystkie dane naraz są wtedy tam przenoszone. Trwa to trochę dłużej, ale działa.
Ale jaka ilość danych przy względnie niskich rozdzielczościach.
Spoko zabawka. W momencie gdy te obrazki będą ogólnie dostępne w najwyższej jakości wielu grafików będzie miało ułatwioną pracę - nie sądzę aby to zastąpiło profesjonalistę. Człowiek poprawi sieć neuronową i praca szybka oraz przyjemna wykonana. Można się zarejestrować na dall-e 2 i czekać w kolejce, może uda się na dostęp do mocniejszego narzędzie. 😉
ja mam dostęp do dalle2, i też spoko zabawka
Już dawno w kolejce.😉
No i można trzeźwo patrząc na fakty widzieć pozytywy! Gratuluje podejścia kolego! Też sądzę, że nie będzie to nasza zagłada. Pozdrawiam serdecznie ;)
Idealne narzędzie do szukania inspiracji np. projektu loga, Na bazie najlepszych wygenerowanych obrazów możemy dac artyście do zrobienia konkretne działo. Zdecydowanie łatwiej będzie na przykładzie pokazać co mamy na myśli (mniej więcej)
Niektórzy zrobili z tego niezły użytek - na kanale Marcin Strzyżewski od paru miesięcy miniaturki są robione przez AI. Nie wiem, czy ktoś je później obrabia, ale zdecydowanie widać jak dobrze wpływa to na jakość.
Haha, o tym samym właśnie pomyślałem! ;)
Fajnie byłoby zobaczyć część 2 gdzie poświęcasz czas dla MidJourney. Świetny materiał!
Zabieram się za oglądanie
Na Biotad Plus lecimy??????
normalnie ten materiał zrobił mi dzisiaj dzień :) Dziękuję ZMASLO :)
Bardzo fajny materiał dzięki wielkie :)
o kurka, ale to kozackie jest, nie wiedziałem, że istnieje takie coś. po prostu łał! Fajnie, że pokazujesz takie rzeczy
zabieram sie za ogladanie
Odpowiedz na pytanie zadane na poczatku filmu:
Mysle, ze sie spozniles bo juz sporo o tym filmikow.
Ja osobiscie uzywalem tego przez discorda, spoko rozkmina.
Małe sprostowanie Dall-e 2 jest dostępne szerokiej publice, należy jednak się zalogować i miesięcznie mamy możliwość wygenerować jakaś ilość obrazków. Innym podobnym oprogramowaniem działającym na discordzie jest midjourney
Idealny ZMASLO do oglądania po szkole :)
@@NIPERR W sumie, prawda
Super sprawa, dzięki!
Zmaslo mam pytanko na repo modeli Stable diffusion są 2 paczki - jedna 4GB o której mowiles i druga 7Gb - one się czymś róznią? może lepiej pobrać tą większą?
Super materiał
Dwóch kolegów w klasie zrobiło kolaż (chyba to jest z tej kategorii) na j. polski żeby zobrazować przebieg "Świtezianki" A. Mickiewicza bardzo fajnie im to wyszło
@ZMASLO: Jak długo generowały się te obrazki? Zadałem Ci też jedno pytanie na Discordzie i Instagramie. Będę wdzięczny za odpowiedź :)
To zależy od twojego sprzętu, podam przykład na podstawie mojej karty graficznej i podstawowych ustawien które generują już całkiem niezłe obrazy:
fork użytkownika AUTOMATIC1111 (ten sam którego używa zmaslo)
karta graficzna: RTX 3060ti 8GB
sampling steps: 20
sampler: euler a
rozdzielczość: 512x512
1 obraz generuje się ok. 3 sekund
@@thrat5179 o! dzieki za odp.
Próbowałem (Komp nie Mój) i mi nie wyszło (15:31 - Jak zainstalować Stable Diffusion na PC?) . Jakbyś mógł zrobić jakiś dokładny Tutorial, jak to ma dokładnie wyglądać od A. do Z. (Wytłumaczyć jak dla chłopa łopatologicznie.) [THX!]
Uszanowanko za 124 🔥
6:53 hehe, zawsze do testowania trudnych polecen przy generowaniu obrazow za pomoca ai polecam wpisac "me" lub **spacja** badź kropkę
8:01 chciałeś strollować AI, a to ona ma bekę z Ciebie ;P
Dzień dobry, niezły program.
interesujące :)
Hhehe, interesuję się tematem, bawiłem sie dalle e2 jak jeszcze była era zapisów. Wygenerowałem sobie np. "Dobry Jezu a na szpanie" używając oczywiście swoich metod opisu w języku angielskim. A końcowe pytanie- czy nie wygryzie artystów. To już się podobno zaczęło. Czytałem artykuł, gdzie była opisana sytauacja w której "artysta" zdobył pierwsze miejsce w konkursie posługując się właśnie którymś z wymienionych systemów jedynie lekko poprawiając sztucznie wygenerowany obraz. I był dylemat.
Z tego co wiem to wcale nie tak lekko, podobno dopracowywał model przez dość długi czas aby otrzymać jak najlepsze efekty
*Nie wiem jak Wam ale Nam się bardzo podobało.*
Spoko Fajna zabaweczka tylko nie instalujcie Python 3.11 u mnie nie dzałała procedura instalacji torcza (win 11) - ale na 3.10 poszło :) pozdrawiam
Przydatny komentarz dzięki :) U mnie też Python 3.11 (win 10) powodował ten sam błąd na 3.10 działa :)
@@pierdzielak ale fajna zabawa zrobiłem serię z Cyberpunk 2077 masakra wyszło zrobie filmik na moim kanale :) Pozdro
ruclips.net/video/YZ738lLBD_s/видео.html
Cześć masz jakiś pomysł dlaczego po zainstalowaniu pythona 3.10 dalej nie działa wyskakuje mi taki błąd:
Creating venv in directory venv using python "C:\Users\...........\AppData\Local\Programs\Python\Python311\python.exe"
Unable to create venv in directory venv
exit code: 3
stderr:
System nie może odnaleźć określonej ścieżki.
Launch unsuccessful. Exiting.
Press any key to continue . . .
przy instalacji pokazywało tą ścieżkę na górze i jak sprawdziłem nie ma go tam a pobrałem na 100%
Jakieś pomysły
@@Urexyl zrób wszystko od nowa odinstaluj i Ściągnij wszystko razem z pythonem 3.10
Jakiś czas temu wyszła afera że ktoś za pomocą sztucznej inteligencji stworzył jakiś rysunek który był wzorowany na Live jakieś artysty i wydał go szybciej niż dany artysta. Oba rysuku są mega do siebie podobne ale jednak org. ma dużo więcej szczegółów i mniej błędów graficznych.
Podaj coś więcej, chętnie o tym poczytam
MidJurneybot na discordzie na specjalnym serwie robi to samo i ma dużo większą moc niż ta którą możemy w domu osiągnąć. Generuje grafiki w wysokich rozdzielczościach - też mozna sie pobawic i nie trzeba mocnego kompa
On chyba ma ograniczenie do kilkudziesięciu obrazków
O kur*a harry pjoter xD zajebista miniaturka
Część zmaslo czy mógłbyś zrobić film o graniu na MacBook M1 lub M2 albo o przesyłaniu ekranu z komputera na laptopa?
Uzywales tego w trybie offline? Zeby nie bylo, ze pobiera jakies dane z baz danych online. Jakos nie chce mi sie wierzyc, ze to AI wie jak wyglada kapibara, konkretny tron z serialu albo kto to zmaslo.
Tak, po pierwszej konfiguracji działa to w 100% offline. Za to właśnie jest odpowiedzialny model Stable Diffusion, który jest w stanie te obrazy wygenerować 😉
Sam model waży około 4GB jak mówiłem. I model nie wie kto to zmaslo, tylko był w stanie ogarnąć "polish youtuber".
@@ZMASLO I to tylko przypadek, ze jakies podobienstwo bylo (okulary, czarne wlosy)? Jak to naprawde dziala 100% offline to robi sie ciekawie - do tej pory mialem wrazenie, ze te wyniki (wlasne proby) to jakies prace poczatkujacego photoshopera i zabawy z roznymi filtrami.
@@ferdynand40 Stable diffusion AI było uczone na bazie publicznych obrazków z google/artstation itd (2,3 billiona z tego co pamiętam) najbardziej popularnym artystą którego praca została można powiedzieć skradziona jest Greg Rutkowski, ktoś może powiedzieć ze to kopiuje tylko styl danego artysty ale prawda jest taka że to AI bierze fragmenty z masy zdjęć i skleja w całość (czasami nawet generuje z podpisem XD). W sieci jest już głośno bo artyści nie wydali zgody na używanie ich prac, wiec pewnie w przyszłości skończy się to prawnie i nie tylko z SD bo jest kilka modeli AI.
Jak myślicie będzie to w miarę dobrze działać na GTX 1070 ?
Robiłem testy jest na wykresie i całkiem nieźle sobie radzi
Zamiast pytać sprawdź.
@@ZMASLO Rtx 3060 + ryzen 5 3500x ogarnie temat jednocześnie streamujac na Twitch? Widzę w tym fajny content:)
U mnie 1050Ti daje radę ;)
@@ZMASLO a jak sobie radził e8400?
Powiedz czy napisałeś że wszystkie gruszki mają być niebieskie?
Fajnie!
Mało jeszcze wiesz,😆 jak chcesz generować sceny erotyczne lub z broniom wystarczy że weźmiesz wersję Novel ai a nie zwykłą i nie masz żadnych ograniczeń a i same efekty bywają lepsze. Minus ai zacznie generować anime.
Ja mówię o klasycznym Stable Diffusion i jego ograniczeniach a nie innych wariantach, które można znaleźć online 😉
@@ZMASLO uzyj 1.5 ... tam dziala to o niebo lepiej
Sztuczna inteligencja jest projektem przyszłości
Cały wrzesień grzałem mieszkanie tym modelem, polecam
Ja tam wolę Midjourney. Działa na każdym kompie przez Discorda. Można generować sobie dowolną ilość grafik w wysokiej rozdzielczości. Teoretycznie ilość grafik które można wygenerować jest ograniczona ale za to można sobie zakładać na Discord nieograniczoną ilość kont 🙃. Ciekawy efekt daje "Mahomet w pralce na pustyni" albo "Putin całujący się z Wołodymyrem Zełenskim".
Czemu nie przetestowałeś tych Radeonów na Linuxie?
Bo nie miałem czasu formatować windowsa, stawiać linuxa i konfigurować po raz kolejny tego wszystkiego
@@ZMASLO a, ok, to w takim razie zrozumiałe
@@ZMASLO ...mogles na dysku zewnetrzym zainstaowac ;)
W124 dobry wybór
Ja zdążyłem wygenerować Minionki pod Stalingradem z 20 razy, Ryuko Matoi w średniowiecznej Japonii z 50 i ze 200 razy Alitę i wniosek mam taki, że działa tu zasada Pareto.
AI wygeneruje niezły obrazek, ale, żeby go dopieścić trzeba włożyć w to niewspółmiernie dużo.
Ewentualnie ja jestem idiotą.
PS. Próbowałem też wygenerować Chwiczę Kwaracchelię, gruzińskiego piłkarza Napoli...i AI nie wie kto to k***a jest, tak więc limitem na pewno jest baza danych na jakiej operuje AI.
Powiedz mi, Twoim zdaniem czym kapibara miała trzymać miecz świetlny ? Jeżeli zaskoczyło Cię że w pysku lub kończyną? Gdyby trzymała skrzydłami wtedy powiedziałbyś co ? eeee normalka ;)
Jeśli ktoś chce się pobawić a nie ma wystarczającej specyfikacji sprzętowej to polecam zainstalować sobie stablehorde jako wtyczkę do krity.
Trzy minuty oczekiwania na render na procesorze, hehe . Kurde, przypomnialem sobie, jak na Amidze w programie Real 3D, czekalo sie kilkanascie godzin, zeby wyrenderowac szklana kule z oswietleniem i cieniami.
Po pierwsze mogles uzyc difusion model 1.5 a nie 1.4 ... dlatego masz problem z generowaniem nagosci lub broni ;) ... 1.5 sobie radzi duzo lepiej.... mozez na 1.5 spokojnie porno generowac ;D
Po 2 trzeba bylo uzyc przynajmniej 100 przbiegow .. ja daje na 150 i obrazki sa duzo lepsze w mojej opini ... domyslne przzebiegi 20--30 sa duzo gorsze.
Nie dodales tez modelu do poprawiana twazy.
Na mojej RTX 360ti mam 7.5 obrazka na sekunde ...
To ciekawe bo na huggingface nie widziałem wersji 1.5 póki co, inne nieoficjalne modele pomijałem bo słyszałem, że zbyt dużo anime generują. Co do ilości przebiegów na tym co ja sprawdzałem nie było specjalnej różnicy pomiędzy 20, 50 ani 150 - może to kwestia preferencji 😀
@@ZMASLO
1.5 dzialaja swietnie .. te testowalem
huggingface co runwayml stable-diffusion-v1-5 johnslegers stable-diffusion-v1-5
huggingface co runwayml stable-diffusion-v1-5
A tu masz porownanie ilosci przebiegow
i.ibb.co/vm4fm7L/1661440027115223.jpg
16:48 a mogę tak pobrać na Windows 10?
To może teraz jak działa syntezowanie głosów tak jak to robił kojarzony w polsce Gothic Bot czy Mekatron
A w WSL na windowsie z kartami od AMD by się nie dało? Czy może już łatwiej ten zwykły "skomplikowany" poradnik, albo może w wsl nie działałyby stewrowniki poprawnie?
Dodasz to do procedury testowej? :D
Jestem ciekaw jak wygląda Linux vs windows i jak nowa a770 która przecież ma 16GB vramu !
nwm czy stable diffusion wspiera intelowe oneapi, pewnie nie
@@tescowiec nie wiem. Ale Arc wspiera większość API. Jeśli działa pod Radeonem to na Arcach też ;)
Wow, krzyżówka Harry'ego Pottera z Martinem z Ach ten Andy
W jakim sklepie kupujesz podzespoły komputerowe?
A testowałeś w maliny, bez neta jak sobie radzi to AI? Skąd wie jak kenau reews wygląda
Mi nie działa może wiecie o co chodzi problem jest z zainstalowaniem pip patrzyłem na necie i nic nie pomogło
Tak, jest to zrozumiałe dlaczego nie można generować scen natury erotycznej - zwyczajnie serwery byłbyby stale przeciążone zapytaniami o Kerfusia...
A jak wymusić działanie karty graficznej? Bo jak używam tego web ui to leci to wszystko na procesorze a karta nie jest obciążona
Jak to wszystko szybkoleci dzis mamy juz Dall-E on line i wszystko prosto sie robi . Jakie to jest wciagajace cos jak zbieranie grzybow nigdy nie wiesz na co natrafisz czy na purchawke czy na prawdziwka . Pozdrawiam serdecznie wszystkich Dall-E fanow . 👍👍😉😉
Ja tam wolę stable diffusion bo jest darmowe, nie ma żadnych ograniczeń (można wpisywać co tylko się chce podczas gdy DALL-E ma regulamin), można zmieniać bardzo dużo rzeczy i jest to w pełni edytowalne, możesz robić z tymi obrazkami co tylko chcesz i oczywiście Stable Diffusion jest open-source. Także więcej plusów niż minusów.
Witam. Co bym nie wpisał zawsze dostaję tylko czarne tła :/. Stable postawiony na aktualnym Archu.
6:08 Oj ThinkPhone już istnieje i niestety nie ma nic wspólnego z thinkpadami poza logiem
pomocy zrobiłem wszystko i pokazało mi bląd:
Creating venv in directory venv using python "C:\Users\...........\AppData\Local\Programs\Python\Python311\python.exe"
Unable to create venv in directory venv
exit code: 3
stderr:
System nie może odnaleźć określonej ścieżki.
Launch unsuccessful. Exiting.
Press any key to continue . . .
Spróbuj Pythona 3.10 zamiast 3.11
@@ZMASLO ok
niestety Python 3.10 również nie działa jakieś inne pomysły?
Hej ! A czy można w taki sposób generować dźwięki ?
mogles sie lepiej do tego przygotowac i potrenowac na swoich zdjeciach no i sciagnac inne modele , no i colab jest darmowy nie trzeba mocnej grafiki, dziala szybciej niz na gtx1080ti
Zmasło, jako że dobry jesteś z Linuxa. Powiedz jak przez Terminal w Linux Mint przywrócić ustawienia fabryczne w Retropie. Przypisałem źle przyciski do klawiatury podczas uruchamiania i teraz nie mogę znaleźć sposobu aby to odwócić.
Czy integra zdoła wygenerować obraz 512 x 512?
Ciekawa ta sieć neuronowa. A można tak wygenerowane obrazki wpuszczać w sieć?
Szczerze mówiąc nie do końca rozumiem tę autocenzurę na broń, przemoc i porno. Ale myślę, że to jest kwestia kilku miesięcy (o ile to już się nie dokonało) aż jakiś sprytny i mądry człowiek zrzuci ten kaganiec AI.
A ile to kosztuje?
Okrągłe 0zł
przetestuj na e8400 który jest na pierwszym miejscu w bencharku w programie hardinfo w linux zorin os (ubuntu) wygrał z q6600 na którym oglądałem ten film😆
7:50 protesty widzów o e8400 z rtx 3090 8 miesięcy temu
(czekam na wersje z 4090)
Czasy nadchodzą paskudne.. Wiarygodność zdjęć, a nawet filmów całkowicie zniknie.
Sama instalacja to proces do jakiego bym nie doszedł nigdy sam, a co dopiero zrozumieć mechanizm jak to działa
Na YouTubie masz poradniki jak to zainstalować w kilka minut
czm zmieniłeś minaturkę
Udało się to komuś uruchomić na karcie AMD? Kopię się już z tym kilka godzin wszystko wskazuje na to, że nie są wspierane :/ Działa mi teraz, tylko korzysta z procesora i prędkość jest mocno niezadowalająca XD
PROSZĘ O POMOC, BARDZO PILNE!!
Witam, niedawno bo wczoraj zakupiłem komputer z Media Expert a dokładnie:MAD DOG MD 3600-A06 R5-3600 16GB RAM 500GB SSD 1TB HDD GeForce RTX3060 Windows 11 Home. Po przywiezieniu do domu podlaczeniu do zasilania i do monitora włączyłem wspomniany komputer. Na starcie zaczął pikać przez ok. 2 sekundy, na monitorze był zupełnie czarny ekran, brak sygnału hdmi na 1 i 2.Trafil mi sie wadliwy sprzęt czy coś zrobiłem źle?Proszę o pomoc będę bardzo wdzieczny.
Fajne)))
pięknie pokazało w tobie żyda :D
Jak zobaczyłem te faile z niebieskim kotem na wieżowcu, to padłem.... ;D. A kapibara była z serem, ale w brzuchu...
Fajne coś nowego a nie reklama
Świetnie to wygląda, a jak jeszcze dojdzie dall-e to będzie już obłędnie
Jak szybko bardzo zbalansowane combi amd r5 5600x + rtx 3050 to wyrenderuje?
mam error 3 Unable to create venv in directory venv
wiesz że kręcenie wentylatorem na wyłączonej karcie graficznej może powodować wytworzenie napięcia i w rzadkich przypadkach zrobić kuku? Wtedy wentylator działa jak dynamo kiedy nim obracaszi podaje prund na gniazdo 6 pin, tak załatwiłem 7870 był kurewsko zakurzony, wypiąłem kartę wziąłem odkurzacz i przyłożyłem do wentylatorów ciąg odkurzacza wprawił je w obroty na max no i po podpięciu karty nic, oddałem na serwis i poszło ponad 12V na to gniazdo i na rdzeń huehue aż tam się przypalił jeden pin, także uważaj z tym 4090 RTX
Co to za faworyzacja dalle jak jest jeszcze
CrAIon
Mid dżerni
I inne
Jakbym jeszcze miał zdalnie plastykę w szkole, jak to było w 2020...
ile lat będę generować na voodoo ?
Zacznij już dziś to się może dowiesz, ewentualnie wnukowie :D
Niestety niełatwa to sprawa aby zmusić do działania ten program. Wyskakują błędy - to ścieżka PATH Pythona się nie zgadza, to wersja Pythona, to zaś jakieś inne "Couldn't install gfpgan" i znowu "stderr: ERROR: Error [WinError 2] Nie mona odnale okrelonego pliku while executing command git version
ERROR: Cannot find command 'git' - do you have 'git' installed and in your PATH?"
NIe wiem jak to ma zadziałać skoro jest tyle problemów niewiadomej natury.
Win11, RTX 3060, i9 13900, 64GB RAM, Python 3.10.6
Zrobisz film na temat intel inside pentium 2 rdzenie
u mnie podczas instalacji webui wywala blad
Ktoś też ma błąd przy odpalaniu, że trzeba zupgrade'ować pip ale tam nie ma takiej możliwości?
stderr: ERROR: Could not find a version that satisfies the requirement torch==1.12.1+cu113 (from versions: none)
ERROR: No matching distribution found for torch==1.12.1+cu113
[notice] A new release of pip available: 22.3 -> 22.3.1
Dokładnie coś takiego mi wyskakuje.
@@GuziuPL dokladnie mam to samo
@@Davian_Sovan na python 3.11 krzaczy, na 3.10 działa
@@tomaszjachno6510 Dzięki wielkie! Działa!
@@tomaszjachno6510 mi na 3.10 też nie działa w ogóle nie chce sie uruchomić
Przecież ten program musi sprawdzić co oznaczają słowa kluczowe. Bez dostępu do sieci nic nie wygeneruje bo skąd ma wiedzieć o czym do niego piszesz?
Jest też coś takiego jak NovelAI Diffusion, czyli generator Anime.
Beznadzieja. Nie dziala na polowie kart gragucznych. I brak aktualizacji od pół roku. Jest coś lepszego od tego ? Ps: do kogo nalezy grafika jeśli ktoś ją wygeneruje ? Lub co sie stanie jeśli dwie osoby wyhenerują taki sam obrazek ? To co wtedy ? Obrazek będzie nalezał do dwóch autorów ??
Ogólnie to działa tak ze to nie należy do nikogo i możesz robić z tym obrazkiem co kolwiek
Sieć neronowa też jest projektem długo falowym
7:50 to ludzie oczekujący na "przEpotężny pr8400cesor" sparowany z 4090-tką 😉
zajebiste
Chciałem się pobawić, ale niestety pokazuje mi błąd run(f'"{python}" -m {torch_command}', "Installing torch and torchvision", "Couldn't install torch"), a dalej run(f'"{python}" -m {torch_command}', "Installing torch and torchvision", "Couldn't install torch"). Ma ktoś pomysł jak to naprawić
Wygląda na jakiś problem z pythonem, spróbuj może wersję 3.10 zamiast 3.11 ;)
@@ZMASLO dzięki, spróbuję
Dzięki bardzo, pomogło
Czy program jest płatny
Nie, jest darmowy i można też korzystać z innych on-line 😉
Gruszki były wszystkie niebieskie. poprostu jeszcze nie dojrzałe. :)😄
Niby wszystko fajnie pięknie, ale mi po odpaleniu web ui user wyskakuje w wierszu poleceń tylko komunikat........... Creating venv in directory venv using python "C:\Users\Rafa│ Klaus\AppData\Local\Programs\Python\Python311\python.exe"
Unable to create venv in directory venv
exit code: 3
stderr:
System nie może odnaleźć określonej ścieżki.
Launch unsuccessful. Exiting.
Press any key to continue . . .
Spróbuj pythona 3.10 zamiast 3.11
@@ZMASLO W ścieżce docelowej, czyli (C:\Users\Rafał Klaus\AppData\Local\Programs\Python\Python39) znajdują sie odpowiednie pliki a reinstall na starszą wersję nie pomógł.