Własny ChatGPT na swoim PC!

Поделиться
HTML-код
  • Опубликовано: 31 дек 2024

Комментарии • 370

  • @Majber
    @Majber 9 месяцев назад +9

    Odswiezalbym ten film co pół roku, mega ciekawy temat. Pewnie dużo nowych narzędzi powstanie.

  • @Nienormalny
    @Nienormalny 11 месяцев назад +27

    O panie, dobry materiał. Chętnie się pobawię lokalnymi AI.

    • @trioz1819
      @trioz1819 10 месяцев назад +1

      TYLKO NIE zmieniaj historii

  • @brugerkingcrownguy2573
    @brugerkingcrownguy2573 11 месяцев назад +31

    Łukasz, więcej takich filmów o AI!!! Ogromnie szanuje za tego AI benchmarka. Wydaje mi się że nikt takiego testu na yt nie zrobił.

  • @kondzio2003
    @kondzio2003 10 месяцев назад +2

    Ale sztos. Zaczęło się w zasadzie rok temu od publicznego chata gpt a do dzisiaj tyle tego powstało 😊😊😊😊😊

  • @ziolo7138
    @ziolo7138 11 месяцев назад +142

    Zmaslo kiedy ten windows vista?

    • @ZMASLO
      @ZMASLO  11 месяцев назад +60

      Do dwóch tygodni temat powinien być zamknięty - czekam jeszcze na dogrywki od innych twórców i jeszcze kilka testów zostało 😀

    • @ziolo7138
      @ziolo7138 11 месяцев назад +5

      @@ZMASLO Powodzenia :D

    • @polski_snieg5342
      @polski_snieg5342 11 месяцев назад +3

      W końcu ​@@ZMASLO

    • @AdrianKiel
      @AdrianKiel 11 месяцев назад +10

      Zmaslo kiedy E8400?

    • @Artutitu
      @Artutitu 11 месяцев назад +5

      ​@@AdrianKiel było i lepiej nie przypominać o tym temacie....

  • @Pogramy74
    @Pogramy74 11 месяцев назад +26

    Bardzo bardzo bardzo bardzo fajny odcinek ❤❤❤❤

  • @lukasyno90
    @lukasyno90 10 месяцев назад +8

    Wypowiem się na temat Stable Diffusion na karcie AMD (rx 6650xt 8GB) z wykorzystaniem Automatic1111. Windows kompletnie odpada jeżeli ktoś planuje się tym bawić, testowałem rozwiązania takie jak wtyczka directml do bazowej wersji Automatic1111 i działało to przeciętnie - 1.2it/s przy obrazku 512x512. Maksimum przy którym nie wywalało błędu o braku VRAMu to było jakieś 640x768, a dodatkowym zastrzeżeniem było tutaj trzymanie się danego wymiaru, który musiał być podzielny przez 64 bo inaczej się wysypywało, więc odpadał jakikolwiek niestandardowy refine obrazka, a w dodatku prompt musiał być ograniczony do rozmiaru 75 bo takie ograniczenia zostały nałożone i nie było szans tego ominąć. Warto tu także wymienić to że upscaling obrazka odbywał się nie z wykorzystaniem GPU, a obliczenia przenoszone były na CPU i trwało to czasem nawet kilka minut. Było też inne rozwiązanie do niedawna promowane na blogu AMD, czyli pobranie pewnej wersji A1111 ze wsparciem dla ONNX w połączeniu z DirectML ale działało to trochę inaczej i zdecydowanie gorzej niż directml jako extension do bazowego A1111. Oba te rozwiązania wymagały transformacji modelu na format ONNX. Pierwszy z nich operuje na unet a drugi bodajże na modelu w formacie ONNX z rozszerzeniem .ckpt. Więc dochodzi jeszcze odpowiednia umiejętność konwersji między formatami, optymalizacji tego itd... Generalnie sporo zabawy żeby to w ogóle zaczęło działać i nie jest to tego warte na Windows. Stwierdziłem w pewnym momencie że nie ma możliwości żebym się tak męczył, więc wydzieliłem odpowiedni rozmiar dysku na partycję z Ubuntu, pobrałem rocm według zaleceń AMD i po odpowiednich drobnych modyfikacjach (podmiana identyfikatora karty na wspierany przez rocm - rx 6800 xt oraz wyłączenie secure boota, który blokował wykorzystanie sterowników w systemie) wszystko działa jak marzenie - 3.6it/s przy obrazku 512x512, 4x upscaling w dosłownie kilka sekund. Różnica jest kolosalna, a w dodatku można korzystać z pełnej palety funkcjonalności A1111, a wykorzystanie VRAM nawet przy generowaniu obrazka 1024x1024 nie przekroczyło 6.2GB i ani razu nie miałem problemu ze stabilnością tego wszystkiego.

    • @ephionis
      @ephionis 10 месяцев назад

      Powiem szczerze że nigdy nie miałem takich problemów chociaż mam karte NV i to może robić różnice, próbowałeś dodać parametry startowe ? jak --api --lowvram --always-batch-cond-uncond --xformers --no-half-vae ?
      Fakt że na windowsie demonem szybkości może to nie jest ale 1m 30sec average 7.52s/it 1024x768 i 1024x1024 z refinerem i esgran x4 Hires (na karcie 1050TI 8GB 4+4shared) dla SD 1.5 / 2
      Dla SDXL polecam Fooocus, działa na 4GB ram pod windowsem więc pod linuxem powinno jeszcze szybciej, czas podobny jak dla SD 1.5 przy 2048x2048.

    • @lukasyno90
      @lukasyno90 10 месяцев назад

      Tak, testowałem wiele parametrów startowych, które były polecane na wielu subredditach właśnie dla osób wykorzystujących te metody uruchamiania tego konkretnego narzędzia (A1111) na kartach AMD. Najważniejszym problemem tutaj jest niestety brak obsługi CUDA dla kart od czerwonych (ich technologia pozwalająca obsłużyć narzędzia z niej korzystające działa jedynie pod Linuxem) i trzeba próbować obchodzić to naokoło właśnie przez włączenie obsługi zoptymalizowanych modeli pod rozwiązania Microsoftu i zabawę z tym na wielu płaszczyznach żeby to działało tak jak powinno, a i tak mi się to nie udało w pełni i większość zadań była przerzucana z GPU na CPU i dlatego to tak wolno działało w większości przypadków. Być może właśnie są jakieś narzędzia które lepiej sobie z tym radzą, lub mają jakieś rozwiązania które po prostu działają, ale na tamten moment, gdy jeszcze próbowałem z tym działać na Windows, nie byłem w stanie znaleźć niczego sensownego na forach, a po przerzuceniu się na rocm widzę diametralną różnice w prędkości oraz stabilności, więc to jest jedyne rozwiązanie które poleciłbym komuś z układami od AMD. Szczerze mówiąc miałem do niedawna 1050 ti 4GB i kiedyś próbowałem generować za pomocą Stable Diffusion. W porównaniu do AMD karty NV działają od strzała i nic więcej nie trzeba robić, wystarczy mieć tylko narzędzie, model, wystarczająco VRAM i dobre parametry startowe. Nie wiem czy korzystałem z dzielonej pamięci, aby mieć dostęp do generowania czegoś większego, ale raczej nie, bo dość szybko docierałem do limitu pamięci. Zdecydowanie obczaję sobie tego Fooocus-a, ciekawe jakby to mogło działać z rocm. @@ephionis

  • @Mariousz1
    @Mariousz1 9 месяцев назад +1

    WIęcej, więcej, więcej tego contentu!

  • @ironvirgin4863
    @ironvirgin4863 10 месяцев назад

    Jestem głównym informatykiem w średniej fabryce i gpt dużo mi pomaga. Piszę budżety, odpowiada na e-maile, odpowiada na pytania odnośnie sieci, środowiska serwerowego, itp. Chętnie przetestuję to na swojej lokalnej maszynie :)

  • @z1ter
    @z1ter 10 месяцев назад +1

    Przetestuje, dzięki za wspaniały materiał, zmaślok :D

  • @tomasztummel
    @tomasztummel 11 месяцев назад +4

    Dzięki za filmik. Nie wiedziałem, że jest to możliwe, a teraz na pewno skorzystam! 😃

  • @juraszka
    @juraszka 11 месяцев назад +5

    1. można połączyć kilka komputerów aby generować na jednym, szybciej i lepiej?
    2. Czy są modele pracujące tylko na CPU + j.w. czyli połączenie kilku dla szybszego/lepszego efektu?

    • @witherekktv3747
      @witherekktv3747 9 месяцев назад

      to jest pierwszy taki typ bez neta wiec tylko na karcie od nvidi

  • @Gawron..
    @Gawron.. 8 месяцев назад +1

    Powiadasz, że na starszym kompie idzie pogadać na czasie GPT? U mnie koboldcpp się zamyka gdy ładuję większość modeli. Mam Win 10, procesor Intel Xeon E3-1246 v3, grafikę GF RTX 2060 super. Mógłbyś zrobić jakiś film który szerzej by omawiał ten program? Jest tam trochę do ustawiania i może o czymś istotnym nie wspomniałeś w tym filmie? Zauważyłem np, że część modeli działa ale tylko jak ustawię dla grafiki presety Vulkan w nazwie. Pozostałe presety nie działają a program się zamyka natychmiast po kliknięciu w launch. A może trzeba dobrać odpowiedni model? Jest tych oznaczeń modeli co nie miara i trudno się w tym połapać. Wiem tylko, że im wyższa cyferka przy q tym mocniejszy sprzęt potrzebny. Tylko nie każdy model ma podaną literkę q. Te modele które działają, to akurat nie trafiłem na taki z językiem polskim. Bywa, że zamiast odpowiadać sypią jakimiś tekstami zupełnie haotycznymi, wygląda to czasem jak podsumowanie naszej rozmowy podane w dwóch językach plus znaki specjalne.
    Albo bot się zapętli i odpowiada niemal to samo tylko w różnych konfiguracjach, choć moje pytania są już inne. Zupełnie inaczej to wygląda jak np. na stronie czatkropkaai.

  • @mateuszkorolow4926
    @mateuszkorolow4926 10 месяцев назад +1

    Jestem czynnym programistą i powiem Wam, że z jednej strony cieszę się na to jak rozwijają się narzędzia oparte o sieci neuronowe, z drugiej strony tempo tego rozwoju trochę mnie przeraża :D

    • @HeadHunter-cu7yw
      @HeadHunter-cu7yw 10 месяцев назад +1

      ja chciałem zostać grafikiem i zacząłem coś robić w tym kierunku, nagle pojawiło się AI. Po prostu skaczę z radości na widok tego, że za kilka lat AI będzie generować lepsze obrazy niż ludzie i będę skazany na pracę w biedronce xD

    • @tomaszstaron1233
      @tomaszstaron1233 9 месяцев назад

      @@HeadHunter-cu7yw Taki sam los czeka większość programistów, ale też większość zawodów .

    • @HeadHunter-cu7yw
      @HeadHunter-cu7yw 9 месяцев назад

      @@tomaszstaron1233 zajebiście

    • @mateuszkorolow4926
      @mateuszkorolow4926 9 месяцев назад

      @@tomaszstaron1233 tu się nie zgodzę. To nadal chatboty. Testowałem je wielokrotnie i dalekie są choćby umiejętności mida. Są dobrym narzędziem wspomagającym ale programisty nie zastąpią przez jeszcze parę ładnych lat :)

  • @ulysses1685
    @ulysses1685 10 месяцев назад +1

    NMKD Stable Diffusion - nie ma już wersji z modelami. Ściągnąłem kilka dni temu, jest 3GB plik, ale modeli brak, inni też ściągali i też nie mają.

  • @asti38
    @asti38 10 месяцев назад +1

    WhisperGUI świetne, na pewno kiedyś tego użyję jak już będę po remoncie w domu i wezmę się za hobby (yt/stream/gry/tech etc) - mam nadzieję znaleźć też podobny soft ale działający w czasie rzeczywistym. Stability Matrix i NMKD Stable Diffusion świetnie nadadzą się do prostych projektów, w sumie to nawet na steamie używam profilowych zdjęć które generowały AI.

    • @karwel8854
      @karwel8854 10 месяцев назад

      Zobacz program SpeechTranslate1.3.10 oparty też na whisperze i ma funkcję czasu rzeczywistego.

  • @Granietopasja
    @Granietopasja 11 месяцев назад +4

    Bawię się w generowanie obrazków - WOW. RTX 4090 można spoko wykorzystać do generowania naprawdę dobrej jakości obrazów i maks co mi zajmuje na obrazek to 23 sekundy

  • @przemysawkuchta7236
    @przemysawkuchta7236 10 месяцев назад

    Ciekawa sprawa z tym odczytywaniem plików. Fajnie by było jakby była możłiwość wrzucenia ustaw naszego prawa i zadawać mu pytania i żeby odpowiadał na podstawie tych ustaw ze wskazaniem źródeł :D

  •  11 месяцев назад +1

    LMstudio też służy do lokalnego uruchamiania LLM i pod czatem wyświetla benchmark w tokenach na sekundę. U mnie aktualnie: od 0,6tok/s na modelu 72B Q5 (największy jaki udało mi się odpalić, zajmuje 56GB RAMu) do 3tok/s przy trochę mniejszych modelach. Wszystko to na GTX1050Ti 4GB, Ryzen 3600, 64GB RAMu, z offloadingiem 1 warstwy do GPU i kontekstem ustawionym zawsze na domyślne 2048.

    • @ZMASLO
      @ZMASLO  11 месяцев назад +1

      Uuuu to już konkretny model odpaliłeś :D

  • @manticorepl859
    @manticorepl859 10 месяцев назад

    Pięknie dziękuję. Fajnie objaśniłeś temat dla lajkoników. 👍

  • @elimssmile
    @elimssmile 11 месяцев назад +3

    Miłego wieczoru!

  • @zj7498
    @zj7498 8 месяцев назад

    Jak generujesz napisy używając AI to musisz popracować nad dykcją. Bo potem masz taki kwiatek jak: "usług w murze". W 2:44

  •  11 месяцев назад +3

    Dziękuję za świetny, wartościowy film!

  • @yasioo
    @yasioo 10 месяцев назад

    Super materiał! Dzięki! :)

  • @KryskiPL
    @KryskiPL 11 месяцев назад +2

    @ZMASLO 15:02 folder "płyta z PS5" i "film ps5.mp4" czyżby się szykował nowy odcinek o ps5😏

    • @ZMASLO
      @ZMASLO  11 месяцев назад

      Nie, to był stary filmik, dokładnie ten: ruclips.net/video/HsENsKcF-6Y/видео.html

    • @KryskiPL
      @KryskiPL 10 месяцев назад

      @@ZMASLO a szkoda myślałem że jakiś mini projekcik taki pc mini do gier

  • @Patryk414
    @Patryk414 11 месяцев назад +5

    Wiecie może, czy istnieje już jakiś program A.I do tłumaczenia z automatu MANG na polski ??

  • @thereisnone9177
    @thereisnone9177 10 месяцев назад

    🤩czyli już wiem, że weekend zleci na próbie uruchomienia tego na VM z VGA passthrough na Linuxie w piwnicy...no Dzięki😅

  • @nihilistycznyateista
    @nihilistycznyateista 11 месяцев назад +1

    Ja w pewnym sensie wykorzystuję lokalną sieć neuronową w postaci dodatku o nazwie... kurde nie pamiętam... w każdym razie dodatek do OBSa, współpracujący z osprzetem Elgato, a wchoidzacy w skład sterownika nVidia Studio i działający jedynie na kartach RTX. Co on daje? Otóż teoretycznie jakieś baery z dźwiękiem (ale nie mam mikrofonu od elgato), do czego ja go nie używam, ale przede wszystkim za pomoca algorytmów sieci neuronowych usuwa tło w bardzo skuteczny i dokładny sposób. Ptrymitywna wersja czegoś takiego jest wam pewnie znana z jakiegoś zooma, czy czegoś w tym styuku, ale to nie zawsze działa dobrze, czasami dziwnie ucina kawał głowy, czy podmienia część ubrania - a u mnie działą idelnie tak, jakbym miał green screena za plecami, co znacznie pomaga mi w prowadzeniu streamów, czy nagrywaniu treści na kanał, gdzie potrzebuję wrzucić siebie z czymś w tle. Wymaga jednak dobrego światła, ale nie jakiegoś wybitnego - u mnei to nawet nie jest profesjonalny softbox, a zwykła lapma z IKEI, z tym, ze z dużo mocniejszą żarówką ledową (bodajże 14,5W). Da sie bawić ustawieniami, ale ja jestem laikiem i mam po prostu ustawioną wysoką jakość a reszta domyślnie.

  • @knick6666
    @knick6666 11 месяцев назад +4

    Używam już od dłuższego czasu stable diffiusion i powiem że mój model "wyuczył się" robić zajebiste cyberpunkowe i kosmiczne obrazy
    Jedno z takich obrazów nam na profilowym na steam

  • @robertn3496
    @robertn3496 10 месяцев назад

    Ciekawy film. Masz ode mnie suba. 👍

  • @exopolity
    @exopolity 11 месяцев назад +2

    Siemka, zainteresuj się burn w RUST, bazują na webgpu które tłumaczy na VULKAN, METAL czy Dirext12 np. Ogólnie biblioteka na razie w fazie alpha ale wiele rzeczy już działa naprawdę świetnie.
    Jest to co prawda coś na zasadzie PyTorch czyli służy naukowcom czy devom, ale mogę ci coś wyskrobać na testy początkowo pod linux'a a przy większej chęci na Window'a, choć osobiście nie mam tego systemu w domu, korzystam tylko z Linux'a na co dzień do pracy i Mac'a rekreacyjnie.

    • @exopolity
      @exopolity 11 месяцев назад

      PS GUI przyszłościowo tez była by szansa pod benchmark ogarnąć w Tauri np. A w sumie rozwijając myśl co daje biblioteka burn w porównaniu do pytorch na której to bazuje niemal wszystko to to że zbudowany model od 0 można puścić na CPU, GPU

    • @piotrgo9939
      @piotrgo9939 10 месяцев назад

      Hej, czy podlinkujesz jakiś guide jak zainstalować na linux któreś z tych usług o których mówi Łukasz w klipie? Używam Minta 21.2.

    • @exopolity
      @exopolity 10 месяцев назад

      @@piotrgo9939 Niestety linki nie przechodzą albo Łukasz usunął mój komentarz :kekw: Więc nie jestem w stanie ci nic wysłać. Drugi raz komentarza nie chce mi się pisać więc tylko napisze że projekt plus github i na githubie jest zawsze instrukcja co i jak.

  • @JohnDoe-nu4wi
    @JohnDoe-nu4wi 10 месяцев назад +1

    fajną masz pasje, dzięki że sie nią dzielisz, super kanał :)

  • @meganoob223
    @meganoob223 11 месяцев назад +5

    Nie mogę się doczekać kiedy będzie retro, komp ze śmietnika czy vista ;)

  • @marcinkrol6506
    @marcinkrol6506 10 месяцев назад

    Wspominałeś o pamięci VRAM, że jest tutaj istotna, w takim razie jak rozumiem lepiej jest kupić przy składaniu kompa RTX 3060 zamiast nowszej karty RTX 4060? Czy może RTX 4060 ma jakieś przewagi i finalnie lepiej będzie sobie radził z algorytmami AI? Z góry dzięki za odpowiedź, pozdrawiam! :)

  • @9Skarbor9
    @9Skarbor9 8 месяцев назад +1

    poprosił bym o instrukcje z kobold bo ta strona jest chaotyczna, instrukcje nie jasne. błądzę i błądzę i cholera wie czy dobrze robie

  • @nihilistycznyateista
    @nihilistycznyateista 11 месяцев назад +5

    Hmm... warto spróbować. Mam nadzieję, że moja 3060 w wersji 12GB sobie sprawnie poradzi:)
    Ale mam inne pytanie - czy znasz drogi Łukaszu jaki dodatek do takiego modelu, czy ogólnei jakiś ciekawy program, współpracujący z jakimś asystentem głosowym - tak aby mi takie AI odpowiedziało nei tylko tekstem, ale i odczytało go na głos. Albo ogólnie coś, co po prostu czyta teksty z ekranu na głos.

    • @davydgorski5051
      @davydgorski5051 11 месяцев назад +1

      Raczej będzie ciężko

    • @nihilistycznyateista
      @nihilistycznyateista 11 месяцев назад

      @@davydgorski5051 nie musi być lekko, byle działało

    • @kilosera
      @kilosera 10 месяцев назад

      @@nihilistycznyateista oobabooga webgui plus dodatki. whisper do rozpoznawania mowy, elevenlabs do generowania audio (czytania tekstu). Elevenlabs jest płatny, ale są też jakieś darmowe odpowiedniki, szukaj tts (text to speech). Czy ogarniają język polski - nie mam pojęcia.

  • @GluXter
    @GluXter 11 месяцев назад +4

    @ZMASLO pytanie jak uważasz ma to sens na rx580?

    • @Mariousz1
      @Mariousz1 9 месяцев назад

      Mam rx590 i nie polecam. Zastanawiam się nad 4060 Ti 16GB żeby lepsze modele załadować. Na AMD więcej kombinowania i wydajnościowo kiepsko.

    • @GluXter
      @GluXter 9 месяцев назад +1

      @@Mariousz1 no zauważyłem i podobne podejście mam teraz

  • @Jacek..
    @Jacek.. 9 месяцев назад

    Co do programu Whisper Gui, to jaki język na wyjściu dostaniesz jeśli ustawisz na wejściu rozpoznawanie auto lub podasz jakiś język a odznaczysz j.angielski na wyjściu?
    Chodzi mi o to, że nie ma ten program opcji wyboru na jaki język ma być tłumaczony materiał. Tobie stworzył napisy pl przy pokazanym ustawieniu ale to jest transkrypcja a nie tłumaczenie. Z jakiego źródła pobierałeś program? W każdej z wersji na jaką trafiłem virustotal wykrył w pliku exe jakiegoś wirusa lub kilka sztuk. Są to fałszywe alerty?
    Z tego linka co podałeś w opisie też wykrył wirusy, sztuk 2.

  • @tomaszwaszka3394
    @tomaszwaszka3394 11 месяцев назад

    15:57 Tymczasem w napisach "...nie mamy żadnego paska PODSTĘPU" Chociaż jak się "wsłuchać" w tym co mówisz faktycznie - nie wiadomo skąd - "okociła się" gratisowa litera D (jak wiadomo co, lub Danuta)

  • @Jacek..
    @Jacek.. 8 месяцев назад

    A co tam trzeba jeszcze ładować do pozostałych pól w programie koboldcpp np. pole lora itd? A jeśli w tym wypadku nic a czasem trzeba to w jakich wypadkach trzeba?

  • @vahistar
    @vahistar 10 месяцев назад

    Cześć Zmaslo chciałbym zapytać czy była by możliwość abyś nagrał odcinek lub po prostu sprawdził ile zajmuje czasu generowanie tych obrazków na karcie K80?

  • @damiangrabowski435
    @damiangrabowski435 11 месяцев назад +1

    Wszytko pięknie i ładnie, bajery, buzery itp. Wszyscy yutuberzy technologiczni i nie tylko opowiadają jakie to nie jest fajne, jakie to daje możliwości, jak to zrobić w domowym zaciszu. Ale jakoś nie widzę materiałów o negtywnych tego aspektach, a takowe niestyty są. I w miarę jak sztuczna inteligencja będzie rozwijana, implementowana w coraz większej ilości urządzeń i oprogramowaniu i stanie się nieodłączną częścią życia człowieka, dobrze byłoby, aby informować ludzi nie tylko o pozytywnych jak i o negatywnych cechach AI.

    • @ZMASLO
      @ZMASLO  11 месяцев назад +1

      Tak, masz rację w zupełności, ale ten filmiki jest trochę nie o tym. Bo ten film ma pokazać jak to uruchomić u siebie i co można z tym zrobić, a nie mówię tu ogólnie o tym jakie pozytywy czy negatywy to niesie dla świata. To trochę tak jak z młotkiem można go użyć do wbijania gwoździ w swoich meblach albo wybić komuś szybę.

  • @tomaszeklolek8134
    @tomaszeklolek8134 11 месяцев назад +1

    U mnie na 9900K z 6700XT NMKD obciąża tylko procesor, karta śpi a generowanie trwa wieki. Jak kliknie AI implementations - for AMD GPUs to nie mogę wtedy wybrać modelname - brak wyboru stablediffusion. Jak ten program ogarnać żeby generowało na 6700xt a nie na procku?

    • @raven1439
      @raven1439 10 месяцев назад

      Pod Windows na AMD jest w chwili obecnej nie najlepiej, niby jest ten DIrectML od MS ale działa to bardzo słabo. Jak chcesz się pobawić w Stable Difusion na poważnie to polecam Linuksa, tam to działa znacznie lepiej, jego uruchomienie to zaledwie kilka krótkich poleceń. Nawiasem mówiąc polecam ComfyUI, do tworzenia obrazów, masz mnóstwo "workflow" od społeczności, a to znacznie ułatwia start.

  • @RO83RT-84
    @RO83RT-84 10 месяцев назад

    Ja bym chciał AI działające w tle w Windowsie, monitorujące pracę systemu i wszystkie jego procesy, tak aby wykrywał i monitorował błędy, oraz pomagał lub rozwiązywał by problemy z działaniem systemu i aplikacji. Apka czy gra się wywala to AI informuje nas co to spowodowało i pyta czy rozwiązać problem oraz mówi jak to robi. Coś co pomaga optymalizować system lub może powiedzieć co zmienić w konfiguracji sprzętowej aby wyciągnąć jeszcze więcej z obecnego sprzętu ale żeby znało też granice, że np. RAM-u nie ma sensu więcej ładować albo mocniejsze GPU tu nic nie zmieni itp.

  • @kembercik
    @kembercik 11 месяцев назад +1

    Ja od siebie mogę polecić RVC-GUI, który pozwala powiedzieć dowolną rzecz dowolnym głosem (prawie dowolnym głosem bo najpierw ktoś musi zrobić model RVC do tego głosu bo samemu trudno taki zrobić).

  • @marcinnadolski8502
    @marcinnadolski8502 11 месяцев назад

    fajny t-shirt, też chcę :P

  • @aleksandersaski5387
    @aleksandersaski5387 11 месяцев назад +9

    Zmaslo, daj poradnik jak i jakich programów można użyć do rozbierania panienek!

    • @looc3Z
      @looc3Z 11 месяцев назад +6

      Żadnych. Wystarczy dobra bajera (albo gruby portfel).

  • @demonicznyneverminder8711
    @demonicznyneverminder8711 11 месяцев назад +3

    Super materiał, dzięki!

  • @moonfine
    @moonfine 7 месяцев назад +1

    zrobisz taki poradnik ale na macOS ?

  • @konradzawada1625
    @konradzawada1625 17 дней назад

    Teraz aż prosi się o sprawdzenie czy akceleratory graficzne (pokroju NVIDIA Tesla) są lepsze w dziedzinie AI od swoich odpowiedników skonstruowanych typowo do celów gamingowych. Oczywiście dla kart w podobnym przedziale cenowym i/lub rocznikiem wypustu.

  • @SaseQ
    @SaseQ 10 месяцев назад

    Może w przyszłości jakiś materiał o home lab serwerze pod AI?

  • @LaxyGen
    @LaxyGen 10 месяцев назад

    Witaj. Dzięki za ten film. Czy znasz może "podobne" programy Ai do tworzenia prostych animacji? Pozdrawiam.

  • @brawlstarsjestnasz
    @brawlstarsjestnasz 9 месяцев назад +1

    Od kilku tygodni twoi widzowie czekają na film z linux gentoo

  • @demitri9830
    @demitri9830 11 месяцев назад +3

    Ooo, stary. Właśnie ostatnio szukałem czegoś o takiej tematyce.

  • @Adrianworks
    @Adrianworks 11 месяцев назад +1

    Zmaslo ja chce taką koszulkę , skąd masz.
    Wiesz może jak zrobić dual boot na rog ally asus?😅

  • @GremlineQPl
    @GremlineQPl 10 месяцев назад

    ZMASLO trochę za wcześnie wykonałeś ten filmik, 2 dni temu został wypuszczony na światło dzienne projekt ZLUDA który pozwala uruchomić programy oparte o biblioteki cuda na kartach amd bez modyfikacji programu

  • @GuzikPL4
    @GuzikPL4 11 месяцев назад +1

    Jak uruchomić stable diffusion na Debianie? Mam kartę AMD i co nie zrobię to torch się pluje że nie może użyć karty graficznej

    • @raven1439
      @raven1439 10 месяцев назад

      Jaki masz model karty graficznej?

    • @GuzikPL4
      @GuzikPL4 10 месяцев назад

      @@raven1439 AMD 7900 XT, ale chyba wiem w czym leżał problem. Próbowałem uruchomić na Pythonie 3.11 a musi być 3.10 żeby Torch działał.

  • @BRX_2137
    @BRX_2137 11 месяцев назад +4

    Ten chat RTX będzie działać na plikach tekstowych czy tylko na tekście? Bo jeżeli na plikach to czuję potencjał do szybkiego tłumaczenia niektórych gier. Sam próbowałem tłumaczyć grę przy użyciu GPT i faktycznie nieźle szło ale ten non stop przerywał, gubił wątek lub zmieniał język na jakiś inny niezwiązany z tematem. Dodatkowo ilość linijek jakie może przerobić jest ograniczona. A jest model wyspecjalizowany w tłumaczeniu? Może wrócę do tłumaczenia? Niesiesz czy własne AI ma limit znaków do przyjęcia?

    • @ZMASLO
      @ZMASLO  11 месяцев назад +2

      Z tego co rozmawiałem z inżynierami na CES to mówili o plikach tekstowych. Limit długości takiego pliku na pewno będzie bo póki co chyba każde Ai ma problem z bardzo dużą ilością tekstu. Myślę, że jeśli podzielić by teskt na kawałki może się udać taki proces. Trzeba poczekać aż wyjdzie i sprawdzić. Więcej o tym info w opisie!

    • @BRX_2137
      @BRX_2137 11 месяцев назад +1

      @@ZMASLO I tak daje to szansę na wiarę łatwe i szybkie tłumaczenie gier które normalnie by tłumaczenia się nigdy nie doczekały. 👍

    • @tomecki88
      @tomecki88 11 месяцев назад

      ​@@BRX_2137Świetna sprawa 😊

  • @MrGrimiReaper
    @MrGrimiReaper 10 месяцев назад

    Jak wrzucić bazę danych do tego Cobolt? Da radę nauczyć go obsługi strony i zarządzanie sklepem?

  • @trioz1819
    @trioz1819 10 месяцев назад

    1:55 już cue club miało bardziej zaawansowane ai gra o bilardzie z wirtualnym czatem z komputerem było bardziej zaawasnowane z roku 2000

  • @dominikkowal4654
    @dominikkowal4654 10 месяцев назад

    Siema zmaslo mam pytanie zrobisz jeszcze film o hackintoshu a konkretnie czy to się opłaca?

  • @Gexsi0
    @Gexsi0 10 месяцев назад +1

    Niezwykle ciekawy materiał, dzięki! Jeśli mogę coś polecić, to nie puszczaj na telewizorze za sobą filmików, bo rozpraszają. Sam kilka razy złapałem się na tym, że przestałem Cię słuchać, bo skupiłem się na driftach z tyłu :) Keep up the good work!

  • @salata123321
    @salata123321 11 месяцев назад +1

    Ja gram w totolotka dzieki AI i powiem wam, ze zakup 4090 zwrocil sie szybciej niz myslalem! Teraz to juz czysty zarobek... Ciagle wakacje i bujanie noga. Aktualnie mam 6 4090 grajacych w w totka i inne tego typu gry. Nie ma tygodnia bez wygranej... I bynajmniej nie sa to 3jki... :)))

    • @beczako
      @beczako 11 месяцев назад

      ciekawe :D

    • @maxns1980
      @maxns1980 11 месяцев назад +1

      wow nie wiedzialem ze AI to wrozka i przepowiada liczby 🤣🤣🤣

  • @Watykan2137
    @Watykan2137 5 месяцев назад +1

    Jak się nazywa ten model Ai który potrafi wygenerować te klucze?

  • @fabiankowalski2675
    @fabiankowalski2675 11 месяцев назад +1

    Super materiał

  • @kiwior_roe
    @kiwior_roe 10 месяцев назад

    Mega, osiagnales mega fajny poziom, jestem zachwycony, mozesz mi podlinkowac twojego githuba na priv ?

  • @Michal_Aniol
    @Michal_Aniol 10 месяцев назад

    Hej zlaslo zaczalem sie bawic tym programem i probowalem pobrac jakies inne wersje zeby obrazki nie wygladaly tak zle i przy convertowaniu jest blad co to moze powodowac? NMKD stable diffiusion

  • @Jacek..
    @Jacek.. 10 месяцев назад

    Czy w programie Whisper GUI wygenerowanie napisów pl do filmu z j. angielskim da taki sam efekt, czy lepszy jak napisy generowane na youtube ?

    • @sebastianstec
      @sebastianstec 10 месяцев назад

      O niebo lepszy

    • @Jacek..
      @Jacek.. 9 месяцев назад

      @@sebastianstec Na win 7 wywala błąd i się nawet nie uruchamia.

  • @nightfire2698
    @nightfire2698 10 месяцев назад

    No dobra, generowanie obrazków z tekstu, a co jeśli chcielibyśmy na czymś bazować załadować jakiś inny obrazek i go zmodyfikować lub wykorzystać twarze do edycji i modyfikacji i wrzuceniu w jakieś "nowe realia". Jak ma się sprawa generowania video?

    • @karwel8854
      @karwel8854 10 месяцев назад

      StabilityMatrix ma wbudowane img2video, ale to bardziej gif a nie wideo. Repozytorium Fooocus dostępne w aplikacji pozwala na takie rzeczy związane z twarzą.

  • @centurion7722
    @centurion7722 10 месяцев назад

    Dobrze że edukujesz ludzi, sam bawię się AI/ML od pól roku stablediffusion, whisper, xtts, wav2lip, xtts-webui, waifu-gui i masę innych, wszystko na gtx 1660S ;) bedę kupował 4070TIS. Niestety nvidia jak powiedziałeś góruje bezapelacyjnie w tym temacie. Co można wygenerować offline nie wygenerujesz online dużo ograniczeń i wszystko zostaje na ich serwerach.

  • @Sparky112
    @Sparky112 10 месяцев назад

    Polecacie jakiś model do KoboldCpp przeznaczony do tłumaczenia tekstu z/na angielski?

  • @Jacek..
    @Jacek.. 6 месяцев назад

    Mam już pewne doświadczenie z tymi darmowymi czatami offline i jak do tej pory trafiam na samych imbecyli a nie na normalną AI. To zupełnie inny poziom jak np. czat AI online. Trudno jest uzyskać jakąkolwiek pomoc. Co z tego, że mogę offline gadać bez końca jak bot się zaplącze i w kółko to samo gada albo nie pamięta co napisał zdanie wcześniej. lub nie umie policzyć do 30 itd.

  • @vasco3321
    @vasco3321 10 месяцев назад

    nie działa mi instalacja modeli, przy każdym mam że jest niekompletny

  • @Daniellata_live
    @Daniellata_live 10 месяцев назад

    a nie powiedziałeś o jan ai i w sumie możesz zrobić odcinek ze storny do szukania modeli ai

  • @tomaszstaron1233
    @tomaszstaron1233 9 месяцев назад

    Czy można taki czat szkolić ? Bardzo proszę od odpowiedz .

  • @Cyborg91Ninja
    @Cyborg91Ninja 10 месяцев назад

    Chętnie przejrzy historię Twojego przeglądania

  • @oskarmarcinowski8300
    @oskarmarcinowski8300 6 месяцев назад

    Mam paręnaście kart po koparkach można coś z tego ciekawego stworzyć ?

  • @Morti_FIX_Electro
    @Morti_FIX_Electro 10 месяцев назад

    Cześć,
    Często wspominasz że "dzisiejszy odcinek sponsoruje firma..." jak to się odbywa? Ty piszesz do nich że chcesz zrobić coś a oni wysyłają Ci sprzęt?
    Może jakiś odcinek właśnie o kulisach nagrywania na RUclips w dziedzinie elektroniki?
    Np skąd bierzesz sprzęt?
    Czy musisz go oddać?
    Albo co musisz zrobić żeby go nie oddawać?
    Itp. Itd.

  • @StephieCopper1985
    @StephieCopper1985 10 месяцев назад

    A NV Tesla K80 24GB VRAM się nada?
    Mam 3 sztuki w maszynach do Boinc.

  • @Bobi._.9
    @Bobi._.9 10 месяцев назад

    Hej zmaslo kiedy kolejne gotowanie na karcie graficznej?

  • @krystianpawlak5283
    @krystianpawlak5283 10 месяцев назад +1

    Zmaslo zajebisty programem do generowania obrazu stacjonarnie Easy Diffusion V3 bardzo rozbudowany i prosty w użyciu i interfejs przyjazny użytkownikowi

  • @Miszmasz_88
    @Miszmasz_88 10 месяцев назад

    Cześć Łukasz masz może jakas rade na temat kodu 15. Złożyłem pc'ta i cały czas bootuje mi system do kodu 15 a potem działą normalnie ale jest tak za każdym razem :( Już nie wiem co mam robić, niby system chodzi ale długoooo sie odpala :( Mam asusa b650 e e do tego ramy dominator 2x16gb 6000mhz. Profil expo 1 nie pomaga, 2 tez nie w biosie :(
    Dzięki.

  • @Foxxdash
    @Foxxdash 11 месяцев назад

    @zmaslo @8:42 podasz linki gdzie mozna pograc modele?

    • @ZMASLO
      @ZMASLO  11 месяцев назад

      Proszę: civitai.com/models

    • @Foxxdash
      @Foxxdash 11 месяцев назад

      Dzieki. pobrałem i wywala mi failed convert, a jak pobralem inny to pobralo mi gdzies 50gb i nie mam tego na liscie programu

  • @Orkus-autentic
    @Orkus-autentic 10 месяцев назад +1

    ja jako użytkownik gtx 1660ti powiem że da się odpalić stable diffusion tylko trzeba wpisać parametr startowy odpowiadający za pominięcie sprawdzania vram ale jaki on jest to nie powiem bo nie pamiętam

    • @marcindj3411
      @marcindj3411 9 месяцев назад

      nic nie zmieniałem a na 1060 działa doskonale :)

    • @Orkus-autentic
      @Orkus-autentic 9 месяцев назад +1

      @@marcindj3411 a bo to różnie bywa ja musiałem pominąć sprawdzanie vram nwm jak na dzisiejszy dzień to wyglada

  • @ernestjaroni8195
    @ernestjaroni8195 11 месяцев назад +2

    bardzo dobry odcinek🙂😉👍

  • @bartiko5741
    @bartiko5741 7 месяцев назад

    Cześć skąd pobrać tego dreamshapera?

  • @PanodWszystkiego
    @PanodWszystkiego 10 месяцев назад +1

    Jestem pod wrażeniem, jak to AI się rozwinęło przez tyle czasu. Na początku 2023 roku byłem do tego sceptycznie nastawiony, bo robił to... żle w większości sytuacji (a przynajmniej u mnie). A teraz nie dość, że to jest prostsze i lżejsze do generowania, to jeszcze wygląda to znacznie lepiej. Jak tylko będę miał czas, to zabawię się z tym raz jeszcze. :)

  • @radzioza
    @radzioza 10 месяцев назад

    Nie wiem dlaczego w Stable Diffusion po przełączeniu na Ai Implementation na ONNX dla kart AMD, nie mogę wybrać żadnego z modeli. Próbowałem konwertować modele na różne sposoby, bez żadnego rezultatu.
    Jakieś pomysły?

    • @dawidavrin561
      @dawidavrin561 10 месяцев назад

      Mam to samo, rozwiązałeś problem?

  • @KacperSieradziński
    @KacperSieradziński 11 месяцев назад +2

    Nie musimy instalować Pythona, ale warto! :-) Warto uczyć się programowania! :)

    • @ZMASLO
      @ZMASLO  11 месяцев назад +1

      Warto, ale pod ostatnim filmem gdzie tłumaczyłem instalację gia i pythona to miałem pół komentarzy w pytaniach bo coś komuś nie działało. Postawiłem więc na prostotę tym razem :D

    • @KacperSieradziński
      @KacperSieradziński 11 месяцев назад

      @@ZMASLO Mówisz o tym stable diffusion? Zaraz tam zerknę, jeśli ktoś jeszcze ma problem to chętnie pomogę ;)

  • @rekinpzw
    @rekinpzw 10 месяцев назад

    Witam ponieważ nie znam się na komputerach to mam pytanko do ciebie czy płyta główna msi b85 g43 procesor Intel cor i5 4570 plus pamięć RAM ddr3 8gb Nada się do podstawowych gier typu ETS2 Roblox i tym podobnych Pozdrawiam serdecznie

  • @Maciej.01
    @Maciej.01 10 месяцев назад

    czemu nie działa konwertowanie innych modeli poza dreamshaper?

  • @jacek-jan
    @jacek-jan 9 месяцев назад +1

    Na bank jest lepsze od paździerza od Google... Gemini np nie widzi różnicy międz stalinizmem a wegetarianizmem czy patriarchatem.

  • @xflashu8075
    @xflashu8075 11 месяцев назад

    Będzie 200k special?

  • @nightfire2698
    @nightfire2698 10 месяцев назад

    Czy są jakieś bazy danych którymi uczymi i aktualizujemy to AI?

  • @kszere
    @kszere 9 месяцев назад

    Jaka to dokładnie karta graficzna z nvidia rtx 4070 fe?

  • @TheBlackMaster
    @TheBlackMaster 10 месяцев назад +1

    Co myślisz o języku RUST ma to przyszłość?

  • @Servverek256
    @Servverek256 11 месяцев назад

    Zrobisz pełny film o windows server? 🖥

  • @Polojerolo
    @Polojerolo 10 месяцев назад

    Czy będzie nauka o chacie gpt i innych tego typu programach?😅

  • @marchewa1130
    @marchewa1130 10 месяцев назад

    o ile dobrze pamiętam, to 1660 Super ma 6GB VRAM'u a nie 8GB

  • @Mavczers
    @Mavczers 11 месяцев назад

    Skoro i tak masz automatic1111 to może możesz dodać tabelkę przy recenzjach dla wybranego przez siebie obrazka w 512x512 i 1024x1024? :)

    • @ZMASLO
      @ZMASLO  11 месяцев назад

      Myślę, o tym żeby dodać jakieś benchmarki Ai przy GPU - to jest dziedzina która się rozwija i warto wiedzieć jak te karty wypadają. Czy to będzie A1111 nie zdecydowałem. W idealnym świecie chciałbym, żeby to było coś co zadziała na każdym GPU.