Edukacyjnie materiał świetny ale.... Whisper potrzebuje mnóstwo czasu do zamiany głosu na tekst (dopiero teraz zauważyłem na filmie cięcia) , do tego wręcz gotuje procesor. Po ustawieniu HA Cloud jest lepiej, ale nie o to tu chodzilo lecz o prace lokalną. Najgorsza jest jednak jakość konwerjsi Whispera - tworzy słowa których nie powstydzili by się politycy na konferencji prasowej. Do tego dochodzi niechęć asystenta do poprawnej interpretacji nawet poprawnie rozpoznanego tekstu i katastrofa gotowa. Na tym etapie to ciekawostka, ale do użytecznego narzędzia droga daleka. Wielkie dzięki dla autora filmu za poświęcony czas! Znów się czegoś nauczyłem!
Świetnie! bardzo dobry poradnik z kolejnym elementem do rozbudowy HA - brawo. A przy okazji wspominając o dodatku PIPER - wydaje się że jest to dobra alternatywa do TTS Google z głosem "męskiej" sztucznej inteligencji którą nie każdy może zaakceptować ( a wręcz wielu krytykuję kierunek zmiany google). Jeżeli znasz lub używasz inne TTS - może reservo lub jeszcze coś innego to mógłbyś się podzielić wiedzą - a może jakiś poradnik nakręcisz? Ja szukam alternatywy do komunikatów z automatyzacji które mam przygotowane - ale Reverso często ucina mi komunikaty.
Z niecierpliwością czekam na kolejny materiał z wykorzystaniem MicroWakeWord. To zdejmie sporo obciążenia z procesora platformy HA i zmniejszy ruch w sieci LAN.
Mało tego, do końca roku ekipa od Home Assistanta ma wypuścić dedykowany programowalny głośnik, coś a'la Google Home Mini :) Mocno liczę na to, że jakościowo będzie super, bo Atom Echo to bardziej takie urządzenie do demonstracji tej technologii
Ogólnie widziałem możliwość zakupu płytki z esp32 do wymiany w Google Nest mini - fajne rozwiązanie :) widziałeś? Onju Voice. Czekam z niecierpliwości na informację na temat produktu o którym mówisz.
@@HejSmart Tak, nawet jakiś czas temu mocno zastanawiałem się nad zakupem tej płytki, ale odstraszyła mnie konieczność zamówienia minimum 5 sztuk z PCBWay :D Także na razie wstrzymuję się do czasu wypuszczenia głośnika od ekipy Home Assistant :)
Hej, czy takich urządzeń czyli M5Atom Echo może być wiele w jednej sieci i HO? Tj. czy w każdym pomieszczeniu w domu możemy mieć oddzielny taki M5Atom i nie będzie się ze sobą "gryzły"?
każdy Atom Echo dostaje przy instalacji inny identyfikator w nazwie, więc możesz ich kilka zintegrować. One nie mają bardzo dużej czułości więc nie powinien Ci wykrywać z innego pomieszczenia.
Można dodać ile się chce. Co więcej HA wie jakie jest przypisane pomieszczenie urządzenia, które wykryło komendę i zareaguje stosownie do tego. Tj. w salonie gdy powiemy zaświeć światła to zaświeci w salonie i nie będzie się dopytywał o miejsce.
Jakieś dwa lata temu bawiłem się w smart home, ale na dłuższą metę nie miało to dla mnie praktycznego zastosowania. Generalnie większy sens gdyby wyposażyć HA w lokalny LLM. Rozpoznawanie mowy to dobry kierunek, ale dobrym rozwinięciem byłoby zaadaptowanie aplikacji do automatyzacji przepływu pracy i konfigurowanie asystentów AI tak jak w n8n. Node-RED był pierwowzorem ale to już bardzo leciwy system w porównaniu z obecnymi rozwiązaniami z mnóstwem integracji. I dopiero taki ekosystem sterowanym głosem i "rozumiejący" naszą potoczną mowę, który można łatwo konfigurować miałby potencjał w ułatwieniu codziennego życia, to już by nie służyło tylko jako zabawka do włączania/wyłączania światła smartfonem ale wykonywania na nasze polecenie prace biurowe czy tam inne czynności, których ilość zastosowań ogranicza tylko wyobraźnia. Ale puki co to sfera marzeń ze względu monopol Nvidii, a o za tym idzie absurdalne ceny kart GPU - niezbędne aby taki system płynnie działał.
Tak, można tak zrobić, natomiast musisz zmienić kod poprzez esp home - tutaj masz temat: community.home-assistant.io/t/esphome-voice-assistant-speech-output-to-home-assistant-media-player/588337/25
Język polski jest jednym z trudniejszych do analizy. Ja wybrałem dość wysoki model analizy, ale jak by wybrać niższy to czas reakcji będzie lepszy. Jak wybierzesz instalacje Generic x86-64 to powinno być ok.
Hej super te filmiki dużo sie uczę od Ciebie sub leci zainstalowałem HA na malice pi 4 i kupiłem tableta zeby go na scianie powiesic i mam taki problem ze na nim jedna karta się nie wyswietla a pozostałe są dodam ze na telefonie jak i komputerze wszystkie karty działaja ,w zakładce karty widocznsc tez jest zaznaczony tablet zeby pokazywało doradzisz cos pozd
@@HejSmart eeeeej, no to powinno śmigać "bardziej" bo to mocny komp jak na HA. Ciekawostka ale chyba jednak się nie skuszę bo kompa do HA mam porównywalnego HP G3 260.
@HejSmart stawiam dom i właśnie zastanawiam się czy iść w rozdzielnice czy dopuszkowo wszystko ale wtedy chyba takie kontaktrony będą musiały być na baterie?
Tak, można. Przy wysyłaniu powiadomienia (Odtwarzanie Text-To-Speach na konkretne urządzenie) masz możliwość wyboru: Google Translate, Home Assistant Cloud oraz Piper.
Czy próbowałeś robić model tflite, ale dla atom echo? ten co ma 200kB wywala kompilację. orginalne które są w kodzie firmware mają ~100kB. Chodzi o to, żeby wakeword był rozpoznawany na atomie echo, a nie cały czas odpalona transmisja mikrofonu do serwera i obciążenie serwera, które przy kilku asystentach już jest duże
Kiepsko rozpoznaje polskie słowa dodatek Whisper. Mówię sufit, rozpoznaje sofit. Mówię Justyna, rozpoznaje Jestyna, itp., itd. A do tego działa z dużym opóźnieniem. Może kiedyś coś z tego będzie, teraz to tylko ciekawostka. Nie mam ATOM Echo M5Stack, ale testuje ten dodatek przez komputer i telefon. rozpoznawanie polskiej mowy jest koszmarne.
@@HejSmart Korzystam z tiny-int8. Przed chwilą sprawdziłem też small-int8. Rezultat taki sam, zamiast sufit to rozpoznaje sofit. Reaguje również z dużym opóźnieniem. HA mam postawione na Qnap, raczej dość szybkim.
Tak, jest źle. HA mam postawione na Qnap, wszystko dobrze działa w porównaniu do okresu, gdzie był na PI. Chciałem kupić to urządzonko, ale widać, że nie ma to sensu.
Testowałem tego typu rozwiązanie, i niestety wydajność i responsywnosc oraz dokładność rozpoznawania mowy jest nieakceptowalna… Nie wiem na czym masz HA, u mnie VMka na qnapie. Jedyna opcja na akceptowalną wydajność to chmura nabucasa. Czyli inna chmura
@ ok. Ja testowałem speech to text na MacOS z m2 i to działało nieźle już, ale niestety nie udało mi się tego zbanglać tak aby whisper z peceta (i to konkretny build) obsłużył zapytania z HA. Generalnie z tego co widziałem na filmach to najlepszy efekt daje ichniejsza chmura
@ da się zrobić coś po stronie HA, czyli dodanie wagi do nazw encji i pomieszczeń zdefiniowanych w HA. Ale nie w wersji whispera które jest wrzucone w HA w tym momencie… to poprawi. Ale ogólnie wydajność do STT wymaga sporej mocy obliczeniowej, to się raczej nie zmieni
Ok, dziękuję za sugestie. Postaram się zrobić zestawienia porównawcze różnych rozwiązać. Nie tylko w tym temacie, ale innych dotyczących Smart Home również.
Dzięki, że Ci chce. Każdy Twój film, to kolejna cegiełka w mojej bazie wiedzy o SH 👍
Dziękuję :)
Edukacyjnie materiał świetny ale.... Whisper potrzebuje mnóstwo czasu do zamiany głosu na tekst (dopiero teraz zauważyłem na filmie cięcia) , do tego wręcz gotuje procesor. Po ustawieniu HA Cloud jest lepiej, ale nie o to tu chodzilo lecz o prace lokalną. Najgorsza jest jednak jakość konwerjsi Whispera - tworzy słowa których nie powstydzili by się politycy na konferencji prasowej. Do tego dochodzi niechęć asystenta do poprawnej interpretacji nawet poprawnie rozpoznanego tekstu i katastrofa gotowa. Na tym etapie to ciekawostka, ale do użytecznego narzędzia droga daleka.
Wielkie dzięki dla autora filmu za poświęcony czas! Znów się czegoś nauczyłem!
mega!!! beam me up do kibelka 🤣 to jest must have
Świetny materiał.
dzięki :)
Czekałem na coś takiego. 🎉
będą kolejne filmy :) mam nadzieję, że też przydatne
Świetnie! bardzo dobry poradnik z kolejnym elementem do rozbudowy HA - brawo. A przy okazji wspominając o dodatku PIPER - wydaje się że jest to dobra alternatywa do TTS Google z głosem "męskiej" sztucznej inteligencji którą nie każdy może zaakceptować ( a wręcz wielu krytykuję kierunek zmiany google). Jeżeli znasz lub używasz inne TTS - może reservo lub jeszcze coś innego to mógłbyś się podzielić wiedzą - a może jakiś poradnik nakręcisz? Ja szukam alternatywy do komunikatów z automatyzacji które mam przygotowane - ale Reverso często ucina mi komunikaty.
Super!!!
dziękuję :)
Z niecierpliwością czekam na kolejny materiał z wykorzystaniem MicroWakeWord. To zdejmie sporo obciążenia z procesora platformy HA i zmniejszy ruch w sieci LAN.
Przetestuje :) ale w tym roku nie zdążę nagrać o tym filmu
Mało tego, do końca roku ekipa od Home Assistanta ma wypuścić dedykowany programowalny głośnik, coś a'la Google Home Mini :) Mocno liczę na to, że jakościowo będzie super, bo Atom Echo to bardziej takie urządzenie do demonstracji tej technologii
Ogólnie widziałem możliwość zakupu płytki z esp32 do wymiany w Google Nest mini - fajne rozwiązanie :) widziałeś? Onju Voice. Czekam z niecierpliwości na informację na temat produktu o którym mówisz.
@@HejSmart Tak, nawet jakiś czas temu mocno zastanawiałem się nad zakupem tej płytki, ale odstraszyła mnie konieczność zamówienia minimum 5 sztuk z PCBWay :D Także na razie wstrzymuję się do czasu wypuszczenia głośnika od ekipy Home Assistant :)
A gdzie dokopałeś się do tej informacji
Nigdzie nie mogę jej namierzyć? Może mają jakąś aktualizacje odnośnie terminu i ogólnie postępu prac.. ?
Hej, czy takich urządzeń czyli M5Atom Echo może być wiele w jednej sieci i HO? Tj. czy w każdym pomieszczeniu w domu możemy mieć oddzielny taki M5Atom i nie będzie się ze sobą "gryzły"?
każdy Atom Echo dostaje przy instalacji inny identyfikator w nazwie, więc możesz ich kilka zintegrować. One nie mają bardzo dużej czułości więc nie powinien Ci wykrywać z innego pomieszczenia.
Można dodać ile się chce. Co więcej HA wie jakie jest przypisane pomieszczenie urządzenia, które wykryło komendę i zareaguje stosownie do tego. Tj. w salonie gdy powiemy zaświeć światła to zaświeci w salonie i nie będzie się dopytywał o miejsce.
@@HejSmart z jakiej maksymalnej mniej więcej odległości to lapie żeby nie krzyczeć ? :>
Jakieś dwa lata temu bawiłem się w smart home, ale na dłuższą metę nie miało to dla mnie praktycznego zastosowania. Generalnie większy sens gdyby wyposażyć HA w lokalny LLM. Rozpoznawanie mowy to dobry kierunek, ale dobrym rozwinięciem byłoby zaadaptowanie aplikacji do automatyzacji przepływu pracy i konfigurowanie asystentów AI tak jak w n8n. Node-RED był pierwowzorem ale to już bardzo leciwy system w porównaniu z obecnymi rozwiązaniami z mnóstwem integracji. I dopiero taki ekosystem sterowanym głosem i "rozumiejący" naszą potoczną mowę, który można łatwo konfigurować miałby potencjał w ułatwieniu codziennego życia, to już by nie służyło tylko jako zabawka do włączania/wyłączania światła smartfonem ale wykonywania na nasze polecenie prace biurowe czy tam inne czynności, których ilość zastosowań ogranicza tylko wyobraźnia. Ale puki co to sfera marzeń ze względu monopol Nvidii, a o za tym idzie absurdalne ceny kart GPU - niezbędne aby taki system płynnie działał.
Nie chcesz wrócić do zabawy ze Smart Home? W Home Assistant dużo nowości od tamtej pory wprowadzili.
@@HejSmart Wrócę, wrócę jak czas pozwoli to coś pokażę ciekawego z HA :)
Wszystko ładnie, ale whisper działa powoli, da się to jakoś przyspieszyć?
A Czy da się ustawić tak, żeby wszystkie odpowiedzi atom echo były przez np. głośnik google albo jakiś inny sprzęt? i nie chodzi mi o automatyzacje.
Tak, można tak zrobić, natomiast musisz zmienić kod poprzez esp home - tutaj masz temat: community.home-assistant.io/t/esphome-voice-assistant-speech-output-to-home-assistant-media-player/588337/25
Jak mocny trzeba mieć sprzęt pod HA by delay był tak z 3x krótszy?
Język polski jest jednym z trudniejszych do analizy. Ja wybrałem dość wysoki model analizy, ale jak by wybrać niższy to czas reakcji będzie lepszy. Jak wybierzesz instalacje Generic x86-64 to powinno być ok.
na czym masz postawiony serwer HA . u mnie na terminalu dell Whisper nie chce się uruchomić
Ja mam bezpośrednio HAOS zainstalowane na Lenovo M710q i5 7Gen 16GB 256GB SSD.
Zobacz proszę logi Wispera.
@HejSmart w logi pokazywały komunikat że mój procesor nie obsługuje czegoś tam 😁😁😁 więc zostały usunięte te integracje
Mozna zamiast atom5 do polskich komemd glosowych wykorzystac np. Glosnik google home mini?
@@sewerzdw tylko różnica jest w cenie. Home mini kosztuje 3x drożej.
Jest projekt, który w Google Nest Mini wymieniasz płytkę główna i od wtedy jest programowalny. Projekt nazywa się Onju Voice
@@mcincin bardziej pytalem czy można użyć glosnik google home mini o wartosci +- 130zl który już mam aby nauczyć go polskich komend.
Hej super te filmiki dużo sie uczę od Ciebie sub leci zainstalowałem HA na malice pi 4 i kupiłem tableta zeby go na scianie powiesic i mam taki problem ze na nim jedna karta się nie wyswietla a pozostałe są dodam ze na telefonie jak i komputerze wszystkie karty działaja ,w zakładce karty widocznsc tez jest zaznaczony tablet zeby pokazywało doradzisz cos pozd
W filmie powiedziałeś, że na RP może być problem z wydajnością. Na czym w takim razie polecasz zainstalować HA, żeby było tak dobrze, jak u Ciebie?
Przecież u niego to się wleczejak smród po gaciach :|
Ja korzystam z bezpośredniej instalacji HAOS na Lenovo M710q i5 7Gen 16GB 256GB SSD - wybrałem model "medium"
@@HejSmart eeeeej, no to powinno śmigać "bardziej" bo to mocny komp jak na HA.
Ciekawostka ale chyba jednak się nie skuszę bo kompa do HA mam porównywalnego HP G3 260.
Czy z ESP32-S3-BOX-3 podobnie się konfiguruje?
Tak, na esphome.io - wybierasz rodzaj instalacji i urządzenie.
Zrobisz jakiś tutorial jak ogarnac esphome i np podłączyć kontaktrony? Czy jednak wolisz bezprzewodowe rozwiązania?
Wolę bezprzewodowe, ale mogę przygotować coś na ten temat o czym piszesz :)
@HejSmart stawiam dom i właśnie zastanawiam się czy iść w rozdzielnice czy dopuszkowo wszystko ale wtedy chyba takie kontaktrony będą musiały być na baterie?
Czy M5Atom może pracować jednocześnie jako jako player? Jeśli tak to czy testowałeś głośność tego urządzenia?
Na esphome.io możesz wybrać instalację jako "Media Player" i zaprogramować Atom Echo jako odtwarzacz muzyki - nie testowałem tego.
To jest bardzo słaby głośniczek… do muzyki się nie nadaje
Czy dodatek który zamienia tekst na mowę po polsku można wykorzystać do powiadomień głosowych po polsku na Google nest mini?
Tak, można. Przy wysyłaniu powiadomienia (Odtwarzanie Text-To-Speach na konkretne urządzenie) masz możliwość wyboru: Google Translate, Home Assistant Cloud oraz Piper.
Czy próbowałeś robić model tflite, ale dla atom echo? ten co ma 200kB wywala kompilację. orginalne które są w kodzie firmware mają ~100kB. Chodzi o to, żeby wakeword był rozpoznawany na atomie echo, a nie cały czas odpalona transmisja mikrofonu do serwera i obciążenie serwera, które przy kilku asystentach już jest duże
Nie próbowałem. Ale zaciekawiłeś mnie, dokupie 2 atomy i przetestuje.
Tworzenie własnego słowa wyzwalającego kończy się błędem, aktualnie nie działa.
Hej, też miałem pewnego razu taki problem. Z tego co pamiętam to chyba wystarczyło zmienić przeglądarkę lub wyczyścić cookie. Sprawdź proszę.
@@HejSmart Nie pomogła zmiana przeglądarki, kompa i konta, obszedłem problem instalując dodatek snowboy.
wow
Kiepsko rozpoznaje polskie słowa dodatek Whisper. Mówię sufit, rozpoznaje sofit. Mówię Justyna, rozpoznaje Jestyna, itp., itd. A do tego działa z dużym opóźnieniem. Może kiedyś coś z tego będzie, teraz to tylko ciekawostka. Nie mam ATOM Echo M5Stack, ale testuje ten dodatek przez komputer i telefon. rozpoznawanie polskiej mowy jest koszmarne.
Z którego modelu rozpoznawania korzystasz? To ważne. Przetestuj inne modele.
@@HejSmart Korzystam z tiny-int8. Przed chwilą sprawdziłem też small-int8. Rezultat taki sam, zamiast sufit to rozpoznaje sofit. Reaguje również z dużym opóźnieniem. HA mam postawione na Qnap, raczej dość szybkim.
@@HejSmart Sprawdziłem jeszcze model small. Efekt taki sam, z tym, że czas reakcji się wydłuża.
A czy sprawdzałeś medium?
Tak, jest źle. HA mam postawione na Qnap, wszystko dobrze działa w porównaniu do okresu, gdzie był na PI. Chciałem kupić to urządzonko, ale widać, że nie ma to sensu.
Testowałem tego typu rozwiązanie, i niestety wydajność i responsywnosc oraz dokładność rozpoznawania mowy jest nieakceptowalna… Nie wiem na czym masz HA, u mnie VMka na qnapie. Jedyna opcja na akceptowalną wydajność to chmura nabucasa. Czyli inna chmura
Mam bezpośrednio średnia instalacje HAOS na komputerze Lenovo z procesorem i5
@ ok. Ja testowałem speech to text na MacOS z m2 i to działało nieźle już, ale niestety nie udało mi się tego zbanglać tak aby whisper z peceta (i to konkretny build) obsłużył zapytania z HA. Generalnie z tego co widziałem na filmach to najlepszy efekt daje ichniejsza chmura
@@sierpus myślę, że to też będzie ewoluować i działać lepiej z biegiem czasu.
@ da się zrobić coś po stronie HA, czyli dodanie wagi do nazw encji i pomieszczeń zdefiniowanych w HA. Ale nie w wersji whispera które jest wrzucone w HA w tym momencie… to poprawi. Ale ogólnie wydajność do STT wymaga sporej mocy obliczeniowej, to się raczej nie zmieni
brakuje odniesienia sie do innych rozwiazan na rynku czy sa w ogole i po ile
Ok, dziękuję za sugestie. Postaram się zrobić zestawienia porównawcze różnych rozwiązać. Nie tylko w tym temacie, ale innych dotyczących Smart Home również.
Filmik super, ale klawiaturę masz !@#!@#!@ jak stół w TVN ;) Pozdrowienia
Całkiem nieźle się sprawdza :)
Na alledrogo moduł znika w zastraszającym tempie po emisji filmu 😅
HaHa ;)
@@HejSmart wcale się nie zdziwię jak nagle będzie 2 razy droższe. Już to przerabiałem kiedyś z pewnym zasilaczem. Prawo Merfiego.
To się trochę zdziwią wydajnością kupujący…
Super. 😊