Grzegorz Dudek
Grzegorz Dudek
  • Видео 19
  • Просмотров 35 540
Rekurencyjne Sieci Neuronowe
Prezentacja ma na celu demonstrację nowoczesnych rozwiązań sieci rekurencyjnych z mechanizmem bramkowania na tle klasycznych sieci rekurencyjnych. Bramkowane sieci rekurencyjne wyposażone są w pamięć dynamiczną i współdzielone wagi, mogą obsługiwać dane sekwencyjne o różnej długości i modelować ich dynamikę. Są szczególnie przydatne do predykcji złożonych szeregów czasowych, n.p. zawierających wiele cykli sezonowych. Prezentacja pokazuje klasyczne rozwiązania sieci LSTM i GRU oraz ich modyfikacje implementujące mechanizmy opóźnienia i uwagi (attention). Przedstawiono nowe architektury sieci rekurencyjnych i rozwiązania hybrydowe angażujące sieci.
Просмотров: 1 180

Видео

Konwolucyjne Sieci Neuronowe
Просмотров 2,9 тыс.Год назад
Konwolucyjne sieci neuronowe reprezentują algorytmy uczenia głębokiego, które w ostatnich latach dominują w dziedzinie uczenia maszynowego i sztucznej inteligencji. Uczenie głębokie realizowane wieloetapowo w architekturze hierarchicznej pozwala na wykrywanie podstawowych i wtórnych cech rozpoznawanych obiektów, reprezentujących różne poziomy abstrakcji (uczenie się reprezentacji). Dzięki temu ...
STD: A Seasonal-Trend-DispersionDecomposition of Time Series
Просмотров 259Год назад
This is a video presentation for the paper "STD: A Seasonal-Trend-DispersionDecomposition of Time Series". arxiv.org/abs/2204.10398 Abstract: The decomposition of a time series is an essential task that helps to understand its very nature. It facilitates the analysis and forecasting of complex time series expressing various hidden components such as the trend, seasonal components, cyclic compon...
Metody prognozowania szeregów czasowych oparte na podobieństwie wzorców cykli sezonowych
Просмотров 1,2 тыс.2 года назад
Prognozowanie szeregów czasowych, leżące u podstaw przewidywania tego w jaki sposób w przyszłości będą kształtowały się różne procesy i zjawiska, jest problemem niezwykle istotnym w ekonomii, w finansach, biznesie, demografii, przemyśle, meteorologii itp. Wady i ograniczone możliwości statystycznych modeli prognozowania skłaniają nas do zainteresowania się bardziej elastycznymi modelami uczenia...
Randomizowane sieci neuronowe
Просмотров 2502 года назад
Randomizowane sieci neuronowe są alternatywą dla sieci uczonych metodami wstecznej propagacji błędu. Stały się popularne w ostatnich latach ze względu na szybkość uczenia się, dobrą generalizację i łatwość implementacji. Sieci randomizowane nie stosują do uczenia metod gradientowych, które są czasochłonne i wrażliwe na lokalne minima funkcji błędu. W podejściu randomizowanym wagi i progi neuron...
Ensembles of Randomized Neural Networks for Pattern-based Time Series Forecasting
Просмотров 2132 года назад
This is a video presentation for the paper "Ensembles of Randomized Neural Networks for Pattern-based Time Series Forecasting". The work was presented at the 28th International Conference on Neural Information Processing (ICONIP2021), December 8-12, 2021, Bali, Indonesia (iconip2021.apnns.org/). The paper: arxiv.org/abs/2107.04091 Abstract: In this work, we propose an ensemble forecasting appro...
Data-Driven Learning of Feedforward Neural Networks with Different Activation Functions
Просмотров 903 года назад
This is a video presentation for the paper "Data-Driven Learning of Feedforward Neural Networks with Different Activation Functions". The work was presented at the 20th International Conference on Artificial Intelligence and Soft Computing ICAISC, June 20-24, 2021 (www.icaisc.eu/). Abstract: This work contributes to the development of a new data-driven method (D-DM) of feedforward neural networ...
Randomized Neural Networks for Forecasting Time Series with Multiple Seasonality
Просмотров 1693 года назад
This is a video presentation for the paper "Randomized Neural Networks for Forecasting Time Series with Multiple Seasonality". The work was presented at International Work Conference on Artificial Neural Networks IWANN, June 16-18, 2021 (iwann.uma.es/). Abstract: This work contributes to the development of neural forecasting models with novel randomization-based learning methods. These methods ...
Autoencoder based Randomized Learning of Feedforward Neural Networks for Regression
Просмотров 2063 года назад
This is a video presentation for the paper "Autoencoder based Randomized Learning of Feedforward Neural Networks for Regression". The work was presented at International Joint Conference on Neural Networks IJCNN, 18-22 July 2021. Abstract: Feedforward neural networks are widely used as universal predictive models to fit data distribution. Common gradient-based learning, however, suffers from ma...
Drzewa regresyjne - budowa, działanie i aplikacje
Просмотров 1,1 тыс.3 года назад
Prezentacja drzew regresyjnych. 1. Informacje wstępne 2. Idea dziłania 3. Konstrukcja drzewa regresyjnego 4. Proces regresji za pomocą drzewa 5. Testy w węzłach drzewa 6. Przycinanie drzewa 7. Przykłady zastosowania drzewa regresyjnego 8. Podsumowanie
3ETS+RD-LSTM: A New Hybrid Model for Electrical Energy Consumption Forecasting
Просмотров 7943 года назад
This is a video presentation for the paper "3ETS RD-LSTM: A New Hybrid Model for Electrical Energy Consumption Forecasting". The work was presented at the 27th International Conference on Neural Information Processing (ICONIP2020), November 18 - 22, 2020. The paper: ... Abstract: This work presents an extended hybrid and hierarchical deep learning model for electrical energy consumption forecas...
Generating Random Parameters in Feedforward Neural Networks with Random Hidden Nodes
Просмотров 1143 года назад
This is a video presentation for the paper "Generating Random Parameters in Feedforward Neural Networks with Random Hidden Nodes: Drawbacks of the Standard Method and How to Improve It" The work was presented at the 27th International Conference on Neural Information Processing (ICONIP2020), November 18 - 22, 2020. The paper: arxiv.org/abs/1908.05864 Abstract: The standard method of generating ...
Are Direct Links Necessary in Random Vector Functional Link Networks for Regression?
Просмотров 3683 года назад
This is a video presentation for the paper "Are Direct Links Necessary in Random Vector Functional Link Networks for Regression?" The work was presented at the 19th International Conference on Artificial Intelligence and Soft Computing, October 12-14, 2020. The paper: arxiv.org/abs/2003.13090, link.springer.com/chapter/10.1007/978-3-030-61401-0_6. Abstract: A random vector functional link netwo...
Pattern-based Long Short-term Memory for Mid-term Electrical Load Forecasting
Просмотров 4944 года назад
This is a video presentation for the paper "Pattern-based Long Short-term Memory for Mid-term Electrical Load Forecasting". The work was presented at IEEE World Congress on Computational Intelligence WCCI 2020, International Joint Conference on Neural Networks IJCNN. The paper: arxiv.org/abs/2004.11834. Abstract: This work presents a Long Short-Term Memory (LSTM) network for forecasting a month...
Data-Driven Randomized Learning of Feedforward Neural Networks
Просмотров 1404 года назад
This is a video presentation for the paper "Data-Driven Randomized Learning of Feedforward Neural Networks". The work was presented at IEEE World Congress on Computational Intelligence WCCI 2020, International Joint Conference on Neural Networks IJCNN. The paper: arxiv.org/abs/1908.03891 Abstract: Randomized methods of neural network learning suffer from a problem with the generation of random ...
Drzewa klasyfikacyjne. Część 1 - budowa i działanie
Просмотров 3,7 тыс.4 года назад
Drzewa klasyfikacyjne. Część 1 - budowa i działanie
Drzewa klasyfikacyjne. Część 2 - implementacja w Matlabie, krok po kroku, i aplikacje
Просмотров 8694 года назад
Drzewa klasyfikacyjne. Część 2 - implementacja w Matlabie, krok po kroku, i aplikacje
Wykład na temat ewolucyjnych metod optymalizacji
Просмотров 6 тыс.6 лет назад
Wykład na temat ewolucyjnych metod optymalizacji
Wykład na temat sztucznych sieci neuronowych jako aproksymatorów funkcji
Просмотров 16 тыс.6 лет назад
Wykład na temat sztucznych sieci neuronowych jako aproksymatorów funkcji

Комментарии

  • @ewarystawecki3631
    @ewarystawecki3631 20 дней назад

    Świetny materiał, najbardziej zrozumiały jaki znalazłem :)

  • @mariusz9515
    @mariusz9515 Месяц назад

    Panie Grzegorzu . Podstawą SI nie jest topologia ale umiejętność implementacji danych wejściowych .Bo SI mają inteligencję zeero i nic nie zrobią jak dane wyjściowe są nielogiczne . POlecan zrzumienie książki Mastersa .Pozdrawiam

    • @marcin6987
      @marcin6987 Месяц назад

      Mógłby Pan podać tytuł książki Mastersa i imię tego autora? Szukałem tej książki w internecie ale nie mogę nic znaleźć

    • @mariusz9515
      @mariusz9515 Месяц назад

      Sieci neuronowe w praktyce .Programowanie w języku C++.Pozdrawiam . Dla nasludzi od sieci neuronowych to elementarz . Metody Bayesa i inne

    • @mariusz9515
      @mariusz9515 Месяц назад

      Żeby projektować sieci ( mam 21 struktur dla pewnej szacownej instytucji polskiej ,rozpoznawanie swój obcy . Stąd litera Z na sprzęcie radzieckim . Ja to w 2002 roku przerobiłem na poligonie trzeba pojąć struktury ludziego mózgu i znać obróbkę danych wejściowych władać csnami i kodem Greya jako podstawy

    • @mariusz9515
      @mariusz9515 Месяц назад

      A o sieciach neuronowych radzieckich nie powiedzal Pan ani słowa . W Su27 są tylko dwa światełka -czerwone i zielone , SN po zdjęciu cyfrowym rozppoznaje swój-obcy . Stą namalowane ręcznie litery Z albo X na polach jeździ 200 pojazdów takich samych pokrytych błotem . jak kamera znajdzie jeden poksel baiały to naciska po czerwonym świetle . Pilot nie ma czasu kombinować . Odpala .Świetny sposób . To sieci rekurencyjne z jednostaki kontekstu . Istat a sieci neuronowych rekurencyjnych są jednostki kontekstu . To nie proste . Masters

    • @mariusz9515
      @mariusz9515 Месяц назад

      W Mastersie to wszystko o tych lampkach jest opisanee . Zielone -nasz .Czerwoone -obcy i naciśnij przycisk.

  • @mariusz9515
    @mariusz9515 Месяц назад

    Panie Grzegorzu . Ja kończyłem Instytut Zastosowań Technik KOmputerowych techniki AI UMK w Toruniu w 2002 roku i pracuję od 20 lat w sieciach TLRN Jordana Normana i Zipsera oraz mam 20 swoich technologii . TO żadne nowoczesne sieci . Ja od 124 lat na sieciach TLRN pracuję na sieciach temporalnych z atraktorami .Technologie stare od 40 lat .ze względu na blokadę USA . My to ju z 20 lat temu mamy w oprogramowaniu .Ja pracuję na programach Saxena . Jednostki kontekstu i sieci temporalne TLRN to sprawa umijętności myślenia a nie matematyki . To się modeluje w głowie .Pozdrawiam i życzę sukcesów. 20 lat temu te podstawy ,ten elementarz kończyłem jako studia specjalistyczne . Mam kilka własnych rozwiązań .Pozddrawiam

  • @MrJaksik
    @MrJaksik 2 месяца назад

    Bardzo przydatne

  • @ewarystawecki3631
    @ewarystawecki3631 3 месяца назад

    Genialnie wytłumaczone. Dziękuję :)

  • @rafaromanozademelmac6095
    @rafaromanozademelmac6095 3 месяца назад

    Hiper zrozumiałe wyjaśnienie budowy sieci konwolucyjnych.

  • @wiktorbabiarz6758
    @wiktorbabiarz6758 4 месяца назад

    W jaki sposób obliczany jest gradient (pochodne względem parametrów)?

  • @pravallikadevi3633
    @pravallikadevi3633 Год назад

    do you have any github link for this

  • @rkons88
    @rkons88 Год назад

    Świetna prezentacja 😊

  • @kustyq
    @kustyq Год назад

    Niedawno trafilem na ten kanal i jako poczatkujacy w temacie sieci neuronowych jestem bardzo wdzieczny za udostepnione materialy. Dziekuje.

  • @AB-bp9fi
    @AB-bp9fi Год назад

    Super prezentacja. "Ship" to statek. Gdyby były jakieś studia podyplomowe zdalne w temacie ai/ machine learning to bym chętnie się zapisał. A może będzie jakiś wykład w dziedzinie analizy danych 3d?

  • @logos7logos7
    @logos7logos7 2 года назад

    Piękne!

  • @grzegorzdudek2236
    @grzegorzdudek2236 2 года назад

    Uzupełnieniem tej prezentacji jest prezentacja nt. randomizowanych sieci neuronowych ruclips.net/video/Ytyuyctxdlw/видео.html. Omawiam tam alternatywne sposoby uczenia sieci, które znacznie przyspieszają trening. Poza tym prezentacja pozwala głębiej zrozumieć sieci neuronowe.

    • @bartoszjagiea6023
      @bartoszjagiea6023 2 года назад

      Dziękuję za świetne wykłady. Studiuję na PCz, mam nadzieję, że kiedyś będę miał przyjemność uczestniczyć w Pana zajęciach. Pozdrawiam!

  • @ukaszlew6238
    @ukaszlew6238 2 года назад

    Genialny wykład!!!! Wszystkie wykłady powinny tak wyglądać jak Pana!

  • @qacperq
    @qacperq 2 года назад

    W 20:44 jeśli chcemy powiedzieć jaka jest rozpatrywana liczba przypadków w drzewie to patrzymy na ilość węzłów czy ilość liści?

    • @grzegorzdudek2236
      @grzegorzdudek2236 2 года назад

      Nie wiem co Pan rozumie pod pojęciem przypadek. Jeśli liczbę obszarów, na które dzielona jest przestrzeń wejściowa (każdy z tych obszarów przypisywany jest do jednej z klas), to te obszary reprezentowane są przez liście (mamy więc pięć liści/obszarów), a ich granice definiują testy w węzłach (mamy cztery granice pokazane żółtymi liniami na rysunku). A jeśli przez liczbę przypadków rozumie Pan liczbę klas, albo liczbę przykładów uczących, to ze struktury drzewa nie dowiemy się ile ich jest.

  • @dariuszd6207
    @dariuszd6207 3 года назад

    Niezwykle przejrzyście a przy tym zwięźle przedstawione zagadnienie. Bez luk pod hasłem "to przecież oczywiste' . Dziękuję za wspaniały wykład,

  • @dariuszd6207
    @dariuszd6207 3 года назад

    Znakomity wykład, dziwne ze dopiero teraz na niego trafiłem,

  • @lingyi247
    @lingyi247 3 года назад

    Hi, Professor Dudek. Thank you for the presentation. However, it makes me confused that I have read another paper, <A comprehensive evaluation of random vector functional link networks>, which presents the opposite results. They said, " the direct link plays an important performance enhancing role in RVFL, while the bias term in the output neuron had no significant effect". Can you explain it? Thank you so much!

    • @grzegorzdudek2236
      @grzegorzdudek2236 3 года назад

      Hi Ling Yi. Note that I used RVFL for regression problems, while in the paper you cite they focus on classification problems. This is a substantial difference. Another difference is the method of generating random parameters. I use my own methods described in Section 3 arxiv.org/abs/2003.13090. Perform your own tests to see if direct links are necessary :)

    • @lingyi247
      @lingyi247 3 года назад

      @@grzegorzdudek2236 Thank you for your prompt reply. That really helped! :)

  • @juancamiloalzate1481
    @juancamiloalzate1481 3 года назад

    Thank you for the video. It helped me a lot

  • @kohzhewei9677
    @kohzhewei9677 3 года назад

    Thank you for the video!

  • @Robert-rp8km
    @Robert-rp8km 3 года назад

    Wspaniale materialy!!!

  • @Robert-rp8km
    @Robert-rp8km 3 года назад

    Panie Grzegorzu, SUPER material. Dziekuje :)

  • @marcinlampart
    @marcinlampart 3 года назад

    Dziękuje za bardzo dobry wykład. Niestety do Częstochowy jest mi nie po drodze, ale czy można gdzieś dostać Pana wykłady w formie pisanej (książki, publikacji etc.) ?

  • @calaprawdaoprawdzie
    @calaprawdaoprawdzie 3 года назад

    Jednak inteligencja kryje sie w wielomianach.

  • @hugenota1
    @hugenota1 4 года назад

    Przedstawione zostało rozwiązanie proste, gdzie aproksymujemy funkcje. Rozumiem sposób działania algorytmu ładnie opisane i przejrzyście jednak nie potrafię go wykorzystać go do prawdziwego problemu, gdzie funkcja nie jest podana i nie sposób ją opracować. Na przykład problem chińskiego listonosza. wW jaki sposób wykorzystać taki algorytm ? Jak utworzyć chromosomy, co rozumieć przez osobniki w przypadku takiego problemu?

  • @annamark1265
    @annamark1265 4 года назад

    👍

  • @sawomirkrynicki4492
    @sawomirkrynicki4492 4 года назад

    Bardzo dobry wykład. Jeszcze nie wiem, co oznacza rząd modelu (opóźnienie) dla sieci neuronowej? Czy chodzi o podawany na wejście przebieg np. temperatury maksymalnie do chwili T(t-1) dla modelu drugiego rzędu, a dla trzeciego rzędu dla T(t-2) ? Oczywiście wraz z wartościami dla T(t-0), T(t-1) itd.

  • @adrianblonka
    @adrianblonka 5 лет назад

    Wspaniale opracowany materiał

  • @grzegorzdudek2236
    @grzegorzdudek2236 6 лет назад

    Zapraszam na studia podyplomowe Data Science - Inżynieria Danych W programie: sztuczna inteligencja, uczenie maszynowe, big data, business intelligence, hurtownie danych, przetwarzanie w chmurze Więcej informacji na stronie Wydziału Elektrycznego Politechniki Częstochowskiej

  • @grzegorzdudek2236
    @grzegorzdudek2236 6 лет назад

    Zapraszam na studia podyplomowe Data Science - Inżynieria Danych W programie: sztuczna inteligencja, uczenie maszynowe, big data, business intelligence, hurtownie danych, przetwarzanie w chmurze Więcej informacji na stronie Wydziału Elektrycznego Politechniki Częstochowskiej

  • @kamilfigatowski232
    @kamilfigatowski232 6 лет назад

    Czy mogę prosić kontakt do Pana? Mam pewnien biznes związany ze startupem jaki chcemy uruchomić;)

  • @pawelczar
    @pawelczar 6 лет назад

    Bardzo dobry wyklad i swietna prezentacja opisywanego zagadnienia. Nalepiej wytlumczane sieci neuronowe jakie do tej pory spotkalem. Chetnie objerzalbym wiecej wykladow/prezentacji na ten temat od Pana :)

  • @marcinwojcik3471
    @marcinwojcik3471 6 лет назад

    Dziękuję. Bardzo mi odpowiada taka forma prezentacji. Proszę o więcej!

  • @TheDziobak94
    @TheDziobak94 6 лет назад

    Bardzo przejrzyście przedstawiony materiał. Oby więcej materiałów powstało Panie Grzegorzu. Nie wiem jak to jest możliwe że tak mało osób zobaczyło tak ciekawy materiał, że sam szybciej na niego się nie natrafiłem. Pozdrawiam i dziękuję jeszcze raz za materiał