22:46 Bardzo wątpię w to że sztuczna inteligencja i sieci neuronowe będą się rozwijać w stronę odzwierciedlenia wszystkich połączeń neuronowych w mózgu człowieka. Już od dawna znane architektury takie jak sieci konwolucyjne, lstm czy transformersy bazują na nieco innych mechanizmach niżeli proste połączenia między neuronowe. Głównym problemem jest również brak uniwersalności sieci, jedna architektura sprawdzi się lepiej w generowaniu tekstu, inna w rozpoznawaniu obrazu i na razie nie zaproponowano żadnego sensownego rozwiązania tego problemu. Wprowadzane są też nowe rozwiązania w postaci binarnych sieci neuronowych i innych algorytmów binarnych, które nie dość że pozwalają skrócić czas trenowania i zmniejszyć ilość wymaganej pamięci, to również dzięki temu że bazują na operacjach logicznych pozwalają na matematyczną definicję i weryfikacje ich logiki.
Obserwowałem ten kanał parę lat temu, jakoś o nim zapomniałem. Teraz odkryłem na nowo. Kruca bomba! Nareszcie ktoś tłumaczy tematy które nas zalewają w mediach, a nikt właściwie nie wie o co chodzi. To co słyszymy w mediach, to paplanie o jakiejś SF. A tu dowiaduję się że to wszystko jest w zasięgu ręki. Czekam na więcej wiedzy, a przede wszystkim jakiegoś kursu jak wejść w korzystanie z AI w swoim kompie. No i najważniejsze! Jak w ten temat wprowadzić nastolatka, który i tak non stop siedzi w telefonie i "coś" nie wiadomo co robi. To jest niebezpieczna droga która może doprowadzić do oderwania młodego człowieka od rzeczywistości, a i tak tego nie unikniemy! Więc trzeba spróbować mieć nad tym pieczę. Pozdrawiam, i czekam na więcej.
Świetny film. Ja co prawda znam temat. Programowałem na studiach sieci neuronowe, więc nie za dużo się dowiedziałem. Ale dla kogoś kto myśli że sztuczna inteligencja to jakiś terminator co nas zaraz rozstrzela, może trochę rozjaśni problem. No i ciekawa końcówka filmu. Wygląda na to, że wiemy jak stworzyć elektroniczną replikę mózgu, tylko brakuje mocy obliczeniowej. Nie do końca się z tym zgadzam. Sieci neuronowe są projektowane do rozwiązywania konkretnego problemu, a mózg człowieka sam sobie tych tych problemów szuka.
Dokładnie tak. Dlatego śmieszy mnie podnoszenie tematów typu, kiedy należy uznać, że AI uzyskało świadomość xD Jeszcze dłuuuuuuga droga do takich dylematów.
@@Hubertoombierz pod uwagę to że to co obecnie znamy, powiedzmy na rynku cywilnym, to wojsko np amerykańskie znało i.testowalo to z 30 lat temu.. teraz refleksja-.jeżeli tak było 30 lat temu temu, to co mają teraz? Sieci neuronowe na.obecnje znanym nam poziomie szybko się rozwijają. Pytanie tzw.teorii spiskowej - czym amerykanie mogli by się pochwalić teraz?
Fajny filmik. Uczenie maszynowe jest ciekawe. Wszyscy chcą tworzyć sztuczną inteligencję, żeby myślała tak jak ludzie, zakładając błędnie, że ludzie myślą :) Rzecz w tym, że ludzie w zasadzie, poza nielicznymi przypadkami, wcale nie myślą a korzystają z bazy danych w swoim mózgu, jedynie powielając i porównując, to co wpłynęło do mózgu przez interfejsy typu wzrok, węch, słuch, czucie, smak z tym co spotyka ich w dalszym życiu. Czyli w skrócie, czego się ludzie nauczą to umieją. Jeżeli człowiek nie wykuje tabliczki mnożenia, to nie odpowie ile jest 7x7 lub poda błędny wynik. Jeśli wykuje tabliczkę mnożenia, to da prawidłową odpowiedź. A więc człowiek nie myśli, tylko korzysta z dostępnej w swojej głowie bazie wiedzy, którą tam wprowadził dzięki interfejsowi typu np. wzrok.
Nie bardzo wiem, co chcesz przez to powiedzieć. Czy to, że jak nie wkułam wcześniej na pamięć, że 12 x 24 jest 288 (bo nigdy tego nie wkuwałam) to nie będę wiedzieć, co jest kompletną bzdurą, czy to, że żeby poznać wynik tego działania muszę skorzystać z bazy danych jaką w tym przypadku jest definicja mnożenia, co z kolei jest truizmem.
@@dorotamacurzen7265 🙂co jest bzdurą ? Żeby powiedzieć ile jest 12 x 24 najpierw musiałaś zapamiętać, co to jest 1 i co to jest 2 i jakie mają właściwości. Następnie musiałaś zapamiętać, że dwa symbole 1 i 2 pisane łącznie, to nie pies a 12, które ma swoje właściwości, oznacza ilość czegoś, liczbę, liczbę porządkową itd. Nauczyłaś się przy pomocy interfejsu wzrok i zapamiętałaś czym jest 12. Musiałaś zapamiętać (na tej samej zasadzie) co to jest 4 i 24. Następnie musiałaś zapamiętać, co to jest "razy" i jakie ma właściwości. Mając zapisane w swojej pamięci właściwości czegoś takiego jak 12, czegoś takiego jak x razy oraz czegoś takiego jak 24, możesz je sobie dowolnie łączyć i osiągniesz efekt zgodny z ich właściwościami. Inny przykład jeśli zapamiętasz czym jest kolor/barwa, jeśli zapamiętasz czym jest kolor biały. Jeśli zapamiętasz czym jest długopis. Będziesz wiedziała co to jest biały długopis. Gdybyś wcześniej nie nauczyła się przy pomocy interfejsu wzrok i nie zapamiętała czym jest barwa biała, to gdyby ktoś pokazał Ci biały długopis nie potrafiłabyś określić jaką ma barwę. Gdybyś wcześniej nauczyła się i przy pomocy interfejsu typu wzrok i zapamiętała czym jest kolor biały, ale nigdy wcześniej byś nie widziała długopisu, to gdyby ktoś Ci pokazał biały długopis, uznałabyś, że pokazano ci jakiś biały przedmiot. Zatem wiemy tyle ile zapamiętaliśmy już wcześniej. W naszym życiu korzystamy z tego co zapamiętaliśmy wcześniej, z naszej prywatnej bazy danych, bazy definicji w naszym mózgu. Korzystając z tej bazy danych. W życiu łączymy te poszczególne definicje i osiągamy tym efekt zgodny z ich właściwościami. I to chyba można by zdefiniować jako myślenie. Czyli jak sądzę podstawą sztucznej inteligencji powinna być ogromna baza danych. Ogromna baza definicji. Każda definicja powinna mieć określone właściwości. Sztuczna inteligencja powinna działać jak matematyka. Jeśli zapytamy AI, co to jest biały długopis, połączy ona dwie definicje i ich właściwości, i utworzy trzecią definicję z jej właściwościami oraz ją zapisze/zapamięta i będzie mogła jej użyć w przyszłości. Definicja BIAŁY + definicja DŁUGOPIS = definicja BIAŁY DŁUGOPIS.
Świetny film, pod kątem merytorycznym jak i technicznym. Kontynuując temat komputerów i programowania proponuję zrobić film o kryptografii oraz krypto-walutach.
Swietnie i przystepnie podana wiedza dla Laika. Film ciekawy, dobrze wytlumaczone zagadnienia oraz dopasowanie przykladow porownawczych, przy tym wszystkim nie nudny! Gratulacje!
Fajny material. Dla uscisleniam, aktywacje po kazdej warstwie neuronow maja troche inna funkcje. Jesli by ich nie bylo, to kazda siec neuronowa bylaby co najwyzej jedno-warstwowa. Po prostu, matematyczna kalkulacja by sie skracala, tak ze dodawanie kolejnych warstw neuronow nie przynosiloby zadnego pozytku. Dla osob, ktore znaja torche algebry linowej - jesli dane wejsciowe warstwy to wektor v i wagi pierwszej warstwy neuronow to macierz A, a drugiej B. To wyjscie sieci neuronowej to B(Av) == (BA)v czyli sieci o jednej warswie (BA). Przez warswy aktywacji f(x), siec sie nie 'skraca' B f(Av) ) != f( BAv )
Właśnie odnalazłem ten odcinek. I jeżeli inne są takie jak ten to chyba dodam kolejny kanał na yt do listy ulubionych. Kozacko wytłumaczyłeś i przede wszystkim ciekawie.
Jeden z lepszych filmów o AI jakie widziałem. Prosta i czytelna grafika i przekaz. Trochę wątpliwości wzbudza sposób uczenia w przykładzie obrączka/ołówek. Ja bym próbował po prostu analizować stosunek średnicy do wysokości, a nie wprowadzać współczynniki które niewiele mówią. Pracuję jako edukator z dziećmi do lat 15-tu i jeżeli pozwolisz wykorzystam twój film na zajęciach.
Prościej chyba się nie da. A przede wszystkim magiczne zwroty przedstawione normalnie. Podaje ten film moim uczniom tym w wieku 14 i 75 lat. Są dumni, że wreszcie wiedzą o co chodzi. A to jest najważniejsze.
Technologia sprzętowa dość szybko się rozwija. W 1981 r. Bill Gates powiedział, że 640kB powinno każdemu wystarczyć. Pamiętam jak na początku lat 90-tych były takie dyskietki o pojemności 1,44 MB i niektóre gry miały np. 5 MB i jak się grało, to trzeba było wymieniać dyskietki podczas gry. W 2000 r. miałem komputer, który miał dysk ponad 13 GB. Taki był wtedy standard. W 2011 r. kupiłem laptopa, który miał chyba 500 GB. Dzisiaj mam 2 dyski SSD o łącznej pojemności około 1,5 TB. Myślę, że w 2030 r. standardem może być 50 TB, a w 2040 r. - 500 TB.
A już myślałem, że w końcu ktoś wyjaśni mi do końca w moim języku uczenie głębokie... Prosiłbym ciebie o rozszerzenie tego filmiku i zagłębienie się w tym temacie
9:07 dane treningowe muszą zawierać etykiety w przypadku zadań z zakresu uczenia NADZOROWANEGO (jak np. omówiony w filmie klasyfikator). Innym rodzajem uczenia maszynowego jest uczenie NIENADZOROWANE, gdzie nie podajemy na wejściu danych z etykietami (np. klasteryzacja). Świetny materiał, niezwykle przystępny :) Bardzo ładna jest też animacja, jak ją tworzysz?
Też płody uczą się brzmienia języka, oraz emocji z bodźców, które docierają. My w procesie edukacji uczymy się formalnych zasad, które jak wiemy są często nieprawdziwe, lub zbyt lokalne albo globalne, abstrakcyjnych modeli i symboli, a jak wiemy zbyt sztywna forma ogranicza poznawczo, jak euklidesowość, a geometria nieprzemienna, albo jak klasyfikacje w biologii w stosunku do zapisu DNA. Jak wiedza, a badania, uzupełniające lub podważające wiedzę wtórną.
Świetny film i umiejętności przekazywania wiedzy, znacie jakiś prosty w obsłudze program do nauki lub zabawy sieciami neuronowymi być może mnie to zainteresuje na tyle że granie, netflix i winko odejdzie na boczny tor, z góry dzięki :) i pozdrawiam
Bardzo dobrze zrealizowany materiał , jedynie mi brakło takiego małego dodatku w postaci Chińskiego pokoju (teoretyczny sposób rozmowy i przejścia testu Turinga) oraz Teorii gier (część o szachach i warcabach , czyli jak ma się zachować w danej sytuacji)
17:35 akurat się nie zgodzę funkcja aktywacji nie musi "wrzucać" otrzymanej liczby do przedziału zero - jeden, są funkcję jak np. tangens hiperboliczny, relu lub identycznościowa, które nie spełniają tego warunku. 18:25 no nie do końca... 19:06 no też nie zawsze, czasami się używa pojedyńczych przykładów (one-shot learning), lub kilku (few-shot learning), itp. 21:43 warto dodać, że obecnie używa się kart graficznych, przez ich szybkość w obliczeniach zmiennoprzecinkowych, a także masywną równoległość
Eeee no są już odkurzacze, które robią mapę trenu a nie stop obrót 90", to nie czasy komputerów Elwro i programu Logo z komunikatem "głową muru nie przebijesz" :P to było moje pierwsze spotkanie z programowaniem :D. Co do sztucznej inteligencji chyba program nazywał się Maniek, Olek jakoś tak (90 lata) polskiego autora na PC i można było z nim prowadzić rozmowę, w sytuacji podbramkowej a było to rzadkie kiedy nie wiedział co odpowiedzieć mówił " sformułuj to inaczej ". Nie korzystał z internetu i zresztą w tedy to u nas internet był w pieluszce, interfejs to okienko tekstowe. Ale generalnie ktoś nad tym spędził tysiące godzin by było tak dobre.
Witam, nie mogę się powstrzymać, program miał być apolityczny, ale na filmie z you pokazywałem dziecku ten długopis Wałęsy, ale kiedyś długo później nie pamiętam jak to było ale w szklanej skrzyni wystawowej pokazywałem dalej, widzisz to ten długopis co go widzieliśmy w starym filmie...za całokształt subskrypcja...pozdrawiam....
"dobre dane treningowe" jak bardzo skojarzyło mi sie to z danymi TRENINGOWYMI adresowanymi nam np. z TV, a patrząc na wyniki zaprogramowania ludzkich mas, programiści deep learning lub bardziej znajomo deep state, osiągają w tym biologicznym materiale całkiem skutecznie ZAKŁADANE wyniki
Dobry film. Dzięki. Rozważ zmianę nazwy kanału, jeśli odchodzisz od samego modelarstwa - ludzie zainteresowani kanałem popularnonaukowym lepiej zareagują na mniej specyficzną i niszową nazwę.
11:36 czy przy kolejnych iteracjach wartości zwiększają się iteracyjne ? Odcinek bardzo ciekawy, masz może jakieś źródła, gdzie można pogłębić wiedzę ? Czy w SI tylko pyton?
A ja mam pytanie. Jeśli chcialbym wytrenować sieć która rozpoznaje cyfry od 0 do 9, ale nie przy użyciu głębokich sieci a przy użyciu standardowej sieci neuronowej i mam duży zestaw uczący np 100 obrazków dla 1, 100 dla liczby 2 i dla każdego wejścia mam różne wagi po nauczeniu. To jak potem sprawdzam sieć. Które wagi mam podstawić na wejście żeby sieć zwróciła wynik i odgadła jaka to cyfra?
Czy ktoś orientuje się kiedy skończy się możliwość zmniejszania rozmiarów tranzystorów i ich upakowania na dysku? Prawo Moore'a nie będzie działało w nieskończoność.
Możliwości dokładniejszego ważenia (rozdzielczość) już skończyła się 20 lat temu. 2,1 nm w procesorach to koniec. Jesteśmy przy 5 nm. Klasycznymi metodami szybciej się nie da.
czekaj, czekaj.. czemu 1kB to 1 połączenie? brzmi mi to na dość zawyżone dane, bo waga we float ma 4 bajty, wartość też zwykle we float to też 4 bajty i.. to raczej tyle.. a to daje 8 bajtów, czyli *kalkulator* 1024/8 = 128.. czyli w 1kb zmieścimy około 128 połączeń neuronowych, czyli dalej to 7 812 500 GB a nie 1 000 000 000 GB, co wciąż jest oczywiście ogromną wartością, ale jest to zupełnie co innego (w praktyce wiadomo, na cały mózg wyszłoby nieco więcej, ale NA PEWNO NIE 1 000 000 000 GB ) Poza tym widzę sporo błędów jak wspominanie na początku o reinforcement learning, a później o uczeniu nadzorowanym i kompletne niezrozumienie czym jest uczenie nienadzorowane. Z kilkoma sprawami też się nie zgadzam, poza tym osobiście jestem przeciwny określaniu "sztuczny neuron to właściwie podobny neuron do biologicznego tylko mocno uproszczony" zauważyłem, że to formułka, która jest powtarzana ale wielu ludzi kompletnie nie umie jej wytłumaczyć, dodatkowo właściwie nie jest do końca prawdziwa, ale to jeszcze inna sprawa, dodatkowo wartości wyjściowe neurona mogą przyjmować również wartości od -1 do 1 w zależności od tego jak akurat bardziej pasuje. To takie błędy które zauważyłem na pierwszy rzut oka bez analizownia jakiegoś filmiku
W mózgu połączenia neuronowe pełnią zapewne rolę interpretacji sygnałów ze zmysłów (składanie obrazów, zmian ciśnienia w dźwięki itp). Nie wierzę żeby coś jak zaduma nad jakimś problemem filozoficznym czy autorefleksja było to w stanie realizować. To pamięć podręczna, taka co pamięta że zrobiłem 10 kroków czy wbiłem 5 gwoździ. Może jeszcze jak rozwiązać zadanie używając twierdzenia X czy Y (co łatwo ulatuje). Ale wątpię by mogło to służyć do wspomnień narzeczeńskich czy innych rodzinnych - dla uczuciowości wyższej nie wspominając o sprawach religijnych, przeżyciach mistycznych. To jedno. A drugą rzeczą - jak SI jest realizowana sprzętowo. Czy te "neurony" to obiekty w pamięci czyli programowe? A może są jakieś komputery, które mają na wzór mózgu takie sprzęty czyli fizyczne (hardwarowe) neurony? Chyba nie. Na 99% są to obiekty software'owe a więc samo ich utrzymanie w pamięci jest kosztowne - tzn. wydajność jest na oko (strzelam) 500x niższa niżby mogła by być.
@@k.rambol9133 Ale ty nie rozumiesz. Przeczytaj kilka razy "Nic nie może być bez swojego początku. Bóg jest tylko przenoszeniem problemu na inny obszar."
@@dawidos369 Rozumiem doskonale. Tylko, że nie rozmawiamy teraz o tym kto stworzył Boga. To zupełnie inne pytanie. Tego nie wiem i nikt nie wie. Tak samo jak nie rozmawiamy o tym kto stworzył zaprogramowaną maszynę, jaką jest ludzkie ciało, umysł, fizyczność itp. Nie wiemy kto. Rozmawiamy TYLKO o tym, że program nie może sam siebie wymyśleć i się stworzyć. Musi być Stwórca. Zwracaj uwagę na to o czym dokładnie rozmawiamy. Nie przeskakuj z tematu na temat bo się robi zamieszanie.
@@k.rambol9133 Więc dlaczego nikt nie może nie wiedzieć jak powstał wszechświat? Nie ma czegoś takiego, że coś istnieje bez końca. Powtarzam: To przenoszenie problemu. Jeśli nadal nie rozumiesz spróbuj powtórzyć czytanie.
Dziś mnie olśniło to jak można zaprogramować poczucie moralności dla maszyn, niedozwolone zachowania spotykaly by sie z roznego rodzaju oporem na ukladzie na calej plycie głównej i tyle a sama maszyna mogla by coś takiego zidentyfikować jako nie konfortowe trudne ciężkie niewlasciwe nie MORALNE
Dziękujemy.
W świetny i przystępny sposób podana wiedza. Super kanał.
Masz niezwykły talent dydaktyczny. Dzięki za film! :)
Kanał z takimi wartościowymi materiałami zasługuje na znacznie więcej subskrypcji i wyświetleń. Łapka w górę leci
22:46 Bardzo wątpię w to że sztuczna inteligencja i sieci neuronowe będą się rozwijać w stronę odzwierciedlenia wszystkich połączeń neuronowych w mózgu człowieka. Już od dawna znane architektury takie jak sieci konwolucyjne, lstm czy transformersy bazują na nieco innych mechanizmach niżeli proste połączenia między neuronowe. Głównym problemem jest również brak uniwersalności sieci, jedna architektura sprawdzi się lepiej w generowaniu tekstu, inna w rozpoznawaniu obrazu i na razie nie zaproponowano żadnego sensownego rozwiązania tego problemu. Wprowadzane są też nowe rozwiązania w postaci binarnych sieci neuronowych i innych algorytmów binarnych, które nie dość że pozwalają skrócić czas trenowania i zmniejszyć ilość wymaganej pamięci, to również dzięki temu że bazują na operacjach logicznych pozwalają na matematyczną definicję i weryfikacje ich logiki.
Obserwowałem ten kanał parę lat temu, jakoś o nim zapomniałem.
Teraz odkryłem na nowo. Kruca bomba! Nareszcie ktoś tłumaczy tematy które nas zalewają w mediach, a nikt właściwie nie wie o co chodzi.
To co słyszymy w mediach, to paplanie o jakiejś SF. A tu dowiaduję się że to wszystko jest w zasięgu ręki.
Czekam na więcej wiedzy, a przede wszystkim jakiegoś kursu jak wejść w korzystanie z AI w swoim kompie.
No i najważniejsze! Jak w ten temat wprowadzić nastolatka, który i tak non stop siedzi w telefonie i "coś" nie wiadomo co robi.
To jest niebezpieczna droga która może doprowadzić do oderwania młodego człowieka od rzeczywistości, a i tak tego nie unikniemy! Więc trzeba spróbować mieć nad tym pieczę.
Pozdrawiam, i czekam na więcej.
Dzięki, nikt tak przejrzyście nie wytłumaczył sieci neuronowych program w javie już napisałem
Super film. Nawet jeśli ktoś za bardzo nie czai tych wzorów to i tak można się wiele dowiedzieć.
Nie widziałem jeszcze żeby ktoś w tak świetny i przystępny i krotki sposób wyjaśnił ten trudny temat
Brawo!!!
Więcej takich filmow
Najlepszy film o SI dla początkujących, jaki widziałem! Serio. A widziałem wiele.
Już wskakuję grzebać po kanale. Pozdro :)
Świetny film. Ja co prawda znam temat. Programowałem na studiach sieci neuronowe, więc nie za dużo się dowiedziałem. Ale dla kogoś kto myśli że sztuczna inteligencja to jakiś terminator co nas zaraz rozstrzela, może trochę rozjaśni problem. No i ciekawa końcówka filmu. Wygląda na to, że wiemy jak stworzyć elektroniczną replikę mózgu, tylko brakuje mocy obliczeniowej. Nie do końca się z tym zgadzam. Sieci neuronowe są projektowane do rozwiązywania konkretnego problemu, a mózg człowieka sam sobie tych tych problemów szuka.
Dokładnie tak. Dlatego śmieszy mnie podnoszenie tematów typu, kiedy należy uznać, że AI uzyskało świadomość xD Jeszcze dłuuuuuuga droga do takich dylematów.
Nie szuka. Rozwiązuje konkretny problem - problem przetrwania; spełnienie potrzeb życiowych.
Już się zaczyna. Huja się znasz🤣🤣
@@Hubertoombierz pod uwagę to że to co obecnie znamy, powiedzmy na rynku cywilnym, to wojsko np amerykańskie znało i.testowalo to z 30 lat temu.. teraz refleksja-.jeżeli tak było 30 lat temu temu, to co mają teraz? Sieci neuronowe na.obecnje znanym nam poziomie szybko się rozwijają. Pytanie tzw.teorii spiskowej - czym amerykanie mogli by się pochwalić teraz?
Alpha go Sam sobie znalazł sposób na wygranie w Go. Ruch który wykonał nie był zaprogramowany.
świetny materiał. Jak to widziałem na studiach jak tłumaczyli miałem ochote wyjść bo nic nie rozumiałem, a tu siedzę z zainteresowaniem do końca
Fajny filmik. Uczenie maszynowe jest ciekawe. Wszyscy chcą tworzyć sztuczną inteligencję, żeby myślała tak jak ludzie, zakładając błędnie, że ludzie myślą :) Rzecz w tym, że ludzie w zasadzie, poza nielicznymi przypadkami, wcale nie myślą a korzystają z bazy danych w swoim mózgu, jedynie powielając i porównując, to co wpłynęło do mózgu przez interfejsy typu wzrok, węch, słuch, czucie, smak z tym co spotyka ich w dalszym życiu. Czyli w skrócie, czego się ludzie nauczą to umieją. Jeżeli człowiek nie wykuje tabliczki mnożenia, to nie odpowie ile jest 7x7 lub poda błędny wynik. Jeśli wykuje tabliczkę mnożenia, to da prawidłową odpowiedź. A więc człowiek nie myśli, tylko korzysta z dostępnej w swojej głowie bazie wiedzy, którą tam wprowadził dzięki interfejsowi typu np. wzrok.
Nie bardzo wiem, co chcesz przez to powiedzieć. Czy to, że jak nie wkułam wcześniej na pamięć, że 12 x 24 jest 288 (bo nigdy tego nie wkuwałam) to nie będę wiedzieć, co jest kompletną bzdurą, czy to, że żeby poznać wynik tego działania muszę skorzystać z bazy danych jaką w tym przypadku jest definicja mnożenia, co z kolei jest truizmem.
@@dorotamacurzen7265 🙂co jest bzdurą ? Żeby powiedzieć ile jest 12 x 24 najpierw musiałaś zapamiętać, co to jest 1 i co to jest 2 i jakie mają właściwości. Następnie musiałaś zapamiętać, że dwa symbole 1 i 2 pisane łącznie, to nie pies a 12, które ma swoje właściwości, oznacza ilość czegoś, liczbę, liczbę porządkową itd. Nauczyłaś się przy pomocy interfejsu wzrok i zapamiętałaś czym jest 12. Musiałaś zapamiętać (na tej samej zasadzie) co to jest 4 i 24. Następnie musiałaś zapamiętać, co to jest "razy" i jakie ma właściwości. Mając zapisane w swojej pamięci właściwości czegoś takiego jak 12, czegoś takiego jak x razy oraz czegoś takiego jak 24, możesz je sobie dowolnie łączyć i osiągniesz efekt zgodny z ich właściwościami. Inny przykład jeśli zapamiętasz czym jest kolor/barwa, jeśli zapamiętasz czym jest kolor biały. Jeśli zapamiętasz czym jest długopis. Będziesz wiedziała co to jest biały długopis. Gdybyś wcześniej nie nauczyła się przy pomocy interfejsu wzrok i nie zapamiętała czym jest barwa biała, to gdyby ktoś pokazał Ci biały długopis nie potrafiłabyś określić jaką ma barwę. Gdybyś wcześniej nauczyła się i przy pomocy interfejsu typu wzrok i zapamiętała czym jest kolor biały, ale nigdy wcześniej byś nie widziała długopisu, to gdyby ktoś Ci pokazał biały długopis, uznałabyś, że pokazano ci jakiś biały przedmiot. Zatem wiemy tyle ile zapamiętaliśmy już wcześniej. W naszym życiu korzystamy z tego co zapamiętaliśmy wcześniej, z naszej prywatnej bazy danych, bazy definicji w naszym mózgu. Korzystając z tej bazy danych. W życiu łączymy te poszczególne definicje i osiągamy tym efekt zgodny z ich właściwościami. I to chyba można by zdefiniować jako myślenie. Czyli jak sądzę podstawą sztucznej inteligencji powinna być ogromna baza danych. Ogromna baza definicji. Każda definicja powinna mieć określone właściwości. Sztuczna inteligencja powinna działać jak matematyka. Jeśli zapytamy AI, co to jest biały długopis, połączy ona dwie definicje i ich właściwości, i utworzy trzecią definicję z jej właściwościami oraz ją zapisze/zapamięta i będzie mogła jej użyć w przyszłości. Definicja BIAŁY + definicja DŁUGOPIS = definicja BIAŁY DŁUGOPIS.
Świetny film, pod kątem merytorycznym jak i technicznym.
Kontynuując temat komputerów i programowania proponuję zrobić film o kryptografii oraz krypto-walutach.
Dokładnie np. o sha256 , blockchain i np. Kopanie Bitcoin
Niesamowita umiejętność przekazywania wiedzy. Dziękuje za ten film!
Swietnie i przystepnie podana wiedza dla Laika. Film ciekawy, dobrze wytlumaczone zagadnienia oraz dopasowanie przykladow porownawczych, przy tym wszystkim nie nudny! Gratulacje!
Praktyczne przykłady, ciekawy temat i wszystko zaprezentowane w przystępny sposób. Tak trzymać!
Znów nadzwyczaj interesująco przedstawiona zupełnie nieznana mi treść.
Szczęką zrobiłem dokładnie tak, jak ten chłopek przed komputerem. :)
Petarda dopiero zaczynam z AI i ten film zachęcił mnie jeszcze bardziej do działania w tym temacie pozdrawiam i daje suba
Fajny material.
Dla uscisleniam, aktywacje po kazdej warstwie neuronow maja troche inna funkcje. Jesli by ich nie bylo, to kazda siec neuronowa bylaby co najwyzej jedno-warstwowa. Po prostu, matematyczna kalkulacja by sie skracala, tak ze dodawanie kolejnych warstw neuronow nie przynosiloby zadnego pozytku.
Dla osob, ktore znaja torche algebry linowej - jesli dane wejsciowe warstwy to wektor v i wagi pierwszej warstwy neuronow to macierz A, a drugiej B. To wyjscie sieci neuronowej to B(Av) == (BA)v czyli sieci o jednej warswie (BA). Przez warswy aktywacji f(x), siec sie nie 'skraca' B f(Av) ) != f( BAv )
Właśnie odnalazłem ten odcinek. I jeżeli inne są takie jak ten to chyba dodam kolejny kanał na yt do listy ulubionych. Kozacko wytłumaczyłeś i przede wszystkim ciekawie.
Wielkie dzięki za film, super wytłumaczone :)
Dzięki ci człowieku za ten kanał i za filmiki.
Żeby tak na studiach umieli tłumaczyć...
To bym pewnie zajmował się sztuczną inteligencją
Jeden z lepszych filmów o AI jakie widziałem. Prosta i czytelna grafika i przekaz. Trochę wątpliwości wzbudza sposób uczenia w przykładzie obrączka/ołówek. Ja bym próbował po prostu analizować stosunek średnicy do wysokości, a nie wprowadzać współczynniki które niewiele mówią. Pracuję jako edukator z dziećmi do lat 15-tu i jeżeli pozwolisz wykorzystam twój film na zajęciach.
Świetny pomocny i edukacyjny film masz talent gratuluję
Prościej chyba się nie da. A przede wszystkim magiczne zwroty przedstawione normalnie. Podaje ten film moim uczniom tym w wieku 14 i 75 lat. Są dumni, że wreszcie wiedzą o co chodzi. A to jest najważniejsze.
Jestem wiernym fanem od lat - gratuluję powiewu świeżości jaki wniosła animacja. Super się to ogląda. Pozdrawiam serdecznie
Technologia sprzętowa dość szybko się rozwija. W 1981 r. Bill Gates powiedział, że 640kB powinno każdemu wystarczyć. Pamiętam jak na początku lat 90-tych były takie dyskietki o pojemności 1,44 MB i niektóre gry miały np. 5 MB i jak się grało, to trzeba było wymieniać dyskietki podczas gry. W 2000 r. miałem komputer, który miał dysk ponad 13 GB. Taki był wtedy standard. W 2011 r. kupiłem laptopa, który miał chyba 500 GB. Dzisiaj mam 2 dyski SSD o łącznej pojemności około 1,5 TB. Myślę, że w 2030 r. standardem może być 50 TB, a w 2040 r. - 500 TB.
Bardzo dobrze wytłumaczone. Masz talent.
Jeżeli będzie więcej tematów o sztucznej inteligencji to na pewno tu wrócę, a tak swoją drogą bardzo fajny filmik tak na start ;)
Bardzo przystępnie wytłumaczony temat
14:40 Zegarek się spieszy o minutę :)
W bardzo dobry sposób wytłumaczyłeś to zagadnienie. Czekam na więcej filmów takiego rodzaju
A już myślałem, że w końcu ktoś wyjaśni mi do końca w moim języku uczenie głębokie... Prosiłbym ciebie o rozszerzenie tego filmiku i zagłębienie się w tym temacie
9:07 dane treningowe muszą zawierać etykiety w przypadku zadań z zakresu uczenia NADZOROWANEGO (jak np. omówiony w filmie klasyfikator). Innym rodzajem uczenia maszynowego jest uczenie NIENADZOROWANE, gdzie nie podajemy na wejściu danych z etykietami (np. klasteryzacja).
Świetny materiał, niezwykle przystępny :)
Bardzo ładna jest też animacja, jak ją tworzysz?
Świetny film! Naprawdę niedoceniony kanał, postaram się podesłać go dalej :)
Łapka w górę i sub. Liczę na więcej tego typu materiałów. Ciekawy temat fajnie przedstawiony.
super film wyjaśnił mi wiele żeczy
Dobrze wytłumaczone. Nie wiem dlaczego nazywa się to sztuczną inteligencją.
Też płody uczą się brzmienia języka, oraz emocji z bodźców, które docierają. My w procesie edukacji uczymy się formalnych zasad, które jak wiemy są często nieprawdziwe, lub zbyt lokalne albo globalne, abstrakcyjnych modeli i symboli, a jak wiemy zbyt sztywna forma ogranicza poznawczo, jak euklidesowość, a geometria nieprzemienna, albo jak klasyfikacje w biologii w stosunku do zapisu DNA. Jak wiedza, a badania, uzupełniające lub podważające wiedzę wtórną.
Świetny film! Dzięki za wytłumaczenie
Świetny film i umiejętności przekazywania wiedzy, znacie jakiś prosty w obsłudze program do nauki lub zabawy sieciami neuronowymi być może mnie to zainteresuje na tyle że granie, netflix i winko odejdzie na boczny tor, z góry dzięki :) i pozdrawiam
Świetny film, proszę o więcej!
Bardzo dobrze zrealizowany materiał , jedynie mi brakło takiego małego dodatku w postaci Chińskiego pokoju (teoretyczny sposób rozmowy i przejścia testu Turinga) oraz Teorii gier (część o szachach i warcabach , czyli jak ma się zachować w danej sytuacji)
17:35 akurat się nie zgodzę funkcja aktywacji nie musi "wrzucać" otrzymanej liczby do przedziału zero - jeden, są funkcję jak np. tangens hiperboliczny, relu lub identycznościowa, które nie spełniają tego warunku.
18:25 no nie do końca...
19:06 no też nie zawsze, czasami się używa pojedyńczych przykładów (one-shot learning), lub kilku (few-shot learning), itp.
21:43 warto dodać, że obecnie używa się kart graficznych, przez ich szybkość w obliczeniach zmiennoprzecinkowych, a także masywną równoległość
Na prawdę świetny materiał
Eeee no są już odkurzacze, które robią mapę trenu a nie stop obrót 90", to nie czasy komputerów Elwro i programu Logo z komunikatem "głową muru nie przebijesz" :P to było moje pierwsze spotkanie z programowaniem :D. Co do sztucznej inteligencji chyba program nazywał się Maniek, Olek jakoś tak (90 lata) polskiego autora na PC i można było z nim prowadzić rozmowę, w sytuacji podbramkowej a było to rzadkie kiedy nie wiedział co odpowiedzieć mówił " sformułuj to inaczej ". Nie korzystał z internetu i zresztą w tedy to u nas internet był w pieluszce, interfejs to okienko tekstowe. Ale generalnie ktoś nad tym spędził tysiące godzin by było tak dobre.
Świetny materiał! Dzięki!
Witam, nie mogę się powstrzymać, program miał być apolityczny, ale na filmie z you pokazywałem dziecku ten długopis Wałęsy, ale kiedyś długo później nie pamiętam jak to było ale w szklanej skrzyni wystawowej pokazywałem dalej, widzisz to ten długopis co go widzieliśmy w starym filmie...za całokształt subskrypcja...pozdrawiam....
dlaczego w tle każdego filmu na youtube musi zawsze coś rzępolić ?
Koncepcja jest dla mnie zrozumiała, zastanawiam się jednak jak to wygląda od strony kodu?
"dobre dane treningowe" jak bardzo skojarzyło mi sie to z danymi TRENINGOWYMI adresowanymi nam np. z TV, a patrząc na wyniki zaprogramowania ludzkich mas, programiści deep learning lub bardziej znajomo deep state, osiągają w tym biologicznym materiale całkiem skutecznie ZAKŁADANE wyniki
Bardzo dobrze wytlumaczone
Świetny, świetny, świetny film
Super wytłumaczone :D
Świetny materiał
Świetny materiał! :)
Dobry film. Dzięki. Rozważ zmianę nazwy kanału, jeśli odchodzisz od samego modelarstwa - ludzie zainteresowani kanałem popularnonaukowym lepiej zareagują na mniej specyficzną i niszową nazwę.
chyba tak trzeba będzie zrobić...
Dobry film! Więcej!
11:36 czy przy kolejnych iteracjach wartości zwiększają się iteracyjne ? Odcinek bardzo ciekawy, masz może jakieś źródła, gdzie można pogłębić wiedzę ? Czy w SI tylko pyton?
Łapka w górę również...
Wagi zawsze losujesz na początku?
świetny film
super opisane
Świetny materiał :)
Gratuluję!!!
Z tego filmu bije wręcz profesjonalizm
robisz świetną robotę!
Wow! Świetny film!
Nie cały mózg, ale tylko tyle ile się znajduje wkorze nowej i w płatach czołowych
Super film!
A ja mam pytanie.
Jeśli chcialbym wytrenować sieć która rozpoznaje cyfry od 0 do 9, ale nie przy użyciu głębokich sieci a przy użyciu standardowej sieci neuronowej i mam duży zestaw uczący np 100 obrazków dla 1, 100 dla liczby 2 i dla każdego wejścia mam różne wagi po nauczeniu. To jak potem sprawdzam sieć. Które wagi mam podstawić na wejście żeby sieć zwróciła wynik i odgadła jaka to cyfra?
Zawsze bylem ciekaw jak dziala taki sztuczny neuron :)
Strasznie jakościowe materiały!
Lepiej niż moja prawdziwa głupota
"zdefiniuja go jako czlowieka", powinno byc raczej "uksztaltuja...", ale material sam w sobie super, dzieki
Dobra teraz to jeszcze bardzie myśle że zyjemy w symulacji
wszystko super, ale jak to zaprogramować żeby współgrało z innymi neuronami
DZIEKUJE!!!!!!!!!
22:40 tutaj zapomniałeś wspomnieć o komputerze kwantowym ;-)
Moja pierwsza sztuczna inteligencja potrafiła wymyślać kijowe żarty z których tylko 18% było zabawnych, ale trochę mi jej brakuje.
14:49 prawie papiezowa na zegarku
Super!
I gdzie film o GPT?
Czy ktoś orientuje się kiedy skończy się możliwość zmniejszania rozmiarów tranzystorów i ich upakowania na dysku? Prawo Moore'a nie będzie działało w nieskończoność.
Możliwości dokładniejszego ważenia (rozdzielczość) już skończyła się 20 lat temu. 2,1 nm w procesorach to koniec. Jesteśmy przy 5 nm. Klasycznymi metodami szybciej się nie da.
W 2024 roku
Super, ale po pięciu minutach nie mogłem się oprzeć przed napisaniem o denerwującej muzyce w tle.
Zapraszamy do poznania SENSTERA - czułego potwora, obecnego w Krakowie! Odkrywamy ciekawostki i tajemnice 😌🦾 Zapraszamy pod najnowszy film!
super film
Ciekawe
Zawsze jeszcze pozostaje chmura
czekaj, czekaj.. czemu 1kB to 1 połączenie? brzmi mi to na dość zawyżone dane, bo waga we float ma 4 bajty, wartość też zwykle we float to też 4 bajty i.. to raczej tyle.. a to daje 8 bajtów, czyli *kalkulator* 1024/8 = 128.. czyli w 1kb zmieścimy około 128 połączeń neuronowych, czyli dalej to 7 812 500 GB a nie 1 000 000 000 GB, co wciąż jest oczywiście ogromną wartością, ale jest to zupełnie co innego (w praktyce wiadomo, na cały mózg wyszłoby nieco więcej, ale NA PEWNO NIE 1 000 000 000 GB )
Poza tym widzę sporo błędów jak wspominanie na początku o reinforcement learning, a później o uczeniu nadzorowanym i kompletne niezrozumienie czym jest uczenie nienadzorowane. Z kilkoma sprawami też się nie zgadzam, poza tym osobiście jestem przeciwny określaniu "sztuczny neuron to właściwie podobny neuron do biologicznego tylko mocno uproszczony" zauważyłem, że to formułka, która jest powtarzana ale wielu ludzi kompletnie nie umie jej wytłumaczyć, dodatkowo właściwie nie jest do końca prawdziwa, ale to jeszcze inna sprawa, dodatkowo wartości wyjściowe neurona mogą przyjmować również wartości od -1 do 1 w zależności od tego jak akurat bardziej pasuje. To takie błędy które zauważyłem na pierwszy rzut oka bez analizownia jakiegoś filmiku
kurde jak to zjarany ogl to aż ciary miałem
W mózgu połączenia neuronowe pełnią zapewne rolę interpretacji sygnałów ze zmysłów (składanie obrazów, zmian ciśnienia w dźwięki itp). Nie wierzę żeby coś jak zaduma nad jakimś problemem filozoficznym czy autorefleksja było to w stanie realizować. To pamięć podręczna, taka co pamięta że zrobiłem 10 kroków czy wbiłem 5 gwoździ. Może jeszcze jak rozwiązać zadanie używając twierdzenia X czy Y (co łatwo ulatuje). Ale wątpię by mogło to służyć do wspomnień narzeczeńskich czy innych rodzinnych - dla uczuciowości wyższej nie wspominając o sprawach religijnych, przeżyciach mistycznych.
To jedno.
A drugą rzeczą - jak SI jest realizowana sprzętowo. Czy te "neurony" to obiekty w pamięci czyli programowe? A może są jakieś komputery, które mają na wzór mózgu takie sprzęty czyli fizyczne (hardwarowe) neurony? Chyba nie. Na 99% są to obiekty software'owe a więc samo ich utrzymanie w pamięci jest kosztowne - tzn. wydajność jest na oko (strzelam) 500x niższa niżby mogła by być.
nie ma nic o programowaniu sadge :-(
Rozumiem zatem, że ludzki mózg też musiał być przez kogoś zaprojektowany. Żaden komputer nie zaprojektuje się sam.
Ale kto zaprogramował tego kto zaprogramował
@@dawidos369 Nie wiemy kto. Wiemy tylko, że ktoś, ponieważ żadne urządzenie nie może zaprojektować i stworzyć samo siebie.
@@k.rambol9133 Ale ty nie rozumiesz. Przeczytaj kilka razy "Nic nie może być bez swojego początku. Bóg jest tylko przenoszeniem problemu na inny obszar."
@@dawidos369 Rozumiem doskonale. Tylko, że nie rozmawiamy teraz o tym kto stworzył Boga. To zupełnie inne pytanie. Tego nie wiem i nikt nie wie. Tak samo jak nie rozmawiamy o tym kto stworzył zaprogramowaną maszynę, jaką jest ludzkie ciało, umysł, fizyczność itp. Nie wiemy kto. Rozmawiamy TYLKO o tym, że program nie może sam siebie wymyśleć i się stworzyć. Musi być Stwórca. Zwracaj uwagę na to o czym dokładnie rozmawiamy. Nie przeskakuj z tematu na temat bo się robi zamieszanie.
@@k.rambol9133 Więc dlaczego nikt nie może nie wiedzieć jak powstał wszechświat?
Nie ma czegoś takiego, że coś istnieje bez końca. Powtarzam: To przenoszenie problemu.
Jeśli nadal nie rozumiesz spróbuj powtórzyć czytanie.
Dziś mnie olśniło to jak można zaprogramować poczucie moralności dla maszyn, niedozwolone zachowania spotykaly by sie z roznego rodzaju oporem na ukladzie na calej plycie głównej i tyle a sama maszyna mogla by coś takiego zidentyfikować jako nie konfortowe trudne ciężkie niewlasciwe nie MORALNE
I rok później trudne i prawie niemożliwe mamy dostępne przez smartfon.
polecam
21.38
No
Masz takie przeskoki - wprowadzasz jakieś pojęcie nie tłumacząc go. Co to jest waga?