Proszę zorganizować rozmowę prof. Durka z prof. Draganem. Wyciągają całkowicie odmienne wnioski z tego co się dzieje w dziedzinie AI. Byłoby ciekawie...
A mnie troche zmeczyl ten wywiad, rozmowca mowi super ciekawe rzeczy, ale ten protekcjonalny chwilami ton, jakies takie traktowanie prowadzacego z gory, niepotrzebne to. Dziekuje za material.
mam takie same odczucia. Profesor mówi ciekaw rzecz, ale sądzę, że przez ten ton Pan Tomasz nie czuł się w tej rozmowie dobrze, ale mimo to zadawał ciekawe pytania :)
Obawiam się, że prof. Dragan nie podjął by rękawicy. Prof. Durka chyba wyjaśniał, że stwierdzenie "chat GPT ma inteligencje ośmiolatka" to wierutne bzdury.
@@marekreontzki5827 Nawet jeśli ktoś jest mądry i mówi samą prawdę to przecież nie wyklucza to tego, że ma wybujałe ego prawda? Zobacz wywiady z profesorem Draganem, i to w jaki sposób rozmawia z prowadzącymi.
5:38 Nuralink pozwala grać już w gry komputerowe. Mam mdłości. Ten człowiek nie ma pojęcia o czym mówi. 32:00 Są tworzone specjalne modele na specjalistycznych danych przez OpenAI przeznaczone do celów naukowych.
Co do Neuralink to się zgadza, jednak pytanie o skuteczność tej metody, obecnie tylko 1 pacjent chyba ma to wszczepione, a medycyna to nie matematyka, pytanie jest o procent udanych operacji, oraz o skutki uboczne oraz długofalową reakcje organizmu na taki chip. Badanie leków to tak 10-12 lat od pomysłu (pracuje w tej branży). Ogólnie sam kibicuje tej technologii. Natomiast jeśli chodzi o Open AI to pchają wszystko co popadnie i nie słyszałem o żadnych specjalnych modelach, chyba że chodzi ci o o1 i nadchodzący o3, ale jeśli się nie mylę tam pod spodem dalej jest model 4o + chain of thought + to czego nie wiemy. Tak się składa że modele od Open AI mają zastosowanie w dziale, w którym pracuję i nie ma jakiś "ukrytych" specjalisycznych modeli od Open AI. Hype też jest, ale istotnie AI ma potencjał, chociaż czytając nagłówki to w sporej części marketingowy, jednak w branży medycznej istotnie pomaga. Swoją drogą Nobel nie wpadł bez powodu, za badania nad białkami.
Jeszcze w tym roku. Bo sam altan powiedział,że już pracują nad Agi i wiedzą jak ja tworzyć. Co gorsza zastrzały się twierdzenia też prowadzącego który o generatywnej inteligencji powiedział że to wcale nie AI. XD
Temat bardzo ciekawy, ale gość okropnie irytujący. Przecież na pewno wie jaka jest definicja sztucznej inteligencji (czy tam silnej sztucznej inteligencji, bo o taką nam chodzi w tej rozmowie głównie) ale nie odpowie tylko odburkowuje do prowadzącego aby ten mu powiedział... Serio? Dobrze ktoś napisał w innym komentarzu, że trafić na takiego profesora na studiach do dramat.
Wywiad i cały film jak zawsze super. Jednak ton rozmówcy był często troszkę uciążliwy. Może to po prostu taka maniera. Można było wyczuć jakąś wyższość u gościa i czasami zbyt wielkościowe odnoszenie się do samego siebie, chociażby w pytaniu o subiektywne zdanie, gdzie gość podkreśla, że jest NaUkOwcEm. Poza tym super są te dłuższe formaty filmów, a merytoryka prowadzącego jak zawsze świetnie zachowana ❤😊
Mnie to najbardziej ciekawi na jakiej podstawie Pan Profesor zakłada brak emergencji w modelach bo z wypowiedzi Profesora jedyne co wychwyciłem to stwierdzenie że tak jest, i koniec kropka - to ciekawe szczególnie że to nie jest podzielone w nauce na 90% które mówi że nie ma emergencji a 10% mamrota że jest, i można ich pominąć. Myślę że w obecnym momencie to jest przynajmniej 50%/50%. Prosty przykład, modele typu gp-2 no nie były robić matematyki może poza 2+2=4 (bo takie tokeny jeden po drugim mogły znaleźć w datasetcie treningowym). Razem z nadejściem najpierw gpt-3 potem gpt-4 te umiejętności wzrosły z modelu na model i teraz modele działające na transformersach są w stanie zdecydowanie lepiej rozwiązywać zadania matematyczne, i nie ma możliwości że wszystkie kombinacje zadań znajdowały się w datasetcie treningowym, więc po chłopsku, model nabył nową umiejętność wraz ze wzrostem rozmiaru sieci. Pomijam modele z serii o1 czy o3, które jeszcze lepiej radzą sobie z matematyką, bo one trochę inaczej działają. Moim zdaniem przykład gpt-3 i gpt-4 to jest argument wystarczający żeby powiedzieć że jednak emergencja istnieje, przynajmniej w jakimś stopniu. * EDIT Ale rozumiem że można temu przykładowi zarzucić, że jest to przykład na generalizację a nie emergencję, więc jeszcze trochę go rozbuduje. Modele które są tylko i wyłącznie tekstowe takie jak GPT-4 i były trenowane tylko na danych tekstowych, mają marną wyobraźnie przestrzenną, i sam fakt że możemy je spytać o to co się stanie jak obrócimy o ileś stopni w danej osi, potem w innej a na końcu spytamy się czy woda nam się z niego wyleje, i model tekstowy jest w stanie zrozumieć sytuację opisaną w 3D wymiarach bez żadnego zmysłu wzroku, i to w znaczącym % przypadków myślę że również świadczy że są pewne cechy modeli które po prostu nam się materializują wraz ze wzrostem rozmiaru i ilości połączeń, szerszej puli skojarzeń itd. Może ten przykład też mógłby być lepszy, ale nie będę się pastwił nad komentarzem na jutjubie który przeczyta 5 osób, ale myślę że obrazuje o co mi chodzi, inne wątki o których można byloby napisać to np. możliwość generowania obrazów ASCII przez modele językowe, nikt mi nie powie że model językowy wie jak wygląda pałac kultury i nauki a jednak gdy ma wygenerować jego obraz ASCII (z symboli typu przecinki i myślniki) to jest on wieżą, jeżeli spytamy się modelu o wygenerowanie innego typu obiektu którego na pewno grafiki ASCII nie ma w danych treningowych, nie wiem, drukarki 3D na przykład, grafika będzie zawierała kluczowe elementy drukarki i widać że jest to coś więcej niż losowy zbiór myślników i przecinków, te obrazy nie są idealne ale sam fakt że zawierają cechy wizualne rzeczywistych obiektów, jest dowodem na emergencje w mojej opinii. *EDIT 2 Porobiłem testy i drugi przykład z pierwszego edita leży. Test zrobiłem na GPT-4o (który jest i tekstowy i wizualny) i tam działał, ale na GPT-4 Turbo który jest tylko i wyłącznie językowy już nie działa, może to był jednak zły przykład
Przykład z działaniem matematycznym dobitnie pokazuje że nie masz pojęcia o czym piszesz. A kalkulator myślisz że widział kombinacje wszystkich działań? A jeśli nie to znaczy że mamy sztuczna inteligencję tak ? XD ogólnie każdy twój argument można w prosty sposób wytłumaczyć znając podstawy działanie deep learning I sieci neuronowych. Nie ma mowy o żadnej sztucznej inteligencji
Nie zrozumiałeś o co zapytałem, zapytałem o to jak nowe cechy niewidoczne w modelu z mniejszą ilością parametrów nagle stają się widoczne gdy zwiększymy model. Nie pisałem nic o sztucznej inteligencji to dodałeś na własną rękę;)
@@sprytnychomik Nauka Strach przed nieznanym czyli gdy rozum przegrywa z emocjami Strach przed nieznanym wydaje się być wpisany w ludzkie DNA, a jeśli dochodzi do tego brak wiedzy czy kompetencji w danej dziedzinie, to mamy już gotowy przepis na konflikt. W historii ludzkości znajdziemy mnóstwo przykładów, w których wynalazki, idee, czy same myśli były piętnowane, bowiem wychodziły poza ustalone wówczas normy. Sprawdźmy kiedy rozum przegrywał z emocjami.
@@robertpaasz9090 Historia jest też pełna rewolucyjnych wynalazków, które okazały się być kompletnymi bzdurami. Po drugie, AI nie jest żadnym wynalazkiem, bo jeszcze nawet nie powstała. Póki co próbujemy tworzyć imitacje. Upieranie się przy naśladowaniu mózgu 1:1 może skończyć się tak, jakby skończyło się naśladowaniem ptaków 1:1 przy konstrukcji samolotu, który miałby płuca, wątrobę, nerki, etc. a do tego machał skrzydłami i potrzebował snu. Ludzie lataliby wtedy w wielkich siodłach zamontowanych na plecach takich samolotów, jak Flintstonowie na pterodaktylach. Dopóki nie zrozumiemy, czym jest inteligencja, dopóty nie będziemy w stanie powiedzieć, że stworzyliśmy sztuczną.
@@sprytnychomiktak? Ale chyba w odwrotny sposób. Prąd działał i nikt nie widział w tym perspektyw a tutaj nie wiadomo jak działa i wszyscy wierzą że to przyszłość 😅 A że jest hype to chyba każdy się zgodzi. Dzisiaj już na każdym elektronicznym badziewiu musi być coś z AI. Takie modele językowe jak są teraz dostępne mieliśmy w firmie ponad 10 lat temu a dzisiaj różnica jest taka że to co oferują duże firmy jest po prostu nakarmiome całym internetem danych. Od ponad roku czasu nie ma żadnych postępów, już zaczynają stawiać elektrownie jądrowe żeby to szło jakoś dalej do przodu i dalej robić wrażenie.
Niestety zaraz spadnie na niego tona hejtu od ludzi, którzy nie mają pojęcia o a.i. i wierzą we wszsytkie bzdury z prezentacji takich firm jak nvidia, google, open a.i. i innych...
zasoby są ograniczone. Poznanie świata też wymaga ogromnych energii (akceleratory cząstek, teleskopy o wielometrowych zwierciadłach). Obawiam się że będzie ściana.
Pan Rożek wybiera niewłaściwe osoby do rozmowy na temat AI. Doświadczeni profesorowie są przyzwyczajeni do wygłaszania sądów z absolutną pewnością siebie, bo tak mówią i zachowują się wobec swoich studentów. W przypadku AI nie wolno tego robić, bo nawet ludzie pracujący na samej szpicy rozwoju AI (najmocniejsze umysły z OpenAI, Google czy Anthropic) mówią, że tworzą technologię, ale do końca nie rozumieją, jak działa. Tutaj nie ma mądrego, nie ma eksperta, który może wyjść i powiedzieć, że wie, jak to wszystko działa. Próbujemy, testujemy, trenujemy nowe modele i z zaciekawieniem przyglądamy się, co z tego wyjdzie. O AI trzeba mówić z pokorą.
Ciekawy punkt widzenia, z którym się nie zgadzam :D Rzut kamieniem czy oszczepem nie musiał być w pełni zrozumiany abyśmy mogli go używć. Też nomenklatura nie ma najmniejszego znaczenia dla technologicznego rozwoju. Prehistorycznego człowieka interesowało tylko to czy jest to narzędzie było przydatne i czy dzięki niemu może zdobyć przewagę. Tak też jest z obecnymi dużymi modelami językowymi. Jeżeli duża część ludzi uważa je za inteligentne to prawdopodobnie takie są. Nawet jeżeli aktualny poziom inteligencji ustalimy np na 80 IQ to pewnie będzie to więcej niż kilkaset milionów ludzi. Zatem dla dużej części społeczeństwa nawet aktualne prymitywne jeszcze modele językowe są jak geniusze.
Pierwsze kilka sekund materiału idealnie odzwierciedla moje myśli na temat AI. Po pierwsze, ludzie często nie zdają sobie sprawy, jak potężnym narzędziem dysponują. Po drugie, warto zastanowić się nad naszą zależnością od tej technologii - wyobraźcie sobie scenariusz, w którym po latach regularnego korzystania z AI zostajemy od niej odcięci, np. z powodów politycznych lub z powodu zaporowych cen. Jakie mogłyby być tego konsekwencje? Kolejnym problemem jest generowanie odpowiedzi przez AI na podstawie wcześniej wygenerowanych odpowiedzi - i tak w nieskończoność. Wiecie co? Idźcie sobie kupić książki do cholery, kiedyś będą miały wartość kolekcjonerską 😃 P.S. A martwiłem się, że zapisywanie numerów telefonów zamiast ich zapamiętywania mnie ogłupi, a tu taki klops się szykuje :P
Nie rozumiem tej obawy "co jeśli AI nam będzie odebrane". Jak? Po co? Równie dobrze ktoś mógłby powiedzieć "obawiajmy się " bo ktoś nam zabierze internet"
39:15 Skoro zatem nikt nie rozumie jak działa mózg to prawdopodobne jest że może on działać identycznie jak sieci neuronowe, a pojawianie się w nim różnych cech, jak np. świadomość jest kwestią skali takiej sieci neuronowej. Druga sprawa brak chęci poinformowania nas, w jakim kierunku rozwija się ta technologia. Udoskonalanie algorytmów, poszukiwanie nowych itd.
Na pewno nie działa identycznie, bo różni się strukturą. Dlaczego to jest istotne? Polecam zapoznać się z kwantową teorią świadomości Penrose'a i Hameroffa. Zdaje się, że teoria mówiąca o ,,pojawieniu się" świadomości przy wystarczająco dużej mocy obliczeniowej jest już dawno martwa.
Bardzo dobry wywiad. Coraz częściej naukowcy, którym nieszczególnie zależy na popularności w mediach przedstawiają podobne argumenty. Dla mnie od dwóch lat "AI" jest po prostu wyszukiwarka internetową na sterydach. Kiedyś to była wyszukiwarka Google i poskładanie informacji w jedną całość robi dla mnie teraz np chatgpt ale z doświadczenia wiem że nie rozwiąże za mnie niestandardowych problemów i tutaj nie ma absolutnie żadnego postępu od początku.
Czat boty nowej generacji to dalej czat boty i to nie jest AI. Dzisiaj wszystko jest oparte o AI bo to się dobrze sprzedaje. Gość ma racje, to wymaga jeszcze lat badań. NIkt nie wie jak to działa co jest ogromnym problemem. Nikt nie odda kontroli czemuś czego nie rozumie i nie moze kontrolować
Obejrzałem dopiero 9 minut wywiadu, ale już mi się podoba postać Profesora. Pomijam już niektóre kwestie językowe jak "podłanczanie", ale jeśli chodzi o samo podejście i taki konkret to czapki z głów. Nie nawija makaronu na uszy pustymi frazesami, dobrze dobiera słowa. Wszak nie przyjmuje roli CEO świecącego oczami przed inwestorami :)
No właśnie mówi pustymi frazesami momentami. Bańka internetowa też była - tzw. Bańka "dot comów" - co nie zmienia faktu, że internet był rewolucją i zmienił świat. W latach 90 prawie nikt nie wiedział, że internet będzie wyglądaj jak teraz. W podobnym miejscu jesteśmy teraz z AI.
@@metolfenidat odnośnie integracji mózg komputer też moim zdaniem mówi głupoty. Po pierwsze Neuralink już robi testy na ludziach co w materiale nie zostało powiedziane. Testy przebiegają bardzo dobrze i można na internecie posłuchać wywiadów z człowiekiem który ten chip ma w mózgu. Po drugie nie musimy rozumieć mózgu żeby zrobić taki interfejs. Możemy zrobić AI które będzie pełniło rolę tłumacza impulsów mózgowych na impulsy które rozumie komputer. Co z resztą Neuralink już chyba robi.
Zawiodłem się ta rozmową... Profesor Durka z jednej strony twierdzi że modele językowe nie mogą stać się sztucznym mózgiem, bo nie rozumiemy jak działa mózg. A jednocześnie nie ma problemu z tym że nawet Open AI nie wie jak działa GPT. A że działa i potrafi w wielu sytuacjach wyręczyć nasz mózg, to ciężko temu zaprzeczyć...
Dałem łapkę w górę dla Pana prof. Piotrka . Dlatego , że moja ocena tej Ejaji , jest zbieżna z oceną Pana Piotra . Słuchałem różnych dyskusji , które w większości są zachwycaniem się wyobrażeniami tego , co oczekujemy , że ta Ejaja będzie mogła . A , co jest w rzeczywistości ? Przykład nr 1 . Ejaja pomogła w rozpoznaniu trzech przypadków nowotworów . Tu trzeba zwrócić uwagę na liczbę 3 . A ile przypadków razem , ta Ejaja zaproponowała do rozpatrzenia ? Czy 3 ? Czy dorzuciła bardzo dużą liczbę neuronowych śmieci ? Przykład nr 2 . Ejaja zaproponowała uczonym różne rodzaje konstrukcji białek . Możliwa jest bardzo duża liczba możliwości konstrukcji białek . Być może około 100 tysięcy . Ejaja mówi : o tu możecie jeszcze stworzyć 3 rodzaje białek . Jaka jest na to odpowiedź ? Oprócz tego , co już próbujemy tworzyć możemy próbować tworzyć jeszcze nie 3 , a 33 rodzaje , ale tu chodzi o możliwości i celowość , a nie o proponowanie tego , co wylosuje jakaś sieć . Przykład nr 3 . Pytanie do Ejaji : Co może być w ciemnym pomieszczeniu jeśli jeden człowiek stwierdził tam linę , drugi węża , a trzeci drzewo ? I tu Ejaja przestaje być tą inteligencją . Głupieje . A jeśli zapytasz jakiegoś Hindusa , to odpowie , że w ciemnym pomieszczeniu jest słoń , a ogon jest podobny do liny , trąba do węża , a noga do drzewa 4 . Matematyka . Matematyka jest wytworem ludzkiego mózgu . Tam bardzo , bardzo daleko , we wszechświecie nie zachodzi określanie ilości i nie ma żadnej matematyki . nikomu . A Ejaj jest jakby zamknięta w algorytmach . Jest wiele nikomu i do niczego nie potrzebnych teorii , czy prawideł matematycznych . Jeśli podrzucić tą tematykę zależności matematycznych dla Ejaji , to pojemności zwykłego komputera nie starczy na zarejestrowanie wytworzonych przez Ejaję śmieci matematycznych . Czyli Ejaja namnoży różnych nikomu i do niczego niepotrzebnych śmieci . 5 . Kasa . Mask wkłada kasę w sieci neuronowe . W rozwój Ejaji . Szum jest wielki , a co jest w praktyce ? Jakie będą zyski dla Maska ? On chce poprzez sieć Amazon opanować dostawy towarów do odbiorcy dronami . A, drugie , chce wozić ludzi taksówkami bez kierowców . Zanosi się na klapę finansową w obu przypadkach . Największe będą zbiorowe przewozy ludzi . Po torach , choć niekoniecznie żelaznych . Masówka odbierze zyski dla taksówkowych detalistów . To nie ta skala zysków w odniesieniu do wkładów . W przypadku sieci Amazon , sytuacja jest inna . Dostarczanie towarów indywidualnymi dronami nie wygra konkurencji z dostarczaniem kurierskim do dużej ilości punktów . Problem podobny do przewozów taksówkami bez kierowców . Ale być może wytworzy to nowe przepisy korzystania z przestrzeni powietrznej o będzie walka o wpływy z zezwoleń . Kto weźmie kasę ? Gmina , Skarb Państwa , czy jakaś spółka ? Teraz od strony ewolucji . Moim zdaniem pod względem czysto naukowym nastąpił punkt zwrotny w zmianach ewolucyjnych . Ludzie pod dyktando swoich mózgów wytwarzali coraz bardziej skomplikowane narzędzia . Następował rozwój produkcji tych narzędzi . Rozwój uzależniony od zmian ewolucyjnych w ludzkich mózgach . A , teraz narzędziem stał się program komputerowy , a nie jakiś przedmiot , czy maszyna . Teraz narzędziem jest coś niematerialnego .Moim zdaniem jest jakby początek zmian , ale zmian nie idących razem ze zmianami ewolucyjnymi ludzkich mózgów . Przynajmniej tak myśli o tej Ejaji większość tych zachwyconych swoimi wyobrażeniami o możliwościach . Jednak w praktyce , moim zdaniem , Ejaja nie pójdzie w jakimś kierunku samodzielnie . Pójdzie tylko tam , gdzie ludziom się to opłaci . O kierunkach rozwoju Ejaji będą decydować dwa główne stymulatory ludzkiego mózgu , czyli dążenie do dominacji i chciwość . Z kierunku samodzielnego , jak na razie zaczęły się halucynacje . A , halucynacje , to jeden z objawów pokazujących możliwości ZMIENNOŚCI . Tych rodzajów halucynacji może wystąpić przeogromna ilość . Na kierunkach rozwoju Ejaji , tych kierunkach bez zysków , będziemy obserwować coraz to nowe rodzaje halucynacji . A , niektórzy będą nadawać tym różnym rodzajom halucynacji nazwy i będzie można ich nazwiska znaleźć w wikipedii . I tyle . Zarfil
"Ejaja pomogła w rozpoznaniu trzech przypadków nowotworów" imbecylu, AI już jest wykorzystywana do diagnostyki nowotworów na szeroką skalę, więc mowa raczej o setkach tysięcy identyfikacji, a nie trzech.
Piotruś, a może jednak lepiej zająć się chodzeniem po Bieszczadach i filozofowaniem w namiocie zamiast przychodzeniem do studia? Chociaż… czy tak naprawdę Bieszczady istnieją? Czy Bieszczady to las, czy może jednak las z jeziorem? A może jednak las z jeziorem i trzema niedźwiedziami. A co jeśli do lasu wejdzie wilk? Czy to ciągle będą Bieszczady? Zastanówmy się nad tym (nawiązując do Twoich wywodów). Na szczęście prawdziwi naukowcy szybko nazywają rzeczy, których jeszcze nie zdążyli odkryć, a potem inni zamiast zastanawiać się nad nazwą, pomagają w ich odkrywaniu, zamiast spędzać czas na filozofowaniu o tym jak to coś powinno się zapisywać. Tomek zrozumiał to już jakiś czas temu - dlatego działa a nie filozofuje. Aaa, byłbym zapomniał… trzeba Musk’owi powiedzieć, żeby się opamiętał, natomiast to już chyba po siódmym starcie Starship’a, chociaż… czy tak naprawdę Starship istnieje? Czy może jednak to tak naprawdę Starszip? Jeśli tak, to co wtedy? Czy SpaceX upadnie? Czy Bieszczady to Bieszczady? A co z Wilkiem? Niedźwiedź? Piotr? Oh… głupi ja 😢
Wielki szacunek dla Pana Profesora. Wreszcie ktoś wytłumaczył jak działa tzw. sztuczna inteligencja, bez bajek, i filmowych marzeń typu SF. Lenistwo zawsze destruktywne dla prawdziwej ludzkiej logiki i zamienia ją na myślenie emocjonalno życzeniowe. Wielkie dzięki za prawdę.
Jest wiele aspektów gdzie sztuczna inteligencja nas zastąpi, domu nie wybuduje. Co to tego że społeczeństwo zubożej intelektualnie całkowicie się zgadzam.
LLM używam od dawna, widzę jak z dnia na dzień działa coraz lepiej w praktycznie każdym aspekcie, od zadań matematycznych po programowanie czy rozumienie nieco bardziej wysublimowanych memów. Właśnie zmarnowałem 55 min życia na kolejne marudzenie przedstawiciela starszej generacji polskiej nauki. Chat GPT już obecnie potrafi wykonać zadania przekraczające możliwości 95% ludzi, a czy to jest inteligencja w rozumieniu jakiegoś profesora czy nie ma dla mnie znaczenie trzeciorzędne, wole skupić się na efektach, a nie sporach o definicje. Wole posłuchać praktyków typu Wojciech Zaremba.
Pojęcie “działania” jest dosyć szerokie. Jeżeli w zadaniu matematycznym wynik poprawny wygląda tak samo jak błędny to jak pan je odróżni? Wiele poprawnych wyników konkretnych działań zostało zapewne “zassane” przez GPT na etapie uczenia i to na pewno jest przydatne jako rodzaj zamiennika dla kalkulatora rozumiejącego wykonywane działanie (np Wolfram Alpha). Ale skonfrontowanie GPT z nowym problemem da wynik, który wygląda jak poprawny ale taki nie będzie.
@@PawelKrawczyk-r2q to jest półprawda, do tego celu matematycy stworzyli projekt FrontierMath, który jest benchmarkiem dla LLM. Kluczowym elementem benchmarku jest to, że model wcale nie ,,zasysa" wyników podczas procesu uczenia tylko naprawdę próbuje te zadania rozwiązać. Napisałem półprawda, bo rzeczywiście potrafi podać zły wynik, ale przeskok między np. w przypadku chata gpt 4o a o1 jest ogromny w bardzo krótkim czasie. Zmniejsza się ilość błędów i zwiększa rozwiązywalność oryginalnych, niepublikowanych nigdzie zadań matematycznych.
jeżeli pomyślimy o przyszłości sieci neuronowych i tzw AI opartej o różne warianty sieci neuronowych, powinniśmy spojrzeć na samoloty, które powstały wskutek obserwacji i analogi do ptaków czy owadów, o których wciąż nie wiemy szczegółowo jak funkcjonują... jednak stworzyliśmy samoloty, proste, wręcz prymitywne, ale te proste, prymitywne samoloty, pokonały bariery, których żywe organizmy nie pokonały, prędkości, udźwigu i zasięgu... a te bariery zostały przełamane efektem skali... prymitywny samolot był kolejnym skokiem cywilizacji, tak jak koło, maszyna parowa na kołach czyli parowóz, wreszcie samochód w sferze przemieszczania się.... AI nie jest mózgiem, jest proste, prymitywne... lecz pytanie jest, jakie bariery zostaną przełamane przez AI, do jakiego skoku dojdzie za jego sprawą... i pierwszy raz ten skok dokona się w obszarze zarezerwowanym do tej pory dla człowieka, w obszarze kreatywności, aktywności intelektualnej, w sposób którego nie rozumiemy, czyli fenomenologiczny i nie wiadomo, czy kiedykolwiek go zrozumiemy... czy to co powszechnie nazywane jest AI jest inteligencją...? raczej jest, bo znajduje złożone analogie i ma charakter konwergętny...
Bardzo dobry wywiad. W końcu ktoś z naukowym podejściem kto nie straszy algorytmem jak Dragan i widzi w tym przede wszystkim narzędzie a nie rozwiązanie wszystkiego. Nie wspominając już o tych gościach z reklam albo korporacjach próbujących wmówić że AI zabierze ci prace, musisz wziąć jego kurs aby zrozumieć AI, a nawet próbach wmówienia że jakieś urządzenie ma Wbudowane AI i w sumie nie wiadomo co robi ale jest drożej.😂 Według mnie jeszcze daleko do prawdziwej AI ale te algorytmy mogą być kolejnym rozwinięciem HMI.
25:04 Nie jest to prawda. Obecne informacje również są tworzone w sposób syntetyczny. Z kolei inne modele AI filtrują dane, które posłużą do uczenia dużego modelu.
Pan profesor że swoją buta, protekcjonalnym tonem i takim nastawieniem plasuje się idealnie tam gdzie ci co w 19 wieku mówili, że w fizyce to już jest wszystko odkryte i po co na to tracić czas.
Jaka buta ? Po prostu wiekszosc ludzi na powaznie zajmujacych sie nauka potrafi wylac kubel zimnej wody na rozpalone stekiem bzdur propagowanych przez "atrakcyjny" PR ludzi, takich jak Musk, Zuckerberg, Bezos. Nie chodzi o brak wyobrazni czy hamowanie postepu, chodzi o rzetelne i uczciwe przekazywanie tresci naukowych.
nasza inteligencja to też algorytm oparty na statystyce, gdyby sztuczna inteligencja miała sztuczne ciało to bez problemu dałoby się ją wytrenować, by łapała profesora za rękę i nie pozwalała wyjąć wtyczki z kontaktu
Prof jest urealniony normalny i dla mnie ok ale medialnym Guru nie zostanie bo suweren kieruje się adrenaliną anie prawdą a aplikacje promują ilość a nie jakość
23:20 Nie jest to prawda. Aktualne badania prowadzą do utworzenia AgI. Sieć taką można zmodyfikować właśnie aby wymyślała coś nowego i sama siebie uczyła.
Zalecam odsłuchać (bez obrazu) ze względu na oślepiający blask ego Gościa, podszyty lekkim stresem (pod koniec wyluzował). Wielki szacunek dla Prowadzącego - za spokój, konsekwentne drążenie pytań i dystans :)
Temat ciekawy ale ten gość jest w mojej ocenie dość antypatyczny. Jak jakiś nauczyciel, który za wszelką cenę chce przyłapać ucznia na błędzie czepiając się wszystkiego, zamiast cierpliwie wytłumaczyć.
Nie. Tak wypowiadają się specjaliści, osoby, które mają wiedzę na pewien temat. Nie widzę też by robił to niespokojnie. Ton ma spokojny, przyjemny, a podejście pragmatyczne.
@@zenobikraweznick Posłuchaj prawdziwego specjalisty z danej dziedziny, a nie marketingowca (Dragan z wyjątkiem fizyki) to zrozumiesz. Naukowcy to specyficzni ludzie, dlatego potrzebują marketingowców, którzy przełożą to na bardziej przyjemny, spokojny i zrozumiały dla mas język.
Jako student przyznam, że cały ten postęp zniechęca do nauki. Człowiek uczy się tego wszystkiego z myślą, że za kilka lat może zostać zastąpionym. Jest to przytłaczające. W moim przypadku chodzi o studia medyczne, gdzie człowiek uczy się ogromnych partii materiałów i zastanawia się po co. Za chwilę będzie algorytm, robot
już jest. z punktu widzenia pacjenta cieszę się z tego powodu, bo mam dość lekarzy, którzy z całą bezwzględnością wykorzystują niedobory kadrowe w Polsce. wielu z nich zarabia naprawdę gigantyczną kasę jak na polskie warunki (powyżej 30k zł/miesiąc), a i tak miauczą, że im mało. nie chcę generalizować, ale zapewne już teraz połowa z nich mogłaby zostać zastąpiona AI, bo jedyne za co biorą kasę, to kulawa diagnostyka. w USA to już w ogóle doszło do ultrapatologii, ale to bardziej wina całego systemu leczniczo-ubezpieczeniowego, a nie samych lekarzy, którzy jednak są beneficjentami tego systemu. z drugiej strony świadomy niewydolności polskiej służby zdrowia staram się dbać o zdrowie najlepiej jak mogę, aby nie mieć potem kontaktu z lekarzami :)
W końcu ktoś racjonalnie ocenia ten hejt dotyczący AI. W pełni się zgadzam do opinii Pana Profesora. Było olbrzymim, nieuzasadnionym błędem wrzucanie wszystkich danych do sieci neuronowej. Takie postępowanie rzeczywiście powoduje z idiocenie sieci ale pokazuje także z idiocenie ludzi.
Zgłaszam zażalenie odnośnie miniaturek i tytułów. Już po raz kolejny zdarzyło mi się, że wysyłając film znajomemu lub pokazując go żonie na tv, słyszałem, że to jakiś clickbait. Ludzie nie chcą tego klikać! Osobiście również mam problem z kliknięciem w tego typu miniaturę i robię to tylko dlatego, że znam pana Rożka i bardzo lubię jego rozmowy.
Czy można mieć duże przekonanie, że sztuczne sieci neuronowe nie myślą i nie będą do tego zdolne, jeżeli nie wiemy czym jest myślenie i jak to działa w samym mózgu? Czy mózg uczy się zasadniczo inaczej niż sztuczne sieci?
Po komentarzach widać, że ludzie nie chcą realnej wiedzy na dany temat. Wolą bajki od influencerów i rozmowy nienaukowe o tym jak świat podbije AI itd. Zawsze mnie zastanawia po co w takim razie ludzie słuchają takich wywiadów skoro potem uznają, że oni po obejrzeniu kilku filmików w internecie wiedza lepiej xD Tak samo jako programista, który bardzo dużo hobbystycznie używa tych wszystkich "AI", próbuję używać też tego w pracy i widzę jakie to jest czasami ułomne, nie mogę czasami słuchać ludzi, którzy nigdy nie mieli styczności z IT a wiedzą ode mnie lepiej w czym te "AI" może mi w pracy pomóc.
Następną rewolucją będą komputery kwantowe, oczywiście nie dziś nie jutro... ale będą. A jeżeli kiedyś powstanie osobisty komputer kwantowy to będzie skok cywilizacyjny
Trudny rozmówca i ciężko się go słucha podczas tej rozmowy. Tomek Rożek próbuje ją ratować jak może, ale gość skutecznie ciągnie w dół. Protekcjonalny ton aż kłuje w uszy. Mówi, że on zna się na mózgu, ale autorytarnie wypowiada się o AI. Zachowuje się trochę tak, jak IXX-wieczny urzędnik, który z wyższością pyta: "A po nam ten prąd, panie Faraday??"
Najgorsze,że materiał powstał teraz a nauralink został wszczepiony z sukcesem rok temu ;/ pseudonaukowe Bzury id tego gościa można do kosza wrzucić. I te wyśmianie muska xD co za typ xd
Pan mówi, że nie wiemy jak działa mózg człowieka jeśli chodzi o myślenie. Mówi też, że nie wiemy też jak dokładnie działają te olbrzymie modele językowe z bilionami połączeń. Nie przeszkadza mu to jednak w formułowaniu twierdzeń, że to nie jest sztuczna inteligencja, że to jedynie estymacja. Mówi o niedługim braku danych wysokiej jakości do analizy - przecież te modele są dokładnie po to - do tworzenia danych. Potrafią estymować i oceniać zbiory danych - w tym tych stworzonych przez siebie. I to lepiej, sprawniej niż typowy człowiek. I będą je tworzyć. Odłączanie wtyczki też moim zdaniem kiepski argument. Stawiałem lokalnie modele językowe bez połączenia z siecią i działały OK, ale wiadomo że nie na takiej głębi. To nie jest technologia, którą ktoś może teraz od tak wyłączyć. Ale szanuje zdanie.
W jakim sensie tworza zbiory danych?😏 Masz na mysli cale zagadnienie GenAI? Zgoda, sa w stanie wygenerowac zdania spoza korpusu albo obrazy spoza zbioru uczacego. Wezmy na tapet narzedzia do wspomagania programowania - super, Copilot napisze ci kod, ktorego najpewniej nikt nigdy nie napisal. Ale kazda osoba, ktora kiedykolwiek pracowala z Copilotem wie, jak momentami jest on toporny albo jak kijowe fragmenty kodu generuje. To, ze w teorii obecne modele jezykowe sa w stanie wygenerowac nieskonczona liczbe nowych danych nie oznacza, ze sa one wysokiej jakosci. O ile w prostych, pospolitych przypadkach typu pisanie CRUDa najpewniej sie srogo nie pomyli, o tyle w bardziej specyficznych przypadkach (np. wykorzystywanie mniej znanej libki z jakiegos powodu X) szansa, ze wypluje ci niedzialacy kod jest wieksza. A co sie stanie, jak nagle ten niedzialajacy kod bedzie z powrotem uzywany do trenowania? Chyba nie trzeba odpowiadac.
@@D3nz13 Ten przykładowy kod jest generowny na zasadzie prawdopodobieństwa i AI nie ma możliwości weryfikacji jego poprawności, jak się wygeneruje niedziałające dziadostwo i zostanie to ponownie użyte do trenowania sieci to nic dobrego z tego nie wyniknie.
Nie musisz wiedzieć jak dokładnie działa silnik rakietowy, aby móc stwierdzić, że coś nim nie jest. I co do cholery oznacza zwrot "niedługi brak danych"?
Odnośnie mózgu i Neuralink - jemu chodzi o to, że nie znamy protokołów i kodowania stosowanego przez mózg. Nie wiemy nawet czy są one identyczne u wszystkich ludzi czy w tych samych językach. Są pewne wyniki eksperymentów nad kodowaniem obrazów przez mózg, ale jak się to przekłada na myśli.
@@D3nz13 1. No modele tworzą nowe dane na postawie danych wejściowych. 2. nie wszystkie dane są wysokiej jakości, ale modele wyspecjalizowane w analizowaniu danych są i robią fenomenalną robotę. 3. Jak mnie nie nauczysz libki to też jej nie będę znał - szansa że się pomylę jest duża. Jak mnie nauczysz, to szansa że się pomylę spadnie. Czyli trochę jak model, co nie?
Oczywiście, gość jest wszechwiedzący a obracający miliardami ludzie to durnie :D Klasyczny przykład osoby która kilkanaście lat temu mówiła, że Internet to bzdura ;P Nie chcę tego diagnozować, ale przychodzi mi do głowy kilka zaburzeń, z czego przynajmniej jedno jest mocno widoczne.
Pan profesor czepia się używanych pojęć i bardzo płytko w przyszłość patrzy. Nie bierze pod uwagę tego, że niebawem takie sieci będą ewoluować samodzielnie. Może to i algorytm statystyczny ale maluje takie obrazy i filmy jakich człowiek nigdy by nie wymalował. Wnioski wyciąga szybciej niż człowiek, programy (póki co fragmenty) ale pisze 100 razy szybciej niż programista itd.. itp... Nazywajmy to sobie jak Pan chce. Inteligencja albo statystyka. To nie ma znaczenia bo "to coś" zaczyna nas wyprzedzać nas w coraz większej ilości obszarów zarówno w rzemiośle jak i kreatywności.
Wreszcie ktoś trochę sprowadził AI hype na ziemię, mówiąc że to nie jest deus ex machina, a oprogramowanie (bardzo skomplikowane, bardzo zaawansowane), ale tylko oprogramowanie.
Co za absurdalne pieprzenie. Nikt nie twierdził, że AI nie jest oprogramowaniem działającym na procesorach. Oczywiście że AI i deep learning jest przełomem o którym nie śniło się jeszcze 3 lata temu. Bagatelizowanie wpływu AI na życie gdy za chwilę będziemy mieli eksplozję popularnisci autonomicznych aut jest debilizmem.
@@antekp2965 prof Dragan wielokrotnie twierdził, że hodujemy sobie gatunek który nas załatwi,. Niezbyt często podkreślano, że to jest tylko oprogramowanie. Rozumiem, że komuś odrobinę siedzącemu w temacie nie trzeba tego mówić, ale jestem przekonany, że wielu ludzi słyszało o AI/chat GPT, ale jakbyś ich zapytał co to tak naprawdę jest, to nie umieli by odpowiedzieć. Ot jest jakaś strona w necie, z którą można pogadać.
38:23 Nie jest to prawda. No właśnie, że myślą i to bardzo podobnie do ludzkiego. Aktualne modele od open AI o1 czy o3 są inteligentniejsze od człowieka.
Fajnych profesorów macie na tym UW. Wszystko już było, AI nie ma żadnego potencjału. Największym zagrożeniem jest generowanie fajkowych zdjęć. Zajmijmy się katastrofą klimatyczną....
Gość programu bardzo wielu komentatorom wydaje się niestrawny. Ale wysłuchanie całości i staranie się zrozumieć o czym mówi i jakim językiem ma dopiero sens. AI dziś to głównie produkt, który ludziom się sprzedaje opakowując odpowiednio do odbiorcy. Ma rację mówiąc, że to prowadzi głównie do totalnego ogłupiania ludzi. Dzieje się tak ponieważ większość z nas stara się działać skutecznie i po najmniejszych kosztach. W efekcie rzadko prowadzimy analizę krytyczną. Niestety takie lenistwo nas pokona. AI to również narzędzie do osiągnięcia władzy i eliminacji konkurencji w postaci ludzi, którymi zarządza się mimo wszystko dość trudno. Każdy z nas ma słaby punkt. Gość programu też. Widac to po przykładach jak można ludźmi zmanipulować. Podał Trumpa, podal negowanie globalnego ocieplenia, itd. Nie zastosował jednak analizy krytycznej i nie zadał pytania jak to się stalo, że w to wszystko uwierzyliśmy jako społeczeństwa. Jakie techniki użyto, że ludzie uwierzyli w pandemię i pokornie wykonywali tysiące irracjonalnych zaleceń i zakazów. Tego przykładu nie podał. Może dlatego, że prowadzący też w pandemię uwierzył.
Uwierzył w pandemię? Z jednej strony wypowiadasz się w miarę logicznie co do koncepcji AI, z drugiej negujesz pandemię? Wiesz w ogóle co to znaczy pandemia?
@@PauloProelo koledze już się pewnie miesza pandemia i zarządzanie pandemią. Pandemia była, tylko to jak została "obsłużona" to jeden wielki bubel, który defacto tylko pogorszył sytuacje. A co do głównego komentarza, to może wspomniał o trumpie i o globalnym ociepleniu, bo to jest dalej na kompasie, a pandemia już poszła w zapomnienie?
Gdyby ludzie więcej wiedzieli o programowaniu to by rozumieli, że AI jest reklamowym sloganem... Podejrzewam, że w większości firm algorytmy są wykorzystywane do organizacji ich pracy. Sądzę też, że nikt nie wie czym są algorytmy. Miałem to szczęście, że już w roku 1973 musiałem napisać program do użycia dużej ilości danych, aby otrzymać wynik. Przy pomocy języka Algol (który już wtedy wykorzystywał biblioteki), a obliczenia były wykonywane w ZETO na komputerze Odra. Duża część społeczeństwa nie rozumie, że algorytmy są oparte na zasadzie wyboru TAK lub NIE... Panowie więcej tak mądrych wywiadów - może mniej ludzi będzie klękać przed AI...👌👌👌
I co to ma za znaczenie wobec tego, że to AI czyni cuda, których nie dokonały klasyczne algorytmy przy tej samej mocy obliczeniowej? Jaki sens ma przyp. się do terminologii skoro to działa i stanowi przełom? W każdym podręczniku o AI jest napisane, że idee sieci neuronowych luźno nawiązują do budowy mózgu.
Widać, że nie miał Pan za bardzo do czynienia z AI, ale woli się wypowiedzieć. Już teraz AI zwiększa wydajność programistów 10x , więc nie wiem jak można to nazwać reklamowym sloganem? Piszę to jako programista, który sam ostatnio zrobił projekt w pracy w 99% za pomocą samego AI i zajęło mi to dużo mniej czasu niż jakbym miał to zrobić 2 lata wcześniej.
@@kostrzak18 to, że AI zwiększa wydajność programistów nie wyklucza tego, że samo słowo AI jest sloganem reklamowym. Zdaje się nawet, któryś z twórców któregoś dużego AI'aja opisywał to jako slogan reklamowy, żeby się więcej o tym mówiło, aczkolwiek nie jestem w stanie przytoczyć kto i kiedy tak mówił bo nie pamiętam :(
@@kostrzak18 Skoro AI pisze Ci 99% kodu, to znaczy, że nie piszesz żadnego istotnego kodu. Z mojego doświadczenia kod generowany prze AI, o ile się w ogóle skompiluje, jest w większości bezużyteczny, powolny, a czasami po prostu błędny i zawierający UB.
Skoro AI wie wszystko (baza danych) co ludzie, to jak to połączyć z twierdzeniem, że jeśli chcesz zrobić coś niemożliwego to zaproś „przedszkolaka” i poproś żeby to zrobił.
Zgadzam się z Panem profesorem, że może to w jakiś sposób prowadzić do zidiocenia i do przewymiarowania podejścia do problemu, czyli zamiast zastosować do czegoś np. regresję liniową, prostszą i mniej zasobożerną ludzie będą wszędzie upychać te sieci neuronowe. Ale no ogólnie nie zgadzam się z podejściem profesora do SI
Niesamowite jak łatwo ludzie wylewają wiadro pomyj bo ktoś powie "podłancza" lub gdy na początku nie jest wcale potulnym barankiem z łagodną osobowością tylko ma konkretne spostrzeżenia i wyraża je dosadnie, lub gdy próbuje stawiać wyzwanie w rozmowie. Ci którzy by dotarli dalej zauważyliby że Profesor ma dużo pokory jak i potrafi docenić spostrzeżenia rozmówcy. Umie powiedzieć nie wiem kiedy wyczerpie się zasób i zwyczajnie nie mydli oczu. Wiele osób zarzuca też brak konkretów i merytoryki - a niby czemu nie? Wyjaśnia że "AI" to tylko sieci neuronowe i uczenie maszynowe - nie będzie przecież robił wykładu z tego bo zaraz połowa wyłączy z braku obycia z tematem. To jest bądź co bądź popularnonaukowy wywiad, a możliwe że poczucie braku konkretów wynika z tego że jasno Profesor zaznacza jak wiele jeszcze nie wiemy i że AI nie pożre nas za chwile swoją bystrością i wiedzą.
"Elon jak zwykle opowiada bzdury, że będziemy podłączać mózgi do komputera" to jest dla ciebie pokora? odkleiło cię totalnie? to profesor, który zajmuje się właśnie interfejsem komputer-mózg i dyskredytuje Neuralinka tylko dlatego, że nienawidzi Muska z powodu jego zaangażowania w kampanię Trumpa. trudno o bardziej rażący przejaw bufonady. Musk o ile wiem nie zajmuje się osobiście Neuralinkiem od strony inżyniersko-komputerowej, ale dysponuje nieograniczonymi środkami i zatrudnia topowych naukowców z tej dziedziny i choćby tylko to powinno skłaniać do pewnego namysłu. być może nie chciał profesora Durki, nie wiem, ale wiem jedno, że więcej się mówi na świecie o Neuralinku niż o polskich osiągnięciach w podobnych badaniach.
artykuł z 2019 : "Cyborgizacja według Elona Muska Monika Redzisz Polski akcent w interfejsach Interfejsy mózg-maszyna od wielu lat tworzy się z powodzeniem w wielu ośrodkach naukowych na świecie. W Polsce pracował nad tym prof. Piotr Durka z Wydziału Fizyki Uniwersytetu Warszawskiego - w 2008 roku przeprowadził pierwszy publiczny pokaz BCI. Są dwie metody. Pierwsza nieinwazyjna: mózg łączy się z komputerem za pomocą elektrod przyczepionych do głowy. Druga - inwazyjna, i to mocno, ponieważ implant wszczepia się tu bezpośrednio do mózgu, wymaga więc to zrobienia otworów w czaszce." czyli wątek prymitywnej zazdrości, że komuś się udało :)
Ale ten pan kłamie i wymyśla bzdury. A mówi,że jest naukowcem. To co powiedział o neurolink jest kłamstwem . Powinien się wstydzić bo neuralink działa ku*** mać.. Każdy tego człowieka zwerifikuje i zauważy jakie bzdury mówi a wypowiedź o neuralink jest tego przykładem.
Ciekawe dla mnie skonfrontować sobie poglądów pana profesora z poglądami Jacka Dukaja, które są odmienne o 180 stopni gdzie nauczanie innego osobnika wytwarzania pięściaka to już SI.
Ostatnio widziałem zagraniczną reklamę laptopa. Słowo AI padło co najmniej 5 razy. Coś w stylu „Acer 14 AI najnowszy laptop z serii AI przystosowany do wykonywania zadań AI w twojej pracy wspieranej przez AI. Posiada antywirusa AI i najnowszej generacji funkcje AI”
Szczerze. Słaby gość. Większość jego wiedzy to powtórzenie pytania z prośbą o definicję zagadnienia. BTW - jak gość wytłumaczy wtórność istniejących AI tym, że bardzo wysoko punktują / wygrywają olimpiady matematyczne. Olimpiady w których podstawą jest nowość postawionego problemu. Żaden AI czy LLM nie mógł „z internetu” dowiedzieć się jak rozwiązać zadania / przeprowadzić dowody.
Ale jak Apple w testach zmieniło w treści zadań parę nieistotnych rzeczy (np. imiona, nazwy owoców), albo dodało nieistotne informacje (np. info o pogodzie), to wyniki AI poleciały na łeb na szyję. "GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models" Z tymi modelami jest jak z robieniem prawa jazdy - kursanci uczą się, jak zdać egzamin, a nie jak jeździć.
I z danymi Profesor też nie ma racji. Oczywiści, że teraz AI gada bzdury i jest głupia, bo to dane z Internetu i poprzez oparcie na statystyce algorytmy za prawdę uznają ilość wystąpień (jakby opierała się na "społecznym dowodzie słuszności"), a nie ich jakość/ mądrość/ słuszność, ale np. "mądrość tłumu" jest naukowo udowodniona, że działa w pewnych kwestiach (przy założeniu pewnych ram/ wstępnych reguł). Ale czy Profesor wierzy, że w USA nie budują "mądrej AI"??? (ja w to nie wierzę) Myślę, że obecna AI, to socjo-technika, żeby nie przerazić ludzi i żeby nie zaczęli palić "Modelu T", czyli żeby oswoić z "głupiutkim i głupiutko bezpiecznym zwierzątkiem". Biblioteka Kongresu Stanów Zjednoczonych, Waszyngton Siedziba największej biblioteki na świecie zlokalizowana jest w Waszyngtonie. Jej zbiory sięgają 160 mln książek.
Wywiad bardzo ciekawy, ale dla mnie komentarze chyba mu "dorównują". Ciekawe że tak różnie odbieramy ten przekaz. Ogladam i myślę jakże super byłoby trafic na takiego wykładowcę, ktoś poniżej twierdzi że to bylby dramat, mi nic nie przeszkadza w odbierze a komuś ton głosu/mamiera przeszkadza... analiza nadaje sie na "doktorat" 😉
Mam wrażenie że gość programu to nieprędko dostanie zaproszenie do podobnego programu.
Nie rozumie czemu pan rożek zaprasza takich ludzi. Jak można powiedzieć ,że takie coś jak sztuczna inteligencja nie istnieje. Brak słów.
Proszę zorganizować rozmowę prof. Durka z prof. Draganem. Wyciągają całkowicie odmienne wnioski z tego co się dzieje w dziedzinie AI. Byłoby ciekawie...
I ewentualnie jeszcze prof. Duch, który zna zagadnienia bliższe prof. Durce.
Ci którzy zbudowali pierwszą łódkę prawdopodobnie nie znali prawa Archimedesa
Świetna rozmowa...Gosc bardzo ciekawy, ale jestem pod wrażeniem dociekliwości Prowadzącego. Panie Rożek brawo!
@@boqser To nie dociekliwość, to stanowcze domaganie się odpowiedzi na zadane pytanie, gdy rozmówca się miga.
A mnie troche zmeczyl ten wywiad, rozmowca mowi super ciekawe rzeczy, ale ten protekcjonalny chwilami ton, jakies takie traktowanie prowadzacego z gory, niepotrzebne to. Dziekuje za material.
co kto lubi, mnie przekonał swoją mocną wiarą we własne przekonania
To akurat normalna część kultury naukowej w Polsce, dobrze że nie wypowiadał się lekarz 😂Hierarchia się sama nie zaznaczy ☝️
identyczne zdanie mam, ciężki rozmówca się trafił.
mam takie same odczucia. Profesor mówi ciekaw rzecz, ale sądzę, że przez ten ton Pan Tomasz nie czuł się w tej rozmowie dobrze, ale mimo to zadawał ciekawe pytania :)
@@KonradKwadratTelus Wiara we własne przekonania nie jest argumentem w dyskursie naukowym.
Proszę zrobić debatę prof. Durka z prof. Draganem byłoby to arcyciekawe :)
Obawiam się, że prof. Dragan nie podjął by rękawicy. Prof. Durka chyba wyjaśniał, że stwierdzenie "chat GPT ma inteligencje ośmiolatka" to wierutne bzdury.
@emesz640 nie wiem czy by podjął, na pewno debata byłaby ciekawa, bo spojrzenia mają zupełnie inne :)
Starcie takich dwóch ego to będzie eksploatacja, wykończy nas i ich samych XD
@@TWARDOWSKY. To by była debata na poziomie shitstorm :).
Lub Duchem.. ;)
Świetna rozmowa, Bardzo merytoryczna i przystępna
Serdeczności ślę z drogi, drogi życia! Dziękuję za pogadankę. Stanisław
Ego pana profesora jest chyba większe niż hype na AI
A może tu działa zasada, że jeśli ktoś wie dzień wcześniej to uważany jest za wariata?
Też to zauważyłam. Ale tak mają, ludzie, którzy mają mega wiedzę i rozmawiają, konkretnie z takim co jej nie ma, to ciężko.
@@marekreontzki5827 Nawet jeśli ktoś jest mądry i mówi samą prawdę to przecież nie wyklucza to tego, że ma wybujałe ego prawda?
Zobacz wywiady z profesorem Draganem, i to w jaki sposób rozmawia z prowadzącymi.
No i trzeba też pamiętać że nie da się stwierdzić na podstawie jednego filmiku czy ktoś ma duże ego czy nie. Może po prostu ma taki sposób wypowiedzi.
Typowy profesorek, bedzie opowiadał o AI, a pewnie nie umie drukarki podłączyć.
5:38 Nuralink pozwala grać już w gry komputerowe. Mam mdłości. Ten człowiek nie ma pojęcia o czym mówi. 32:00 Są tworzone specjalne modele na specjalistycznych danych przez OpenAI przeznaczone do celów naukowych.
Co do Neuralink to się zgadza, jednak pytanie o skuteczność tej metody, obecnie tylko 1 pacjent chyba ma to wszczepione, a medycyna to nie matematyka, pytanie jest o procent udanych operacji, oraz o skutki uboczne oraz długofalową reakcje organizmu na taki chip. Badanie leków to tak 10-12 lat od pomysłu (pracuje w tej branży). Ogólnie sam kibicuje tej technologii. Natomiast jeśli chodzi o Open AI to pchają wszystko co popadnie i nie słyszałem o żadnych specjalnych modelach, chyba że chodzi ci o o1 i nadchodzący o3, ale jeśli się nie mylę tam pod spodem dalej jest model 4o + chain of thought + to czego nie wiemy. Tak się składa że modele od Open AI mają zastosowanie w dziale, w którym pracuję i nie ma jakiś "ukrytych" specjalisycznych modeli od Open AI. Hype też jest, ale istotnie AI ma potencjał, chociaż czytając nagłówki to w sporej części marketingowy, jednak w branży medycznej istotnie pomaga. Swoją drogą Nobel nie wpadł bez powodu, za badania nad białkami.
czytam w opisie filmiku: "Rozmowa nagrana w listopadzie 2023 roku."
Bardzo mnie ciekawi jak się ze starzeją kategoryczne stwierdzenia pana profesora
Jeszcze w tym roku. Bo sam altan powiedział,że już pracują nad Agi i wiedzą jak ja tworzyć. Co gorsza zastrzały się twierdzenia też prowadzącego który o generatywnej inteligencji powiedział że to wcale nie AI. XD
Temat bardzo ciekawy, ale gość okropnie irytujący. Przecież na pewno wie jaka jest definicja sztucznej inteligencji (czy tam silnej sztucznej inteligencji, bo o taką nam chodzi w tej rozmowie głównie) ale nie odpowie tylko odburkowuje do prowadzącego aby ten mu powiedział... Serio? Dobrze ktoś napisał w innym komentarzu, że trafić na takiego profesora na studiach do dramat.
Wywiad i cały film jak zawsze super. Jednak ton rozmówcy był często troszkę uciążliwy. Może to po prostu taka maniera. Można było wyczuć jakąś wyższość u gościa i czasami zbyt wielkościowe odnoszenie się do samego siebie, chociażby w pytaniu o subiektywne zdanie, gdzie gość podkreśla, że jest NaUkOwcEm. Poza tym super są te dłuższe formaty filmów, a merytoryka prowadzącego jak zawsze świetnie zachowana ❤😊
Dokladnie tak... prosze sobie wyobrazic jak pewnie studenci sa orani takim tonem, albo zona.
Brawo, brawo, brawo, w końcu ktoś mówi jak jest z tym czymś zwanym "AI"... BRAWO!
a na końcu mówi ze specjalnie grał role oportunisty a zdaje sobie sprawę ze dzieje sie rewolucja :)
Tzn. jak jest, idiotko, skoro pozbawia pracy tysięcy ludzi każdego dnia?
to jest material z czasow przed wszeczpieniem neuralinka 2 osobom :) a profesor to z piwnicy dopiero wyszedl i jest otwarty na komunikacje troche
Mnie to najbardziej ciekawi na jakiej podstawie Pan Profesor zakłada brak emergencji w modelach bo z wypowiedzi Profesora jedyne co wychwyciłem to stwierdzenie że tak jest, i koniec kropka - to ciekawe szczególnie że to nie jest podzielone w nauce na 90% które mówi że nie ma emergencji a 10% mamrota że jest, i można ich pominąć. Myślę że w obecnym momencie to jest przynajmniej 50%/50%. Prosty przykład, modele typu gp-2 no nie były robić matematyki może poza 2+2=4 (bo takie tokeny jeden po drugim mogły znaleźć w datasetcie treningowym). Razem z nadejściem najpierw gpt-3 potem gpt-4 te umiejętności wzrosły z modelu na model i teraz modele działające na transformersach są w stanie zdecydowanie lepiej rozwiązywać zadania matematyczne, i nie ma możliwości że wszystkie kombinacje zadań znajdowały się w datasetcie treningowym, więc po chłopsku, model nabył nową umiejętność wraz ze wzrostem rozmiaru sieci. Pomijam modele z serii o1 czy o3, które jeszcze lepiej radzą sobie z matematyką, bo one trochę inaczej działają. Moim zdaniem przykład gpt-3 i gpt-4 to jest argument wystarczający żeby powiedzieć że jednak emergencja istnieje, przynajmniej w jakimś stopniu.
* EDIT
Ale rozumiem że można temu przykładowi zarzucić, że jest to przykład na generalizację a nie emergencję, więc jeszcze trochę go rozbuduje. Modele które są tylko i wyłącznie tekstowe takie jak GPT-4 i były trenowane tylko na danych tekstowych, mają marną wyobraźnie przestrzenną, i sam fakt że możemy je spytać o to co się stanie jak obrócimy o ileś stopni w danej osi, potem w innej a na końcu spytamy się czy woda nam się z niego wyleje, i model tekstowy jest w stanie zrozumieć sytuację opisaną w 3D wymiarach bez żadnego zmysłu wzroku, i to w znaczącym % przypadków myślę że również świadczy że są pewne cechy modeli które po prostu nam się materializują wraz ze wzrostem rozmiaru i ilości połączeń, szerszej puli skojarzeń itd. Może ten przykład też mógłby być lepszy, ale nie będę się pastwił nad komentarzem na jutjubie który przeczyta 5 osób, ale myślę że obrazuje o co mi chodzi, inne wątki o których można byloby napisać to np. możliwość generowania obrazów ASCII przez modele językowe, nikt mi nie powie że model językowy wie jak wygląda pałac kultury i nauki a jednak gdy ma wygenerować jego obraz ASCII (z symboli typu przecinki i myślniki) to jest on wieżą, jeżeli spytamy się modelu o wygenerowanie innego typu obiektu którego na pewno grafiki ASCII nie ma w danych treningowych, nie wiem, drukarki 3D na przykład, grafika będzie zawierała kluczowe elementy drukarki i widać że jest to coś więcej niż losowy zbiór myślników i przecinków, te obrazy nie są idealne ale sam fakt że zawierają cechy wizualne rzeczywistych obiektów, jest dowodem na emergencje w mojej opinii.
*EDIT 2
Porobiłem testy i drugi przykład z pierwszego edita leży. Test zrobiłem na GPT-4o (który jest i tekstowy i wizualny) i tam działał, ale na GPT-4 Turbo który jest tylko i wyłącznie językowy już nie działa, może to był jednak zły przykład
Przykład z działaniem matematycznym dobitnie pokazuje że nie masz pojęcia o czym piszesz. A kalkulator myślisz że widział kombinacje wszystkich działań? A jeśli nie to znaczy że mamy sztuczna inteligencję tak ? XD ogólnie każdy twój argument można w prosty sposób wytłumaczyć znając podstawy działanie deep learning I sieci neuronowych. Nie ma mowy o żadnej sztucznej inteligencji
Nie zrozumiałeś o co zapytałem, zapytałem o to jak nowe cechy niewidoczne w modelu z mniejszą ilością parametrów nagle stają się widoczne gdy zwiększymy model. Nie pisałem nic o sztucznej inteligencji to dodałeś na własną rękę;)
Bardzo ciekawy wywiad!
Profesor mówi "Podłancza"....
Też to zauważyłem, aż uszy bolą.
Gość ma polot podobna dyskusja toczyła się na temat prądu elektrycznego 250 lat temu .
Przytocz, proszę, jakieś fragmenty.
Podobna dyskusja toczy się za każdym razem gdy pojawia się coś potencjalnie rewolucyjnego. Czasami się taka dyskusja po prostu źle starzeje :)
@@sprytnychomik
Nauka
Strach przed nieznanym czyli gdy rozum przegrywa z emocjami
Strach przed nieznanym wydaje się być wpisany w ludzkie DNA, a jeśli dochodzi do tego brak wiedzy czy kompetencji w danej dziedzinie, to mamy już gotowy przepis na konflikt. W historii ludzkości znajdziemy mnóstwo przykładów, w których wynalazki, idee, czy same myśli były piętnowane, bowiem wychodziły poza ustalone wówczas normy. Sprawdźmy kiedy rozum przegrywał z emocjami.
@@robertpaasz9090 Historia jest też pełna rewolucyjnych wynalazków, które okazały się być kompletnymi bzdurami.
Po drugie, AI nie jest żadnym wynalazkiem, bo jeszcze nawet nie powstała. Póki co próbujemy tworzyć imitacje. Upieranie się przy naśladowaniu mózgu 1:1 może skończyć się tak, jakby skończyło się naśladowaniem ptaków 1:1 przy konstrukcji samolotu, który miałby płuca, wątrobę, nerki, etc. a do tego machał skrzydłami i potrzebował snu. Ludzie lataliby wtedy w wielkich siodłach zamontowanych na plecach takich samolotów, jak Flintstonowie na pterodaktylach.
Dopóki nie zrozumiemy, czym jest inteligencja, dopóty nie będziemy w stanie powiedzieć, że stworzyliśmy sztuczną.
@@sprytnychomiktak? Ale chyba w odwrotny sposób. Prąd działał i nikt nie widział w tym perspektyw a tutaj nie wiadomo jak działa i wszyscy wierzą że to przyszłość 😅
A że jest hype to chyba każdy się zgodzi. Dzisiaj już na każdym elektronicznym badziewiu musi być coś z AI. Takie modele językowe jak są teraz dostępne mieliśmy w firmie ponad 10 lat temu a dzisiaj różnica jest taka że to co oferują duże firmy jest po prostu nakarmiome całym internetem danych. Od ponad roku czasu nie ma żadnych postępów, już zaczynają stawiać elektrownie jądrowe żeby to szło jakoś dalej do przodu i dalej robić wrażenie.
Nad interfejsem mozg-komputer pracowałem w 1998. Prawie 30 lat temu. Bardzo dobry temat i widzę, że gość doskonale odsiewa plewy od ziarna:)
Niestety zaraz spadnie na niego tona hejtu od ludzi, którzy nie mają pojęcia o a.i. i wierzą we wszsytkie bzdury z prezentacji takich firm jak nvidia, google, open a.i. i innych...
W 1998 to komputer nie wiele mógł😅
@@marianpe5773 jeśli w 1969 mógł pomóc wylądować człowiekowi na księżycu to w '89 już dużo mógł
Oprócz bardzo ciekawej rozmowy, podziwiam animację na początku materiału. Fajnie uzupełnia narrację. Gratulacje! 👍
Nie dzisiaj, to jutro
Rozwoju sztucznej inteligencji nic nie zatrzyma
A AI nic nie zatrzyma
zasoby są ograniczone. Poznanie świata też wymaga ogromnych energii (akceleratory cząstek, teleskopy o wielometrowych zwierciadłach). Obawiam się że będzie ściana.
@jarekk.8247 obawiam się, że na takie rzeczy znajdzie się energię. I znajdzie zgoda na pozyskanie tej energii ze źródeł kopalnych
Skąd się tacy ludzie biorą?
Pan Rożek wybiera niewłaściwe osoby do rozmowy na temat AI. Doświadczeni profesorowie są przyzwyczajeni do wygłaszania sądów z absolutną pewnością siebie, bo tak mówią i zachowują się wobec swoich studentów. W przypadku AI nie wolno tego robić, bo nawet ludzie pracujący na samej szpicy rozwoju AI (najmocniejsze umysły z OpenAI, Google czy Anthropic) mówią, że tworzą technologię, ale do końca nie rozumieją, jak działa. Tutaj nie ma mądrego, nie ma eksperta, który może wyjść i powiedzieć, że wie, jak to wszystko działa. Próbujemy, testujemy, trenujemy nowe modele i z zaciekawieniem przyglądamy się, co z tego wyjdzie. O AI trzeba mówić z pokorą.
Ale trzeba też pamiętać że ktoś włożył w to grube pieniądze i chce żeby to się opłaciło ;)
Ahahah, z pokorą? Co?
Czemu mam gadać z pokorą o kolejnej technologii?
Idiotyzm, teraz rozumiem o jakich ludzioch profesor mówił
Pan rożek też nie jest jakimś wybitnym profesorem powiedział bym,że jest strasznie słabym profesorem.
Ciekawy punkt widzenia, z którym się nie zgadzam :D Rzut kamieniem czy oszczepem nie musiał być w pełni zrozumiany abyśmy mogli go używć. Też nomenklatura nie ma najmniejszego znaczenia dla technologicznego rozwoju. Prehistorycznego człowieka interesowało tylko to czy jest to narzędzie było przydatne i czy dzięki niemu może zdobyć przewagę. Tak też jest z obecnymi dużymi modelami językowymi. Jeżeli duża część ludzi uważa je za inteligentne to prawdopodobnie takie są. Nawet jeżeli aktualny poziom inteligencji ustalimy np na 80 IQ to pewnie będzie to więcej niż kilkaset milionów ludzi. Zatem dla dużej części społeczeństwa nawet aktualne prymitywne jeszcze modele językowe są jak geniusze.
Super wywiad 🎉
"szacowne biblioteki do widzenia maszynowego"
Ale męczący gość. Odpadłem zanim doszliscie do senda.
Pierwsze kilka sekund materiału idealnie odzwierciedla moje myśli na temat AI. Po pierwsze, ludzie często nie zdają sobie sprawy, jak potężnym narzędziem dysponują. Po drugie, warto zastanowić się nad naszą zależnością od tej technologii - wyobraźcie sobie scenariusz, w którym po latach regularnego korzystania z AI zostajemy od niej odcięci, np. z powodów politycznych lub z powodu zaporowych cen. Jakie mogłyby być tego konsekwencje? Kolejnym problemem jest generowanie odpowiedzi przez AI na podstawie wcześniej wygenerowanych odpowiedzi - i tak w nieskończoność. Wiecie co? Idźcie sobie kupić książki do cholery, kiedyś będą miały wartość kolekcjonerską 😃
P.S. A martwiłem się, że zapisywanie numerów telefonów zamiast ich zapamiętywania mnie ogłupi, a tu taki klops się szykuje :P
Też mam podobne spostrzeżenia. 12:30 to kwintesencja AI.
Nie rozumiem tej obawy "co jeśli AI nam będzie odebrane". Jak? Po co? Równie dobrze ktoś mógłby powiedzieć "obawiajmy się " bo ktoś nam zabierze internet"
Sam odejdziesz od neta jak cię znudzi i będzie za dużo botów 😀
@MikeFeatherston0700 I po pewnym czasie odkrywasz, że sam zachowujesz się jak bot :P
@@damianfox1531 No jest w tym jakieś erotyczne napięcie... =) .
39:15 Skoro zatem nikt nie rozumie jak działa mózg to prawdopodobne jest że może on działać identycznie jak sieci neuronowe, a pojawianie się w nim różnych cech, jak np. świadomość jest kwestią skali takiej sieci neuronowej. Druga sprawa brak chęci poinformowania nas, w jakim kierunku rozwija się ta technologia. Udoskonalanie algorytmów, poszukiwanie nowych itd.
Skoro nie rozumiemy jak powstaje świadomość to jak możemy stwierdzić w jakich warunkach *prawdopodobnie* zaistnieje? To jest zwykły strzał.
Na pewno nie działa identycznie, bo różni się strukturą. Dlaczego to jest istotne? Polecam zapoznać się z kwantową teorią świadomości Penrose'a i Hameroffa. Zdaje się, że teoria mówiąca o ,,pojawieniu się" świadomości przy wystarczająco dużej mocy obliczeniowej jest już dawno martwa.
Panie Rożku człowiek z neuralinkiem już grał w counter strike
Bardzo dobry wywiad. Coraz częściej naukowcy, którym nieszczególnie zależy na popularności w mediach przedstawiają podobne argumenty. Dla mnie od dwóch lat "AI" jest po prostu wyszukiwarka internetową na sterydach. Kiedyś to była wyszukiwarka Google i poskładanie informacji w jedną całość robi dla mnie teraz np chatgpt ale z doświadczenia wiem że nie rozwiąże za mnie niestandardowych problemów i tutaj nie ma absolutnie żadnego postępu od początku.
utożsamiasz AI z LLM. to absurd.
@@antekp2965 zdaje się że ten film był własnie o tym ;)
Czat boty nowej generacji to dalej czat boty i to nie jest AI. Dzisiaj wszystko jest oparte o AI bo to się dobrze sprzedaje. Gość ma racje, to wymaga jeszcze lat badań. NIkt nie wie jak to działa co jest ogromnym problemem. Nikt nie odda kontroli czemuś czego nie rozumie i nie moze kontrolować
Obejrzałem dopiero 9 minut wywiadu, ale już mi się podoba postać Profesora. Pomijam już niektóre kwestie językowe jak "podłanczanie", ale jeśli chodzi o samo podejście i taki konkret to czapki z głów. Nie nawija makaronu na uszy pustymi frazesami, dobrze dobiera słowa.
Wszak nie przyjmuje roli CEO świecącego oczami przed inwestorami :)
Chyba oglądaliśmy różne wywiady 😐
No właśnie mówi pustymi frazesami momentami. Bańka internetowa też była - tzw. Bańka "dot comów" - co nie zmienia faktu, że internet był rewolucją i zmienił świat. W latach 90 prawie nikt nie wiedział, że internet będzie wyglądaj jak teraz. W podobnym miejscu jesteśmy teraz z AI.
@@kanioss
Może jesteśmy, a może nie? A co z lotami na księżyc, sterowcami, co ze wspomnianą integracją mózg-komputer?
@@metolfenidat odnośnie integracji mózg komputer też moim zdaniem mówi głupoty. Po pierwsze Neuralink już robi testy na ludziach co w materiale nie zostało powiedziane. Testy przebiegają bardzo dobrze i można na internecie posłuchać wywiadów z człowiekiem który ten chip ma w mózgu. Po drugie nie musimy rozumieć mózgu żeby zrobić taki interfejs. Możemy zrobić AI które będzie pełniło rolę tłumacza impulsów mózgowych na impulsy które rozumie komputer. Co z resztą Neuralink już chyba robi.
To nie polonista
koniec rozmowy bardzo ciekawy
Można używać, nawet trzeba używać mózgu, choć nie rozumiemy jak działa.
Zawiodłem się ta rozmową... Profesor Durka z jednej strony twierdzi że modele językowe nie mogą stać się sztucznym mózgiem, bo nie rozumiemy jak działa mózg. A jednocześnie nie ma problemu z tym że nawet Open AI nie wie jak działa GPT. A że działa i potrafi w wielu sytuacjach wyręczyć nasz mózg, to ciężko temu zaprzeczyć...
Dałem łapkę w górę dla Pana prof. Piotrka . Dlatego , że moja ocena tej Ejaji , jest zbieżna z oceną Pana Piotra . Słuchałem różnych dyskusji , które w większości są zachwycaniem się wyobrażeniami tego , co oczekujemy , że ta Ejaja będzie mogła . A , co jest w rzeczywistości ?
Przykład nr 1 .
Ejaja pomogła w rozpoznaniu trzech przypadków nowotworów . Tu trzeba zwrócić uwagę na liczbę 3 . A ile przypadków razem , ta Ejaja zaproponowała do rozpatrzenia ? Czy 3 ? Czy dorzuciła bardzo dużą liczbę neuronowych śmieci ?
Przykład nr 2 .
Ejaja zaproponowała uczonym różne rodzaje konstrukcji białek . Możliwa jest bardzo duża liczba możliwości konstrukcji białek . Być może około 100 tysięcy . Ejaja mówi : o tu możecie jeszcze stworzyć 3 rodzaje białek . Jaka jest na to odpowiedź ?
Oprócz tego , co już próbujemy tworzyć możemy próbować tworzyć jeszcze nie 3 , a 33 rodzaje , ale tu chodzi o możliwości i celowość , a nie o proponowanie tego , co wylosuje jakaś sieć .
Przykład nr 3 .
Pytanie do Ejaji : Co może być w ciemnym pomieszczeniu jeśli jeden człowiek stwierdził tam linę , drugi węża , a trzeci drzewo ?
I tu Ejaja przestaje być tą inteligencją . Głupieje . A jeśli zapytasz jakiegoś Hindusa , to odpowie , że w ciemnym pomieszczeniu jest słoń , a ogon jest podobny do liny , trąba do węża , a noga do drzewa
4 . Matematyka .
Matematyka jest wytworem ludzkiego mózgu . Tam bardzo , bardzo daleko , we wszechświecie nie zachodzi określanie ilości i nie ma żadnej matematyki . nikomu . A Ejaj jest jakby zamknięta w algorytmach . Jest wiele nikomu i do niczego nie potrzebnych teorii , czy prawideł matematycznych . Jeśli podrzucić tą tematykę zależności matematycznych dla Ejaji , to pojemności zwykłego komputera nie starczy na zarejestrowanie wytworzonych przez Ejaję śmieci matematycznych . Czyli Ejaja namnoży różnych nikomu i do niczego niepotrzebnych śmieci .
5 . Kasa .
Mask wkłada kasę w sieci neuronowe . W rozwój Ejaji . Szum jest wielki , a co jest w praktyce ? Jakie będą zyski dla Maska ?
On chce poprzez sieć Amazon opanować dostawy towarów do odbiorcy dronami . A, drugie , chce wozić ludzi taksówkami bez kierowców . Zanosi się na klapę finansową w obu przypadkach . Największe będą zbiorowe przewozy ludzi . Po torach , choć niekoniecznie żelaznych . Masówka odbierze zyski dla taksówkowych detalistów . To nie ta skala zysków w odniesieniu do wkładów .
W przypadku sieci Amazon , sytuacja jest inna . Dostarczanie towarów indywidualnymi dronami nie wygra konkurencji z dostarczaniem kurierskim do dużej ilości punktów . Problem podobny do przewozów taksówkami bez kierowców . Ale być może wytworzy to nowe przepisy korzystania z przestrzeni powietrznej o będzie walka o wpływy z zezwoleń . Kto weźmie kasę ? Gmina , Skarb Państwa , czy jakaś spółka ?
Teraz od strony ewolucji .
Moim zdaniem pod względem czysto naukowym nastąpił punkt zwrotny w zmianach ewolucyjnych .
Ludzie pod dyktando swoich mózgów wytwarzali coraz bardziej skomplikowane narzędzia . Następował rozwój produkcji tych narzędzi . Rozwój uzależniony od zmian ewolucyjnych w ludzkich mózgach . A , teraz narzędziem stał się program komputerowy , a nie jakiś przedmiot , czy maszyna . Teraz narzędziem jest coś niematerialnego .Moim zdaniem jest jakby początek zmian , ale zmian nie idących razem ze zmianami ewolucyjnymi ludzkich mózgów . Przynajmniej tak myśli o tej Ejaji większość tych zachwyconych swoimi wyobrażeniami o możliwościach . Jednak w praktyce , moim zdaniem , Ejaja nie pójdzie w jakimś kierunku samodzielnie . Pójdzie tylko tam , gdzie ludziom się to opłaci . O kierunkach rozwoju Ejaji będą decydować dwa główne stymulatory ludzkiego mózgu , czyli dążenie do dominacji i chciwość .
Z kierunku samodzielnego , jak na razie zaczęły się halucynacje . A , halucynacje , to jeden z objawów pokazujących możliwości ZMIENNOŚCI . Tych rodzajów halucynacji może wystąpić przeogromna ilość . Na kierunkach rozwoju Ejaji , tych kierunkach bez zysków , będziemy obserwować coraz to nowe rodzaje halucynacji . A , niektórzy będą nadawać tym różnym rodzajom halucynacji nazwy i będzie można ich nazwiska znaleźć w wikipedii .
I tyle .
Zarfil
"Ejaja pomogła w rozpoznaniu trzech przypadków nowotworów"
imbecylu, AI już jest wykorzystywana do diagnostyki nowotworów na szeroką skalę, więc mowa raczej o setkach tysięcy identyfikacji, a nie trzech.
Piotruś, a może jednak lepiej zająć się chodzeniem po Bieszczadach i filozofowaniem w namiocie zamiast przychodzeniem do studia? Chociaż… czy tak naprawdę Bieszczady istnieją? Czy Bieszczady to las, czy może jednak las z jeziorem? A może jednak las z jeziorem i trzema niedźwiedziami. A co jeśli do lasu wejdzie wilk? Czy to ciągle będą Bieszczady? Zastanówmy się nad tym (nawiązując do Twoich wywodów). Na szczęście prawdziwi naukowcy szybko nazywają rzeczy, których jeszcze nie zdążyli odkryć, a potem inni zamiast zastanawiać się nad nazwą, pomagają w ich odkrywaniu, zamiast spędzać czas na filozofowaniu o tym jak to coś powinno się zapisywać. Tomek zrozumiał to już jakiś czas temu - dlatego działa a nie filozofuje. Aaa, byłbym zapomniał… trzeba Musk’owi powiedzieć, żeby się opamiętał, natomiast to już chyba po siódmym starcie Starship’a, chociaż… czy tak naprawdę Starship istnieje? Czy może jednak to tak naprawdę Starszip? Jeśli tak, to co wtedy? Czy SpaceX upadnie? Czy Bieszczady to Bieszczady? A co z Wilkiem? Niedźwiedź? Piotr? Oh… głupi ja 😢
Wielki szacunek dla Pana Profesora. Wreszcie ktoś wytłumaczył jak działa tzw. sztuczna inteligencja, bez bajek, i filmowych marzeń typu SF. Lenistwo zawsze destruktywne dla prawdziwej ludzkiej logiki i zamienia ją na myślenie emocjonalno życzeniowe. Wielkie dzięki za prawdę.
Jest wiele aspektów gdzie sztuczna inteligencja nas zastąpi, domu nie wybuduje. Co to tego że społeczeństwo zubożej intelektualnie całkowicie się zgadzam.
Jak nie zbuduje? Są roboty budujące domy w oparciu o AI, nie mówiąc o projektowaniu
Patrz Boston dynamic
"Inteligencja to zdolność do zachowań, które maksymalizują dostępne możliwości w przyszłości." - Alex Wissner-Gross
pocieszajcie się dalej kochani
w końcu ktoś podchodzący rozsądnie i na chłodno do AI
proponuje debate z draganem
Dzieki 🍻😎SAPERE AUDE
LLM używam od dawna, widzę jak z dnia na dzień działa coraz lepiej w praktycznie każdym aspekcie, od zadań matematycznych po programowanie czy rozumienie nieco bardziej wysublimowanych memów. Właśnie zmarnowałem 55 min życia na kolejne marudzenie przedstawiciela starszej generacji polskiej nauki. Chat GPT już obecnie potrafi wykonać zadania przekraczające możliwości 95% ludzi, a czy to jest inteligencja w rozumieniu jakiegoś profesora czy nie ma dla mnie znaczenie trzeciorzędne, wole skupić się na efektach, a nie sporach o definicje. Wole posłuchać praktyków typu Wojciech Zaremba.
lol, po prostu nie rozumiesz, o czym mówisz.
Pojęcie “działania” jest dosyć szerokie. Jeżeli w zadaniu matematycznym wynik poprawny wygląda tak samo jak błędny to jak pan je odróżni? Wiele poprawnych wyników konkretnych działań zostało zapewne “zassane” przez GPT na etapie uczenia i to na pewno jest przydatne jako rodzaj zamiennika dla kalkulatora rozumiejącego wykonywane działanie (np Wolfram Alpha). Ale skonfrontowanie GPT z nowym problemem da wynik, który wygląda jak poprawny ale taki nie będzie.
@@PawelKrawczyk-r2q to jest półprawda, do tego celu matematycy stworzyli projekt FrontierMath, który jest benchmarkiem dla LLM. Kluczowym elementem benchmarku jest to, że model wcale nie ,,zasysa" wyników podczas procesu uczenia tylko naprawdę próbuje te zadania rozwiązać. Napisałem półprawda, bo rzeczywiście potrafi podać zły wynik, ale przeskok między np. w przypadku chata gpt 4o a o1 jest ogromny w bardzo krótkim czasie. Zmniejsza się ilość błędów i zwiększa rozwiązywalność oryginalnych, niepublikowanych nigdzie zadań matematycznych.
@@qPolakq Ze strony FM: "Even the most advanced AI systems today, including GPT-4 and Gemini, solve less than 2% of them."
jeżeli pomyślimy o przyszłości sieci neuronowych i tzw AI opartej o różne warianty sieci neuronowych, powinniśmy spojrzeć na samoloty, które powstały wskutek obserwacji i analogi do ptaków czy owadów, o których wciąż nie wiemy szczegółowo jak funkcjonują... jednak stworzyliśmy samoloty, proste, wręcz prymitywne, ale te proste, prymitywne samoloty, pokonały bariery, których żywe organizmy nie pokonały, prędkości, udźwigu i zasięgu... a te bariery zostały przełamane efektem skali... prymitywny samolot był kolejnym skokiem cywilizacji, tak jak koło, maszyna parowa na kołach czyli parowóz, wreszcie samochód w sferze przemieszczania się.... AI nie jest mózgiem, jest proste, prymitywne... lecz pytanie jest, jakie bariery zostaną przełamane przez AI, do jakiego skoku dojdzie za jego sprawą... i pierwszy raz ten skok dokona się w obszarze zarezerwowanym do tej pory dla człowieka, w obszarze kreatywności, aktywności intelektualnej, w sposób którego nie rozumiemy, czyli fenomenologiczny i nie wiadomo, czy kiedykolwiek go zrozumiemy... czy to co powszechnie nazywane jest AI jest inteligencją...? raczej jest, bo znajduje złożone analogie i ma charakter konwergętny...
Dzięki.
Bardzo dobry wywiad. W końcu ktoś z naukowym podejściem kto nie straszy algorytmem jak Dragan i widzi w tym przede wszystkim narzędzie a nie rozwiązanie wszystkiego. Nie wspominając już o tych gościach z reklam albo korporacjach próbujących wmówić że AI zabierze ci prace, musisz wziąć jego kurs aby zrozumieć AI, a nawet próbach wmówienia że jakieś urządzenie ma Wbudowane AI i w sumie nie wiadomo co robi ale jest drożej.😂
Według mnie jeszcze daleko do prawdziwej AI ale te algorytmy mogą być kolejnym rozwinięciem HMI.
kolejny przygłup. przecież to specjaliści od AI przestrzegają przed konsekwencjami na rynku pracy
Dzięki. Z początku moim zdaniem gość trochę tak infantylizował ale z czasem wmiarę fajnie wyjaśniał swoją pozycję. Pozdrawiam
25:04 Nie jest to prawda. Obecne informacje również są tworzone w sposób syntetyczny. Z kolei inne modele AI filtrują dane, które posłużą do uczenia dużego modelu.
Rozmówca na poziomie jedynie tytularnym...
Pan profesor że swoją buta, protekcjonalnym tonem i takim nastawieniem plasuje się idealnie tam gdzie ci co w 19 wieku mówili, że w fizyce to już jest wszystko odkryte i po co na to tracić czas.
Mieszanie zagadnien jest typowe dla użytkowników GPT. Idź poczytaj jakąś książkę.
Jaka buta ? Po prostu wiekszosc ludzi na powaznie zajmujacych sie nauka potrafi wylac kubel zimnej wody na rozpalone stekiem bzdur propagowanych przez "atrakcyjny" PR ludzi, takich jak Musk, Zuckerberg, Bezos. Nie chodzi o brak wyobrazni czy hamowanie postepu, chodzi o rzetelne i uczciwe przekazywanie tresci naukowych.
@@ironia.romantyczna widocznie sporo go używasz skoro masz taka wiedzę.
nasza inteligencja to też algorytm oparty na statystyce, gdyby sztuczna inteligencja miała sztuczne ciało to bez problemu dałoby się ją wytrenować, by łapała profesora za rękę i nie pozwalała wyjąć wtyczki z kontaktu
No i bylo ciekawie do 55 min. A pozniej jak zawsze. A myślałem że teorie spiskowe to domena niedoksztalconych szaraków.
Prof jest urealniony normalny i dla mnie ok ale medialnym Guru nie zostanie bo suweren kieruje się adrenaliną anie prawdą a aplikacje promują ilość a nie jakość
„Zidiocenie ludzkości….”
Tym tropem trzeba iść.
😎
23:20 Nie jest to prawda. Aktualne badania prowadzą do utworzenia AgI. Sieć taką można zmodyfikować właśnie aby wymyślała coś nowego i sama siebie uczyła.
Zalecam odsłuchać (bez obrazu) ze względu na oślepiający blask ego Gościa, podszyty lekkim stresem (pod koniec wyluzował). Wielki szacunek dla Prowadzącego - za spokój, konsekwentne drążenie pytań i dystans :)
Temat ciekawy ale ten gość jest w mojej ocenie dość antypatyczny. Jak jakiś nauczyciel, który za wszelką cenę chce przyłapać ucznia na błędzie czepiając się wszystkiego, zamiast cierpliwie wytłumaczyć.
Haha mam wrażenie ze to wynika z walki z wiatrakami jakim jest hype na ai
Nie. Tak wypowiadają się specjaliści, osoby, które mają wiedzę na pewien temat. Nie widzę też by robił to niespokojnie. Ton ma spokojny, przyjemny, a podejście pragmatyczne.
@@ukaszbownik1077 to subiektywne moje odczucie.
@@mikiawm może masz rację, odczuwam zniecierpliwienie
@@zenobikraweznick Posłuchaj prawdziwego specjalisty z danej dziedziny, a nie marketingowca (Dragan z wyjątkiem fizyki) to zrozumiesz. Naukowcy to specyficzni ludzie, dlatego potrzebują marketingowców, którzy przełożą to na bardziej przyjemny, spokojny i zrozumiały dla mas język.
Fajny ten profesor. Taki niezbyt bystry.
Jako student przyznam, że cały ten postęp zniechęca do nauki. Człowiek uczy się tego wszystkiego z myślą, że za kilka lat może zostać zastąpionym. Jest to przytłaczające. W moim przypadku chodzi o studia medyczne, gdzie człowiek uczy się ogromnych partii materiałów i zastanawia się po co. Za chwilę będzie algorytm, robot
Pytanie PO CO jest dziś nauka
już jest. z punktu widzenia pacjenta cieszę się z tego powodu, bo mam dość lekarzy, którzy z całą bezwzględnością wykorzystują niedobory kadrowe w Polsce. wielu z nich zarabia naprawdę gigantyczną kasę jak na polskie warunki (powyżej 30k zł/miesiąc), a i tak miauczą, że im mało. nie chcę generalizować, ale zapewne już teraz połowa z nich mogłaby zostać zastąpiona AI, bo jedyne za co biorą kasę, to kulawa diagnostyka. w USA to już w ogóle doszło do ultrapatologii, ale to bardziej wina całego systemu leczniczo-ubezpieczeniowego, a nie samych lekarzy, którzy jednak są beneficjentami tego systemu. z drugiej strony świadomy niewydolności polskiej służby zdrowia staram się dbać o zdrowie najlepiej jak mogę, aby nie mieć potem kontaktu z lekarzami :)
W końcu ktoś racjonalnie ocenia ten hejt dotyczący AI. W pełni się zgadzam do opinii Pana Profesora. Było olbrzymim, nieuzasadnionym błędem wrzucanie wszystkich danych do sieci neuronowej. Takie postępowanie rzeczywiście powoduje z idiocenie sieci ale pokazuje także z idiocenie ludzi.
Zgłaszam zażalenie odnośnie miniaturek i tytułów. Już po raz kolejny zdarzyło mi się, że wysyłając film znajomemu lub pokazując go żonie na tv, słyszałem, że to jakiś clickbait. Ludzie nie chcą tego klikać! Osobiście również mam problem z kliknięciem w tego typu miniaturę i robię to tylko dlatego, że znam pana Rożka i bardzo lubię jego rozmowy.
Czy można mieć duże przekonanie, że sztuczne sieci neuronowe nie myślą i nie będą do tego zdolne, jeżeli nie wiemy czym jest myślenie i jak to działa w samym mózgu? Czy mózg uczy się zasadniczo inaczej niż sztuczne sieci?
Ale trudny rozmówca :)
Po komentarzach widać, że ludzie nie chcą realnej wiedzy na dany temat. Wolą bajki od influencerów i rozmowy nienaukowe o tym jak świat podbije AI itd. Zawsze mnie zastanawia po co w takim razie ludzie słuchają takich wywiadów skoro potem uznają, że oni po obejrzeniu kilku filmików w internecie wiedza lepiej xD Tak samo jako programista, który bardzo dużo hobbystycznie używa tych wszystkich "AI", próbuję używać też tego w pracy i widzę jakie to jest czasami ułomne, nie mogę czasami słuchać ludzi, którzy nigdy nie mieli styczności z IT a wiedzą ode mnie lepiej w czym te "AI" może mi w pracy pomóc.
Ja mam styczność z AI jako programista, a pan profesor po części opowiada farmazony. Jeszcze coś mądrego wymyślisz?
@@antekp2965 A Ty wymyślisz jeszcze coś mądrego?
Następną rewolucją będą komputery kwantowe, oczywiście nie dziś nie jutro... ale będą. A jeżeli kiedyś powstanie osobisty komputer kwantowy to będzie skok cywilizacyjny
Nie dziwne, że polskie uczelnie szorują po dnie mając takich profesorów.
Dokładnie
? ? ? Mógłbyś rozwinąć temat, bo aż ciekawa jestem tej argumentacji 😂
@@beata1663 Mi wystarczyło jedno słowo: „podłanczać”. Później było już z górki. :(
No tak, nic tak nie boli, jak odarcie ze złudzeń, które Ci wmawiają różne firmy od AI. xd
Profesor ma dużą wiedzę,ale wieje od niego poprawnością polityczną to też jest zidiocenie.
Trudny rozmówca i ciężko się go słucha podczas tej rozmowy. Tomek Rożek próbuje ją ratować jak może, ale gość skutecznie ciągnie w dół. Protekcjonalny ton aż kłuje w uszy. Mówi, że on zna się na mózgu, ale autorytarnie wypowiada się o AI. Zachowuje się trochę tak, jak IXX-wieczny urzędnik, który z wyższością pyta: "A po nam ten prąd, panie Faraday??"
No i wyjaśniony chłop, bo można już zobaczyć obraz o którym ktoś pomyśli, moze nie wyraźnie, ale można. A 2 że neuralink juz zastosowane na czlowieku
Najgorsze,że materiał powstał teraz a nauralink został wszczepiony z sukcesem rok temu ;/ pseudonaukowe Bzury id tego gościa można do kosza wrzucić. I te wyśmianie muska xD co za typ xd
Ciężki rozmówca, ciężko się tego słucha.
Pan mówi, że nie wiemy jak działa mózg człowieka jeśli chodzi o myślenie. Mówi też, że nie wiemy też jak dokładnie działają te olbrzymie modele językowe z bilionami połączeń. Nie przeszkadza mu to jednak w formułowaniu twierdzeń, że to nie jest sztuczna inteligencja, że to jedynie estymacja.
Mówi o niedługim braku danych wysokiej jakości do analizy - przecież te modele są dokładnie po to - do tworzenia danych. Potrafią estymować i oceniać zbiory danych - w tym tych stworzonych przez siebie. I to lepiej, sprawniej niż typowy człowiek. I będą je tworzyć.
Odłączanie wtyczki też moim zdaniem kiepski argument. Stawiałem lokalnie modele językowe bez połączenia z siecią i działały OK, ale wiadomo że nie na takiej głębi. To nie jest technologia, którą ktoś może teraz od tak wyłączyć.
Ale szanuje zdanie.
W jakim sensie tworza zbiory danych?😏 Masz na mysli cale zagadnienie GenAI? Zgoda, sa w stanie wygenerowac zdania spoza korpusu albo obrazy spoza zbioru uczacego. Wezmy na tapet narzedzia do wspomagania programowania - super, Copilot napisze ci kod, ktorego najpewniej nikt nigdy nie napisal. Ale kazda osoba, ktora kiedykolwiek pracowala z Copilotem wie, jak momentami jest on toporny albo jak kijowe fragmenty kodu generuje. To, ze w teorii obecne modele jezykowe sa w stanie wygenerowac nieskonczona liczbe nowych danych nie oznacza, ze sa one wysokiej jakosci. O ile w prostych, pospolitych przypadkach typu pisanie CRUDa najpewniej sie srogo nie pomyli, o tyle w bardziej specyficznych przypadkach (np. wykorzystywanie mniej znanej libki z jakiegos powodu X) szansa, ze wypluje ci niedzialacy kod jest wieksza. A co sie stanie, jak nagle ten niedzialajacy kod bedzie z powrotem uzywany do trenowania? Chyba nie trzeba odpowiadac.
@@D3nz13 Ten przykładowy kod jest generowny na zasadzie prawdopodobieństwa i AI nie ma możliwości weryfikacji jego poprawności, jak się wygeneruje niedziałające dziadostwo i zostanie to ponownie użyte do trenowania sieci to nic dobrego z tego nie wyniknie.
Nie musisz wiedzieć jak dokładnie działa silnik rakietowy, aby móc stwierdzić, że coś nim nie jest. I co do cholery oznacza zwrot "niedługi brak danych"?
Odnośnie mózgu i Neuralink - jemu chodzi o to, że nie znamy protokołów i kodowania stosowanego przez mózg. Nie wiemy nawet czy są one identyczne u wszystkich ludzi czy w tych samych językach. Są pewne wyniki eksperymentów nad kodowaniem obrazów przez mózg, ale jak się to przekłada na myśli.
@@D3nz13 1. No modele tworzą nowe dane na postawie danych wejściowych.
2. nie wszystkie dane są wysokiej jakości, ale modele wyspecjalizowane w analizowaniu danych są i robią fenomenalną robotę.
3. Jak mnie nie nauczysz libki to też jej nie będę znał - szansa że się pomylę jest duża. Jak mnie nauczysz, to szansa że się pomylę spadnie. Czyli trochę jak model, co nie?
Oczywiście, gość jest wszechwiedzący a obracający miliardami ludzie to durnie :D Klasyczny przykład osoby która kilkanaście lat temu mówiła, że Internet to bzdura ;P Nie chcę tego diagnozować, ale przychodzi mi do głowy kilka zaburzeń, z czego przynajmniej jedno jest mocno widoczne.
Mrugalski tłumaczył, że te całe AI to tak na prawdę wektorowe bazy danych.
Bardzo pretensjonalny ton Pana Profesora niestety trochę utrudnia odbiór wygłaszanych przez niego opinii
Pan profesor czepia się używanych pojęć i bardzo płytko w przyszłość patrzy. Nie bierze pod uwagę tego, że niebawem takie sieci będą ewoluować samodzielnie. Może to i algorytm statystyczny ale maluje takie obrazy i filmy jakich człowiek nigdy by nie wymalował. Wnioski wyciąga szybciej niż człowiek, programy (póki co fragmenty) ale pisze 100 razy szybciej niż programista itd.. itp... Nazywajmy to sobie jak Pan chce. Inteligencja albo statystyka. To nie ma znaczenia bo "to coś" zaczyna nas wyprzedzać nas w coraz większej ilości obszarów zarówno w rzemiośle jak i kreatywności.
Z ust mi to wyjoleś...
Wreszcie ktoś trochę sprowadził AI hype na ziemię, mówiąc że to nie jest deus ex machina, a oprogramowanie (bardzo skomplikowane, bardzo zaawansowane), ale tylko oprogramowanie.
Co za absurdalne pieprzenie. Nikt nie twierdził, że AI nie jest oprogramowaniem działającym na procesorach. Oczywiście że AI i deep learning jest przełomem o którym nie śniło się jeszcze 3 lata temu. Bagatelizowanie wpływu AI na życie gdy za chwilę będziemy mieli eksplozję popularnisci autonomicznych aut jest debilizmem.
@@antekp2965 prof Dragan wielokrotnie twierdził, że hodujemy sobie gatunek który nas załatwi,. Niezbyt często podkreślano, że to jest tylko oprogramowanie. Rozumiem, że komuś odrobinę siedzącemu w temacie nie trzeba tego mówić, ale jestem przekonany, że wielu ludzi słyszało o AI/chat GPT, ale jakbyś ich zapytał co to tak naprawdę jest, to nie umieli by odpowiedzieć. Ot jest jakaś strona w necie, z którą można pogadać.
Uuu ależ dużo bolących tyłków w komentarzach!!
Bardzo nieprzyjemny charakter ma ten gość
38:23 Nie jest to prawda. No właśnie, że myślą i to bardzo podobnie do ludzkiego. Aktualne modele od open AI o1 czy o3 są inteligentniejsze od człowieka.
Fajnych profesorów macie na tym UW. Wszystko już było, AI nie ma żadnego potencjału. Największym zagrożeniem jest generowanie fajkowych zdjęć. Zajmijmy się katastrofą klimatyczną....
Gość programu bardzo wielu komentatorom wydaje się niestrawny. Ale wysłuchanie całości i staranie się zrozumieć o czym mówi i jakim językiem ma dopiero sens. AI dziś to głównie produkt, który ludziom się sprzedaje opakowując odpowiednio do odbiorcy. Ma rację mówiąc, że to prowadzi głównie do totalnego ogłupiania ludzi. Dzieje się tak ponieważ większość z nas stara się działać skutecznie i po najmniejszych kosztach. W efekcie rzadko prowadzimy analizę krytyczną. Niestety takie lenistwo nas pokona. AI to również narzędzie do osiągnięcia władzy i eliminacji konkurencji w postaci ludzi, którymi zarządza się mimo wszystko dość trudno.
Każdy z nas ma słaby punkt. Gość programu też. Widac to po przykładach jak można ludźmi zmanipulować. Podał Trumpa, podal negowanie globalnego ocieplenia, itd. Nie zastosował jednak analizy krytycznej i nie zadał pytania jak to się stalo, że w to wszystko uwierzyliśmy jako społeczeństwa. Jakie techniki użyto, że ludzie uwierzyli w pandemię i pokornie wykonywali tysiące irracjonalnych zaleceń i zakazów. Tego przykładu nie podał. Może dlatego, że prowadzący też w pandemię uwierzył.
Uwierzył w pandemię? Z jednej strony wypowiadasz się w miarę logicznie co do koncepcji AI, z drugiej negujesz pandemię? Wiesz w ogóle co to znaczy pandemia?
@@PauloProelo koledze już się pewnie miesza pandemia i zarządzanie pandemią. Pandemia była, tylko to jak została "obsłużona" to jeden wielki bubel, który defacto tylko pogorszył sytuacje. A co do głównego komentarza, to może wspomniał o trumpie i o globalnym ociepleniu, bo to jest dalej na kompasie, a pandemia już poszła w zapomnienie?
Gdyby ludzie więcej wiedzieli o programowaniu to by rozumieli, że AI jest reklamowym sloganem... Podejrzewam, że w większości firm algorytmy są wykorzystywane do organizacji ich pracy. Sądzę też, że nikt nie wie czym są algorytmy. Miałem to szczęście, że już w roku 1973 musiałem napisać program do użycia dużej ilości danych, aby otrzymać wynik. Przy pomocy języka Algol (który już wtedy wykorzystywał biblioteki), a obliczenia były wykonywane w ZETO na komputerze Odra. Duża część społeczeństwa nie rozumie, że algorytmy są oparte na zasadzie wyboru TAK lub NIE...
Panowie więcej tak mądrych wywiadów - może mniej ludzi będzie klękać przed AI...👌👌👌
I co to ma za znaczenie wobec tego, że to AI czyni cuda, których nie dokonały klasyczne algorytmy przy tej samej mocy obliczeniowej? Jaki sens ma przyp. się do terminologii skoro to działa i stanowi przełom? W każdym podręczniku o AI jest napisane, że idee sieci neuronowych luźno nawiązują do budowy mózgu.
Widać, że nie miał Pan za bardzo do czynienia z AI, ale woli się wypowiedzieć. Już teraz AI zwiększa wydajność programistów 10x , więc nie wiem jak można to nazwać reklamowym sloganem? Piszę to jako programista, który sam ostatnio zrobił projekt w pracy w 99% za pomocą samego AI i zajęło mi to dużo mniej czasu niż jakbym miał to zrobić 2 lata wcześniej.
Zuckeburg wypowiedział się ze w 2025 roku w Meta AI zastąpi programistów midów. To teraz porównaj sobie wagę słów.
@@kostrzak18 to, że AI zwiększa wydajność programistów nie wyklucza tego, że samo słowo AI jest sloganem reklamowym. Zdaje się nawet, któryś z twórców któregoś dużego AI'aja opisywał to jako slogan reklamowy, żeby się więcej o tym mówiło, aczkolwiek nie jestem w stanie przytoczyć kto i kiedy tak mówił bo nie pamiętam :(
@@kostrzak18 Skoro AI pisze Ci 99% kodu, to znaczy, że nie piszesz żadnego istotnego kodu. Z mojego doświadczenia kod generowany prze AI, o ile się w ogóle skompiluje, jest w większości bezużyteczny, powolny, a czasami po prostu błędny i zawierający UB.
Skoro AI wie wszystko (baza danych) co ludzie, to jak to połączyć z twierdzeniem, że jeśli chcesz zrobić coś niemożliwego to zaproś „przedszkolaka” i poproś żeby to zrobił.
Konia nic nie zastąpi jest żywy i inteligentny.. ;) i co..? ;) Samochody samoloty.. a nawet rowery..? ;)
Zgadzam się z Panem profesorem, że może to w jakiś sposób prowadzić do zidiocenia i do przewymiarowania podejścia do problemu, czyli zamiast zastosować do czegoś np. regresję liniową, prostszą i mniej zasobożerną ludzie będą wszędzie upychać te sieci neuronowe. Ale no ogólnie nie zgadzam się z podejściem profesora do SI
No, tylko że to jakieś 0.001% problemów związanych z AI 😂
Niesamowite jak łatwo ludzie wylewają wiadro pomyj bo ktoś powie "podłancza" lub gdy na początku nie jest wcale potulnym barankiem z łagodną osobowością tylko ma konkretne spostrzeżenia i wyraża je dosadnie, lub gdy próbuje stawiać wyzwanie w rozmowie. Ci którzy by dotarli dalej zauważyliby że Profesor ma dużo pokory jak i potrafi docenić spostrzeżenia rozmówcy. Umie powiedzieć nie wiem kiedy wyczerpie się zasób i zwyczajnie nie mydli oczu.
Wiele osób zarzuca też brak konkretów i merytoryki - a niby czemu nie? Wyjaśnia że "AI" to tylko sieci neuronowe i uczenie maszynowe - nie będzie przecież robił wykładu z tego bo zaraz połowa wyłączy z braku obycia z tematem. To jest bądź co bądź popularnonaukowy wywiad, a możliwe że poczucie braku konkretów wynika z tego że jasno Profesor zaznacza jak wiele jeszcze nie wiemy i że AI nie pożre nas za chwile swoją bystrością i wiedzą.
"Elon jak zwykle opowiada bzdury, że będziemy podłączać mózgi do komputera"
to jest dla ciebie pokora? odkleiło cię totalnie?
to profesor, który zajmuje się właśnie interfejsem komputer-mózg i dyskredytuje Neuralinka tylko dlatego, że nienawidzi Muska z powodu jego zaangażowania w kampanię Trumpa. trudno o bardziej rażący przejaw bufonady. Musk o ile wiem nie zajmuje się osobiście Neuralinkiem od strony inżyniersko-komputerowej, ale dysponuje nieograniczonymi środkami i zatrudnia topowych naukowców z tej dziedziny i choćby tylko to powinno skłaniać do pewnego namysłu. być może nie chciał profesora Durki, nie wiem, ale wiem jedno, że więcej się mówi na świecie o Neuralinku niż o polskich osiągnięciach w podobnych badaniach.
artykuł z 2019 :
"Cyborgizacja według Elona Muska
Monika Redzisz
Polski akcent w interfejsach
Interfejsy mózg-maszyna od wielu lat tworzy się z powodzeniem w wielu ośrodkach naukowych na świecie. W Polsce pracował nad tym prof. Piotr Durka z Wydziału Fizyki Uniwersytetu Warszawskiego - w 2008 roku przeprowadził pierwszy publiczny pokaz BCI.
Są dwie metody. Pierwsza nieinwazyjna: mózg łączy się z komputerem za pomocą elektrod przyczepionych do głowy. Druga - inwazyjna, i to mocno, ponieważ implant wszczepia się tu bezpośrednio do mózgu, wymaga więc to zrobienia otworów w czaszce."
czyli wątek prymitywnej zazdrości, że komuś się udało :)
Ale ten pan kłamie i wymyśla bzdury. A mówi,że jest naukowcem. To co powiedział o neurolink jest kłamstwem . Powinien się wstydzić bo neuralink działa ku*** mać.. Każdy tego człowieka zwerifikuje i zauważy jakie bzdury mówi a wypowiedź o neuralink jest tego przykładem.
Temat AI jak zawsze ciekawy, ale tym razem bardziej interesująca wydała mi się osbowość narcystyczna pana Profesora.
51:35 👍👍👍👍👍
Ciekawe dla mnie skonfrontować sobie poglądów pana profesora z poglądami Jacka Dukaja, które są odmienne o 180 stopni gdzie nauczanie innego osobnika wytwarzania pięściaka to już SI.
Ostatnio widziałem zagraniczną reklamę laptopa. Słowo AI padło co najmniej 5 razy. Coś w stylu „Acer 14 AI najnowszy laptop z serii AI przystosowany do wykonywania zadań AI w twojej pracy wspieranej przez AI. Posiada antywirusa AI i najnowszej generacji funkcje AI”
Kiedyś było "32-bitowy" i "multimedialny". Ja nawet pamiętam jak buzzwordem było "16-bitowy" ale się nie przyznam :)
@ to musisz mieć stary pesel bo słowo „multimedialny” pamiętam a „32-bitowy” nie.
Cześć komentarzy doskonale pokazuje zjawisko agresji oraz niechęci wobec osoby burzącej światopogląd naiwnego człowieka.
Kłamiąc ? Aha
Szczerze. Słaby gość.
Większość jego wiedzy to powtórzenie pytania z prośbą o definicję zagadnienia.
BTW - jak gość wytłumaczy wtórność istniejących AI tym, że bardzo wysoko punktują / wygrywają olimpiady matematyczne. Olimpiady w których podstawą jest nowość postawionego problemu.
Żaden AI czy LLM nie mógł „z internetu” dowiedzieć się jak rozwiązać zadania / przeprowadzić dowody.
On niczego nie wytłumaczy.
Po prostu niewiele rozumiesz. Ale nie musisz. Masz GPT i wystarczy.
Ale jak Apple w testach zmieniło w treści zadań parę nieistotnych rzeczy (np. imiona, nazwy owoców), albo dodało nieistotne informacje (np. info o pogodzie), to wyniki AI poleciały na łeb na szyję. "GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models"
Z tymi modelami jest jak z robieniem prawa jazdy - kursanci uczą się, jak zdać egzamin, a nie jak jeździć.
I z danymi Profesor też nie ma racji. Oczywiści, że teraz AI gada bzdury i jest głupia, bo to dane z Internetu i poprzez oparcie na statystyce algorytmy za prawdę uznają ilość wystąpień (jakby opierała się na "społecznym dowodzie słuszności"), a nie ich jakość/ mądrość/ słuszność, ale np. "mądrość tłumu" jest naukowo udowodniona, że działa w pewnych kwestiach (przy założeniu pewnych ram/ wstępnych reguł).
Ale czy Profesor wierzy, że w USA nie budują "mądrej AI"??? (ja w to nie wierzę) Myślę, że obecna AI, to socjo-technika, żeby nie przerazić ludzi i żeby nie zaczęli palić "Modelu T", czyli żeby oswoić z "głupiutkim i głupiutko bezpiecznym zwierzątkiem".
Biblioteka Kongresu Stanów Zjednoczonych, Waszyngton
Siedziba największej biblioteki na świecie zlokalizowana jest w Waszyngtonie. Jej zbiory sięgają 160 mln książek.
Pan profesor chyba zasnął około roku 2000 a że dopiero się obudził i jeszcze mu nie powiedzieli co się dzieje to tak właśnie sobie opowiada...
Wywiad bardzo ciekawy, ale dla mnie komentarze chyba mu "dorównują". Ciekawe że tak różnie odbieramy ten przekaz. Ogladam i myślę jakże super byłoby trafic na takiego wykładowcę, ktoś poniżej twierdzi że to bylby dramat, mi nic nie przeszkadza w odbierze a komuś ton głosu/mamiera przeszkadza... analiza nadaje sie na "doktorat" 😉
No i to jest GOŚĆ.
Świetne.
W końcu ktoś spojrzał na AI w inny niż narzucony sposób.
Uuuu, świat nam ucieka.😳
Kolejny pożal się boże profesor. A potem narzekanie, że polskie uniwersytety nawet w ogonie rankingów się nie łapią.