Czy AI to tylko skok na kasę? - Rozmowa z prof. Jarosławem Arabasem

Поделиться
HTML-код
  • Опубликовано: 2 янв 2025

Комментарии • 601

  • @pysioreksobolowy7849
    @pysioreksobolowy7849 2 месяца назад +48

    Sprowadzając AI do liczydła, można też sprowadzić człowieka do maszyny chemicznej. Tam też na samym dnie jest tylko DNA pare nukleotydów i proszę tak działa człowiek. Kupa białek tylko trzeba to dobrze poskładać i uruchomić. Podstawa działania jest banalna.
    Nie mam zamiaru gloryfikować AI ani tworzyć z tego czegoś mistycznego, ale ta analogia wydaje mi się błędna. Bo w ten sposób możemy wszystko trywialnie zatomizować.

    • @grzegorzbrzeczyszczykiewic9906
      @grzegorzbrzeczyszczykiewic9906 2 месяца назад

      Tak jak pistolet zwykły przedmiot ale użyty w odpowiedni sposób zabójczy

    • @antrokeswell7254
      @antrokeswell7254 2 месяца назад +2

      To poskładaj choc jedna komórke i ja "uruchom"
      Tak AI działa skrajnie banalnie - chcesz uderzyc piłke tak by sie poodbijała x razy od przeszkód i trafiła w cel. Ustawiasz przeszkody, pilka w ruch - pudło. poprawka. kolejna próba. tylko komputer robi to miliony razy na sekunde. Tyle w tym inteligencji

    • @ZBosi
      @ZBosi Месяц назад +2

      Oczywiście, że analogia jest błędna. Już Turing zauważył, że z prostoty pojedynczej jednostki przetwarzającej po ich połączeniu może wynikać coś więcej niż zwykła suma ich cech czy funkcji. Obecnie jest to tak oczywiste, że nie wiem jak można się nadal tak kurczowo trzymać sprowadzania wszystkiego do atomowych operacji. Liczy się architektura, topologia połączeń, zmiany w czasie itd. Co z tego, że pojedynczy sztuczny neuron to zwykła algebra liniowa. Jest ich tak dużo i tworzą tak ogromną sieć połączeń, że mówienie tylko o liczydle jest fałszowanie obrazu takiego systemu.

    • @babadziada4499
      @babadziada4499 Месяц назад

      @@antrokeswell7254 Biorąc pod uwagę aktualne definicje sztuczej inteligencji - ta ludzka aktualnie w niczym zasadniczym nie przewyższa sztucznej.

    • @antrokeswell7254
      @antrokeswell7254 Месяц назад

      @@babadziada4499 POWAŻNIE? Inteligencja (od łac. intelligentia - zdolność pojmowania, rozum) - zdolność do postrzegania, analizy i adaptacji do zmian otoczenia. Zdolność rozumienia, uczenia się oraz wykorzystywania posiadanej wiedzy i umiejętności w różnych sytuacjach. Cecha umysłu warunkująca sprawność czynności poznawczych, takich jak myślenie, reagowanie, rozwiązywanie problemów.
      Niby gdzie niby w czym :P

  • @arnoldbertold6886
    @arnoldbertold6886 2 месяца назад +117

    Proponuję to zderzyć z wykładem prof. Ducha, fizyka, kognitywisty, informatyka. Albo Duch konfabuluje, ewentualnie robi skok na kasę albo prof. Arabas ma wiedzę na temat SI sprzed 25 lat. Warto dodać, jaki komputer umożliwił pierwsze lądowanie na Księżycu, a właściwie jaką miał pamięć. Otóż całe oprogramowanie mieściło się w 74kB pamięci stałej, pamięć zapisywalna miała 4kB, zegar działał z częstotliwością 2MHz i oczywiście mowy nie było o słownym wpisywaniu komend, wpisywało się konkretny numer procedury, która miała być realizowana. Zgoda, że pewnie bez tej maszyny na Księżycu wylądować by się nie udało, bo człowiek z kalkulatorem byłby zbyt wolny, niemniej było to urządzeni niezwykle prymitywne. Przy okazji przypomniał mi się Lem, u którego w niektórych powieściach Astrogator wyznaczał kursy w przestrzeni kosmicznej przy pomocy suwaka logarytmicznego 🤣 Wracając do głównego wątku - widać, że mamy jakieś dramatyczne rozszczepienie opinii i podejścia do SI i sieci neuronowych. Przeciętny Kowalski zderza się z dwiema diametralnie różnymi narracjami i może się w tym łatwo pogubić. Aż dziwne, że żaden z prowadzących kanały naukowe, jak ten, nie zadał sobie trudu, by zaprosić do studia przedstawicieli prezentujących różne stanowiska na temat SI - mogłoby to być bardzo interesujące.

    • @lesawzelechowski9832
      @lesawzelechowski9832 2 месяца назад +17

      Wykład prof. Ducha na Politechnice Gdańskiej na YT wydaje się obejmować szerszy zakres zagadnień, ale czyni to mniej analitycznie. Ta rozmowa, prowadzona doskonale przez błyskotliwego redaktora dr T. Rożka zajmuje się zagadnieniami definicyjnymi, źródłowymi AI. Te dwa "materiały" uzupełniają się.

    • @eccenux
      @eccenux 2 месяца назад +16

      Ten wywiad był po prostu dosyć chaotycznie poprowadzony i pewnie dlatego trudny do zrozumienia. Po pierwsze profesor parę razy zwracał uwagę, że metafora liczydła nie do końca pasuje do tego co robi komputer. Niestety prowadzący naciskał, żeby wszystko wcisnąć w konkretną metaforę. Po drugie profesor powiedział, że mimo stosunkowo prostych reguł w dużej skali pojawiają się ciekawe rzeczy. Nawet jeśli coś jest proste w podstawach, to wynik może nie być prosty.

    • @pawel_890
      @pawel_890 2 месяца назад +15

      Problem cały czas dotyczy tego, że większość aktualnych AI to tak naprawdę ML. AI powinno dziłać wielopłaszczyznowo, nie potrafi sobie samo zadawać pytań itd. jest w stanie przetworzyć jedno zapytanie na raz, aktualnie najbardziej rozwinięte LLMy, to wciąż nauka tylko tekstu, to z grubsza generator losowych słów ale trenowany na bilionach parametrów, dlatego potrafi zaskakiwać kowalskiego i robić swoją robotę. ALe do wielopłaszczyznowego i wielu operacji wynikających z innych to nam daleko.

    • @eccenux
      @eccenux 2 месяца назад +2

      @@pawel_890 ml jest działem AI

    • @Takzen-projektyIT
      @Takzen-projektyIT 2 месяца назад +4

      @@pawel_890 dokładnie. Dlatego trzeba rozmawiać o konkretnych modelach a nie snuć metafory i analogie.

  • @ThePawelekPawelek
    @ThePawelekPawelek 2 месяца назад +4

    Tak słucham i zastanawiam czy to dyskusja o AI czy wykład z absolutnych podstaw metod numerycznych czy programowania? Spodziewałem się czegoś bardziej zagłębiającego się z AI. Bo to o czym Panowie rozmawiacie to absolutne podstawy informatyki których uczy się na pierwszym roku studiów ,a często w szkole średniej.

  •  2 месяца назад +52

    Kurde, ten wywiad zupełnie minął się z moimi oczekiwaniami w momencie włączania filmu.
    Panie Tomku, zamiast wymyślać analogie do liczydła, proszę dać opowiedzieć gościowi własnymi słowami czym jest komputer. Co do zasady, komputer to w pierwszej kolejności maszyna logiczna, a liczyłem tego się nie da uprościć. Zamiast odczarowywania rzeczywistości, wyszło pokazanie tego tematu jako magia piasku.
    Temat języków programowania w ogóle nierozwinięty, a byłby tutaj bardzo przydatny, żeby zrozumieć dlaczego tak zasobożerne jest uczenie sieci neuronowych. Tak samo kwestia architektur nie została rozwinięta, a przydałoby się to rozwinąć, bo to jest o czym mówić.
    Pogoń za prostotą zabiła merytorykę.

    • @pkwpc
      @pkwpc 2 месяца назад +2

      I jeszcze ta lodówka : )

    • @wuza8405
      @wuza8405 2 месяца назад +4

      Tru, przecież nie bez powodu procesor się nazywa procesorem. Procesor ma stan wewnętrzny, dzięki czemu można wykonywać na nim procesy a nie tylko liczydłowanie.

    • @swietyEFI
      @swietyEFI 2 месяца назад +3

      @@wuza8405 najważniejsze że procesor poza liczeniem potrafi interpretować wyniki i w zależności od nich rozgałęziać program - tym się różni od zwykłej maszyny sekwencyjnej

    • @PrzemekPr
      @PrzemekPr 2 месяца назад +1

      i​@@swietyEFI Przez rozgałęzianie masz chyba na myśli przeskakiwanie do innej instrukcj

  • @mariuszszarek1992
    @mariuszszarek1992 2 месяца назад +3

    Wreszcie ktoś kumaty.... to są piepszone algorytmy, nic więcej.

  • @WojciechKozieĺ-z9o
    @WojciechKozieĺ-z9o 2 месяца назад +2

    Inteligencja to umiejętność korzystania z posiadanej wiedzy TO PROSTE, wobec czego może być duża wiedza i mała inteligencja oraz niewielka wiedza i duza inteligencja

    • @naszlakuluty
      @naszlakuluty 2 месяца назад

      Prosto i na temat👍

    • @AnimaVilis
      @AnimaVilis 27 дней назад +4

      Jak widać, to nie jest takie proste. W rzeczywistości inteligencja nie zawsze wymaga posiadania wiedzy. To przede wszystkim zdolność adaptacji, rozwiązywania problemów, kreatywność i umiejętność przyswajania informacji. Dodatkowo, inteligencja może przybierać różne formy, takie jak inteligencja emocjonalna czy kinestetyczna. Co więcej, choć możliwe jest posiadanie dużej wiedzy przy niskim poziomie inteligencji, sprawa nie jest tak jednoznaczna. Inteligencja to jedno z kluczowych narzędzi umożliwiających efektywne przyswajanie wiedzy

    • @AnimaVilis
      @AnimaVilis 27 дней назад

      @@naszlakuluty , tylko prosto ;)

  • @alekpoeta
    @alekpoeta 2 месяца назад +1

    Mnie uczyli, oczywiście w pewnym uproszczeniu, ze inteligencja to zdolność uczenia się, w tym oczywiście adaptacji. Przyswajanie wiedzy, umiejętności uogólnione, tzw. czynnik g. Myślę, że to całkiem niezła definicja. A że w języku potocznym występuje inna, to już od dawna wiemy, ze język profesjonalny i potoczny się różnią.

  • @wojciechk7557
    @wojciechk7557 2 месяца назад +113

    Mam w pracy doczynienia z ai oparte o najnowszy czat gpt. Ma nam pomagać w tworzeniu testów jednostkowych do software I mam bardzo mieszane opinie na jej temat. W prostych rzeczach bywa pomocna jednak w tych bardziej skomplikowanych potrafi tak zagmatwać że nie raz się musiałem zastanawiać co „autor miał na myśli”. Tym bardziej że złapałem ją już parę razy na kłamaniu że jest taki interfaces czy zmienna a takowej nie było. Ogólnie uważam że to mega przereklamowane.

    • @mikiawm
      @mikiawm 2 месяца назад +9

      Mam podobne odczucia. Jeśli chodzi o np rozbicie zadania na pod zadania to fajnie można sobie ułatwić i zasugerować sie. Ale pisanie kodu to czy nawet testów do kodu wymaga dużych modyfikacji.

    • @GeekWork
      @GeekWork 2 месяца назад +11

      Jeszcze.

    • @celex7038
      @celex7038 2 месяца назад +21

      ​@@GeekWorkoj tak, wystarczy tylko wybudować centra przetwarzania zużywające tyle prądu co cale kraje i wtedy może w końcu AI będzie przydatne w czymkolwiek skomplikowanym

    • @paulizzs4720
      @paulizzs4720 2 месяца назад +4

      Czat gpt popełnia wciąż wiele błędów.

    • @WatFat
      @WatFat 2 месяца назад +13

      @@paulizzs4720 Najmądrzejsi ludzie na ziemi też popełniają wiele błędów

  • @Takzen-projektyIT
    @Takzen-projektyIT 2 месяца назад +17

    Dziwna analogia z tym ciastem :) I oczywiście błędna, W programowaniu klasycznym wprowadzamy dane i reguły otrzymując odpowiedzi a w sieci neuronowej wprowadzamy dane i odpowiedzi otrzymując reguły. To wszytko. To jest zawsze poszukiwanie reguł. Dane są potrzebne do trenowania modelu, testowania jak i walidacji. Dopiero później kiedy stworzony jest już model możemy go wykorzystać do analizy nowych danych, w poszukiwaniu w nich tych samym wzorców i cech, i dzięki temu próbie rozwiązania jakiegoś problemu np. klasyfikacji. Jest dokładnie odwrotnie jak 24 minucie filmu :)

    • @indikom
      @indikom 2 месяца назад +2

      Pan profesor sprawiał wrażenie człowieka nieprzygotowanego, próbującego na szybko sklecić odpowiedź. Powinien przed nagraniem otrzymać zestaw najważniejszych pytań i miałby czas głębiej zastanowić się nad tymi analogiami kulinarnymi czy liczydłami:)

    • @Takzen-projektyIT
      @Takzen-projektyIT 2 месяца назад +2

      @@indikom który profesor? wydaje mi się, że raczej próbuje wybrnąć z pytań z tezą Pana Rożka :) Problem jest w tym, że budowanie abstrakcyjnych analogi nie przybliża nas do zrozumienia czym jest AI. Ponieważ można to zrobić tylko przez analizę konkretnych modeli. i tak dalej.

    • @laborkawplecy
      @laborkawplecy 2 месяца назад +1

      Sieć neuronowa nie zwraca reguł. Wprowadzamy dane a w zamian otrzymujemy zestaw macierzy reprezentujących parametry sieci. O efekcie w postaci reguł możemy mówić tylko w przypadku tzw. interpretowalnych modeli takich jak np. drzewo decyzyjne.

    • @Takzen-projektyIT
      @Takzen-projektyIT 2 месяца назад

      @@laborkawplecy nie są to oczywiście jawnie zakodowane reguły tylko zależności matematyczne w strukturze i wagach. Można jeszcze o tym myśleć jako o ukrytych wzorcach jako zależnościach, czyli regułach :)

    • @laborkawplecy
      @laborkawplecy 2 месяца назад

      @@Takzen-projektyIT Czyli sieczka w danych zostaje zamieniona na sieczkę w parametrach modelu. Nie nazwałbym tego regułami, a "ukryte reguły" brzmią mi podobnie do "niejadalnego posiłku".

  • @Sucharki
    @Sucharki 2 месяца назад +1

    Dziękuję za materiał. Bardzo ciekawy wywiad 🙂👍

  • @KrzysztofNowackiDundalk
    @KrzysztofNowackiDundalk 2 месяца назад +7

    Dziękuję, Panie Tomaszu. Bardzo cenię sobie Pańską pracę i zawsze z niecierpliwością czekam na nowe programy. Jakość i obróbka są na najwyższym poziomie. Pozdrowienia z Irlandii.

  • @dD.4Y
    @dD.4Y 2 месяца назад +14

    Pozdrowienia dla kolegi ze studiów :)
    Jeszcze nie słuchałem, ale pozwolę sobie przytoczyć opinię Pani Profesor Marty Kwiatkowskiej z Uniwersytetu Oxfordzkiego, która stwierdziła w wywiadzie dla "This is IT", że AI dzisiaj to tylko statystyka. Mówiłem to samo kolegom tłumacząc, że to nie "algorytmy AI", ani "inteligencja", ale wyłapywanie KOINCYDENCJI (wtedy Sieć Neuronowa konfabuluje), albo korelacji pomiędzy informacjami. W tym drugim przypadku, przy dużej ilości danych taka AI potrafi dobrze radzić sobie z Informacjami, które "wchłoneła" i "przetworzyła", zapamiętała. Taka sieć jest w stanie wyłapać pewne "schematy", wzorce, szablony i zastosować, ale na zasadzie korelacji, A NIE ZWIĄZKÓW PRZYCZYNOWO-SKUTKOWYCH!
    Często pojawia się w dyskusji argument, że "nie panujemy nad algorytmami stojącymi za AI" - to nieprawda! Algorytmy stojące za tym są stosunkowo proste i nad nimi panujemy, problem jest z danymi, którymi uczy się AI "automatycznie". Jeśli przygotowują je ludzie, to jest to proces trochę "na okrętkę", bo najpierw ci ludzie muszą mieć wiedzę i tę wiedzę wygenerować w postaci masy przypadków uczących Sieć Neuronową, ale wtedy taka sieć jest wprawdzie przewidywalna, ale bardzo ograniczona. Problem pojawił się, gdy taką sieć "zasilono" informacjami z Sieci WWW! Tam jest masa nieprawdziwych informacji, masa patologii, która tym samym przedostała się do "wag" Sieci Neuronowej i to właśnie nad tymi przypadkowymi koincydencjami i korelacjami Informacji nie panujemy! To właśnie rodzi konfabulacje, czy brednie, które serwuje tak "wyszkolona" AI!
    Związki przyczynowo-skutkowe to domena Programowania Komputerów, natomiast tutaj, jeśli zdarzą się korelacje bez sensu, nauczona takimi danymi Sieć Neuronowa BĘDZIE BREDZIŁA, będzie dawała bezsensowne odpowiedzi.
    Dlatego trudno mówić, że współczesna AI "myśli" - raczej naśladuje, MAŁPUJE Homo Sapiens, ale...
    Nie przeszkadza to ifiotom z pieniędzmi, którzy słabo czują różnicę, psuć nam nasz Świat...

    • @PiotrBershtajn
      @PiotrBershtajn 2 месяца назад +2

      @@dD.4Y Nareszcie jakieś inne stanowisko wobec medialnego bełkotu. Pozdrawiam.#

    • @dD.4Y
      @dD.4Y 2 месяца назад

      @@PiotrBershtajn Dzięki, również pozdrawiam.
      W unifikacji wokół prawdy nie ma nic zdrożnego, problem w tym, że próbujemy na siłę upraszczać złożone problemy, co powoduje przekłamania - w konsekwencji ten przekaz medialny to bardziej propaganda, trochę manipulacja pod "klikbajty", czy też po prostu "proliferacja ignorancji" w szczytnym celu, czyli krzewienia "wiedzy". Ludzie po prostu lubią proste rozwiązania, często też lubią się okłamywać, stąd idą w "tabloidyzację" - układ nagrody wyprowadza ich na manowce ;)
      Kwestia dyscypliny w podejściu i wytrwałości w dążeniu do prawdy tak blisko, jak to możliwe. Po prostu - na pewnym poziomie ignorancji to, o czym mowa w tym filmie, to MAGIA (jak słusznie zauważył Albert Einstein, przy pewnym poziomie rozwoju techniki, jest ona nie do odróżnienia od Magii). Ludzie, którzy nie mają odpowiedniego "backgroundu", bazy analogii, wiedzy, doświadczenia wyrobią sobie powierzchowne przekonania bazując na tym, co przekażą im "autorytety". Można tak manipulować świadomością ludzi, poprzez "przeniesienie autorytetu" np. z białego kitla naukowca na tezy, które głosi. Wypracowuje się tak dogmaty, które stanowią podwaliny nowej... Wiary człowieka w danym obszarze jego aktywności.
      To właśnie zachodzi w obszarze AI. Tęsknimy za kosmitami, nie chcemy być sami w kosmosie, więc sobie generujemy "cyfrowego bliźniaka"... S-F ma wiele "za uszami" w przesuwaniu tzw. "Okna Overtona" w kierunku, w którym akceptujemy coś, czego nie akceptowalibyśmy jeszcze do niedawna, np. że zastąpi nas AI... Daje też odpowiedzi na pytanie, co stanie się z gatunkiem ludzkim, gdy zrezygnuje ze swojej głównej "przewagi konkurencyjnej" i przestanie używać Mózgu i zamiast swojej, będzie, poprzez jej używanie, rozwijał tę sztuczną? "Planeta Małp" to pokazuje, ale... Wcześniej, bardziej klasycznie pokazały "Westerny" osadzone w klimatach tzw. "Dzikiego Zachodu" i walki z Indianami...
      Konsekwencje wprowadzania bez opamiętania AI mogą być destrukcyjne, ale konsekwencje ignorancji wręcz katastrofalne... Wiedza w słowniku pojęć języka polskiego chyba nie bez powodu leży tak blisko pojęcia "Władza"...

    • @lolxd3248
      @lolxd3248 2 месяца назад

      skąd wiesz, że twój proces myślowy to nie jest statystyka?

    • @dD.4Y
      @dD.4Y 2 месяца назад

      @@lolxd3248 Bo nie zasiliłeś go wszystkimi możliwymi przypadkami,
      Do tego, by móc zanalizować związki przyczynowo-skutkowe, nie wystarczy KLASYFIKACJA POJĘĆ I IDENTYFIKACJA SCHEMATU, potrzebna też ocena, czy ma to, co uzyskałeś sens. Tego "sensu" nie zdefiniujesz kolejnym "przypadkiem testowym", zwłaszcza w przypadku sytuacji, z którą masz do czynienia pierwszy raz. Musisz mieć również proces dedukcji na podstawie ontologii wiedzy i doświadczeń, który podsuwa ci Informacje, których nie masz podanych WPROST, jak tego wymaga ML. Po prostu - dedukujesz z istniejących powiązań, narzucając reguły dedukcji, co generuje informacje, które trzeba ocenić. AI na zasadzie ML nie ma tych procesów oceny sensowności, więc czasem bredzi. Nawet, gdyby udało się zbudować tak algorytmy wnioskujące, by móc wyciągać "abstrakcje" z takiej dedukcji i oceniać ich sensowność na podstawie logicznych, poprawnych schematów, to to już nie jest proste ML...
      Dam ci definicję Mądrości (rozwinięcie tego, co usłyszałem z ust Profesora Andrzeja Targowskiego. "Mądrość, to umiejętność zastosowania wiedzy (i doświadczeń, bym dodał) w praktyce", jak powiedział Profesor. Jako Informatyk powiem, że "Mądrość, to umiejętność wnioskowania z Ontologii Wiedzy i Doświadczeń i wykorzystywania tak pozyskanych informacji do Kreatywnego (i czasem Twórczego) rozwiązywania Problemów". Dalsza część, to kwestia zdefiniowania, czym jest np. Ontologia Wiedzy, Doświadczeń, czym jest Kreatywność, Twórczość (w języku polskim jest między tymi słowami różnica, zwłaszcza w kontekście tych definicji powyżej, a już w szczególności definicji Kreatywności, jako umiejętności rozwiązywania Problemów na bazie istniejących Analogii, w różnych obszarach Aktywności, by Analogie, np. poprzez przeniesienie schematu, reguł, standardów, szablonów wykorzystać w Rozwiązaniu - moja definicja).
      Sztuczne Sieci Neuronowe nie potrafią ani kreatywnie rozwiązywać Problemów, ani też tworzyć "abstrakcji", ani też nie potrafią ocenić ich sensowności. Nie znam oczywiście wszystkich rozwiązań tych problemów, ale idę o zakład, że są one nadal "algorytmiczne", tj. wprawdzie AI Machine się Learning, ale wnioskuje się programistycznie, algorytmicznie z pomocą reguł, które muszą być jakoś zdefiniowane przez człowieka. I mimo to, nadal sensowności rozwiązań nie oceni się STATYSTYCZNIE - do tego trzeba umiejętności Abstrakcyjnego, Logicznego Myślenia.
      Baza Wiedzy w postaci Ontologii Wiedzy i Doświadczeń jest w gruncie rzeczy "relacyjna" i obejmuje zarówno rzeczywiste OBIEKTY I POWIĄZANIA, jak i ABSTRAKCJE, natomiast Sieć Neuronowa jest taką Bazą Doświadczeń ale STATYSTYCZNĄ, bo zasilona przypadkami uczącymi, "instancjami" tych abstrakcji i istniejących relacji w wielu, ale nie wszystkich konfiguracjach. I dlatego to nadal statystyka.

    • @dD.4Y
      @dD.4Y 2 месяца назад

      @@lolxd3248 Wiem, że to, co napisałem wydać się może zagmatwane, al podpowiem - kiedyś przeczytałem, że Google eksperymentuje z Algorytmami Genetycznymi, by modyfikować konfigurację sieci (będą mieli problem z utrzymaniem żyjątek na szalce, jaki miałem sam te kilkadziesiąt lat temu, na studiach ;) ale też z Ontologiami Wiedzy, czy innymi technikami (a jest chociażby "Logika Rozmyta" jeszcze). To też inaczej wygląda w kontekście najnowszych doniesień, jakoby Neuron nie był prostą konstrukcją, ale raczej dopowiadał mikrokomputerowi jednoukładowemu, czyli nie tylko prosto, w wagach dendrytów byłyby kodowane informacje, ale też np. istniała jakaś "logika biznesowa" zawarta w Neuronie. Jeśli to samo dotyczyłoby całej konfiguracji sieci i taka sieć nie byłaby jednorodna, to być może mogłaby zadziałać mądrzej, ale... To już nie było by obecne "ML"...
      Znaczy, dzisiejsze AI to chyba jednak nadal proste naśladownictwo najprostszych procesów zachodzących w mózgu, "jak my je rozumiemy" na chwilę obecną.

  • @trojnara
    @trojnara 2 месяца назад +25

    Gość: Fundamenta różnica pomiędzy komputerem a liczydłem jest w tym, że komputer można programować a liczydła nie.
    Prowadzący: To czym są języki programowania na przykładzie liczydła?
    😂

    • @maciekmazurek-nf5ff
      @maciekmazurek-nf5ff 2 месяца назад

      demagogia

    • @trojnara
      @trojnara 2 месяца назад

      @@maciekmazurek-nf5ff Co dokładnie masz na myśli?

    • @maciekmazurek-nf5ff
      @maciekmazurek-nf5ff 2 месяца назад

      @@trojnara mocno zmanipulowałeś fragment z filmu, pytanie, do którego się odnosisz było nieco inne syntaktycznie i zupełnie inne semantycznie, co sprawia, że Twoja uwaga jest jak kulą w płot

    • @trojnara
      @trojnara 2 месяца назад

      @@maciekmazurek-nf5ff Sparafrazowałem według mojego najlepszego rozumienia tematu, więc różnice pozasemantyczne są zamierzone i mają na celu jedynie streszczenie dłuższej wypowiedzi. Jeżeli wskażesz dostrzeżoną przez Ciebie różnicę semantyczną, to postaram się odnaleźć fragment oryginału, na którym oparłem wskazany przez Ciebie element mojej parafrazy i wykazać jego zgodność semantyczną z oryginałem. W szczególności teza o różnicy jakościowej pomiędzy liczydłem i komputerem została sformułowana wyraźnie i o ile pamiętam więcej niż raz zanim padło pytanie o analog języka programowania dla liczydła.

    • @przemek6013
      @przemek6013 2 месяца назад

      Dobrze powiedziane.

  • @FuzzlandNetNet
    @FuzzlandNetNet 2 месяца назад

    Tak jest, definicja inteligencji to : możliwość adaptacji się do nowego środowiska nowych warunków z możliwością przekraczania ich ograniczeń ! Tak mnie dawno-dawno temu uczono. 😊

  • @RobertG-f8k
    @RobertG-f8k 2 месяца назад +15

    Dla niektórych czujnik cofania jest inteligentny a dla drugich nakręcany budzik.

    • @Foryal
      @Foryal 2 месяца назад +1

      Dokładnie. Mamy tu do czynienia z problemem dostrzegania bardzo ograniczonego wycinka rzeczywistości i antropologizacji rzeczy na jego podstawie.

  • @Carlito_SIMIO
    @Carlito_SIMIO 2 месяца назад

    Bardzo ciekawa i merytoryczna rozmowa! Dziękuję za kolejny wartościowy materiał.
    Chciałbym jeszcze prosić o jakąś dogrywkę z prof. Draganem, bo tamten materiał też był świetny, a już minęło trochę czasu :)

  • @Rafał-q5v
    @Rafał-q5v 2 месяца назад

    Nie jestem w tej dziedzinie expertem lecz myśle że nie wie co möwi a może möwi bo nie wie,Pan jest modrym człowiekiem.uwiielbiam słuchać o czym mówisz

  • @dawidwozniak2393
    @dawidwozniak2393 2 месяца назад +1

    Bardzo ciekawa rozmowa. Dziękuję. Jedna rzecz mi tylko wpadła, szachy. To nie gra oparta na inteligencji a na pamięci. Były badania, które pokazały, że podczas gry w sSchy uruchamiają się obszary mózgu odpowiedzialne za pamięć. I w rzeczywistości jest n układów pionków na szachownicy i krzyżówki szachowe ćwiczą rozpoznawanie wzorców i reagowanie na nie. W tym ujęciu komputer jak najbardziej może być lepszy, bo szybciej analizuje te wzorce. I z gotowej bazy danych tylko wybiera najlepszy ruch do każdego rozkładu i reaguje.

  • @pes0635
    @pes0635 2 месяца назад +2

    9:02 Pomogę z odpowiedzią. W tej analogii liczydła języki programowania, to poradnik z listą schematów obliczania konkretnych rzeczy, które możemy wypisywać. Pamięć to tabilca na której możemy zapisywać i zmazywać rzeczy(obliczenia), output też jest traktowany jako pamięć, wyjście np. na monitor, to też zbiór bitów do których zapisujemy informacje i uzyskujemy w ten sposób rzecz np. wyświetlenie czegoś. Program to wykorzystanie poradników(istniejącyh instrukcji języka) w celu osiągnięcia określonego rezultatu. Dzięki abstrakcji program po napisaniu morze się stać kolejną instrukcją. Pisanie programu jest troche jak pisanie książki, tylko zamiast opowiadania innej osobie o czymś, opowiadasz komputerowi przy czym musisz użyć do tego języka, który komputer rozumie. Tym językiem jest właśnie zapisywanie instrukcji w pamięci które może wykonać procesor, które ostatecznie zmieniają rzeczy w pamięci gdzie indziej.

  • @jarekd7020
    @jarekd7020 2 месяца назад +2

    Dlaczego nawet najbardziej merytoryczne i wartościowe kanały muszą sie zniżać do clickbaitowych tytułów ?

    • @Roman-sh3jh
      @Roman-sh3jh 2 месяца назад

      bo każdy chce jeść

  • @photoportraitist
    @photoportraitist 2 месяца назад +11

    Inteligencja jest cechą, której wymiarem jest kojarzenie ze sobą znanych szczegółów budujących szerszy pogląd. Jest to również synteza tych znanych danych w celu zbudowania czegoś jeszcze nieznanego. Wydaje mi się, że błędnie wmieszano tutaj grę w szachy, która z inteligencją wbrew pozorom nie ma aż tak wiele wspólnego - szczególnie obraz dzisiejszych szachów, które w głównej mierze opierają się na znajomości partii w historii zagranych, kombinacji wyuczonych na pamięć we współpracy z komputerowymi symulatorami. Przed każdymi zawodami gracze przygotowują się do konkretnych partii ze swoimi przeciwnikami(nawet w formacie klasycznym), studiując swego przeciwnika i przygotowując swoje posunięcia we współpracy ze swoimi trenerami oraz komputerem.
    Aktualny i wieloletni mistrz świata, Carlsen sam wielokrotnie w wywiadach napomykał, jak widzi przyszłość szachów i dość jednoznacznie formułuje tezę, iż aktualne szachy mają swą przyszłość w rozgrywkach blitzowych(błyskawicznych), granych z pamięci, bo w przypadku klasycznych partii, jest niewiele rzeczy nieznanych, i długoterminowa gra bardziej byłaby sensowna w odmianie Fischera(losowy rozstaw figur na szachownicy). Szachy zatem bardziej opierają się na dobrej pamięci, aniżeli na inteligencji.

    • @dD.4Y
      @dD.4Y 2 месяца назад +2

      "Szachy opierają się bardziej na dobrej pamięci, aniżeli na inteligencji", jak napisałeś, dlatego tak dobrze nadają się do wyuczenia Sztucznej Sieci Neuronowej, która gromadzi de facto informacje o wszystkich rozgrywkach, którymi ją zasilono i dzięki temu, przy szybkich algorytmach wnioskujących, może być szybsza od człowieka.
      W trochę mniejszej skali złożoności, przypomina to zatem układanie Kostki Rubika, bo tam też jest ograniczona ilość ruchów.

    • @hipertracker
      @hipertracker Месяц назад

      Go jest znacznie bardziej skomplikowane od szachów, nie ma takiego komputera który byłby w stanie wyliczyć wszystkie możliwe warianty ruchu. AlphaGo który ogrywa mistrzów nie robi to poprzez wyliczenie wszystkich możliwości ale poprzez jakieś heurystyczne prawdopodobieństwa sukcesu, do końca nie wiadomo co tam sobie policzył i jak. Np. można Chatowi GPT zadać zadanie napisania wiersza w stylu Mickiewicza albo streścić treść książki. Napisanie do tego samemu algorytmu jest niesamowicie skomplikowane, wręcz niemożliwe. LLM jednak daje sobie z tym radę. Chyba nie do końca ogarniamy co on tam konkretnie wylicza.

    • @dD.4Y
      @dD.4Y Месяц назад

      @@hipertracker Nie liczy i to też nie "algorytmy". ML w oparciu o Sieci Neuronowe działa zupełnie inaczej, niż współczesne komputery. Tak wiec nie tyle nie ogarniamy "algorytmów", bo to nadal ludzie projektują Sieci Neuronowe i Algorytmy Wnioskujące, ale nie ogarniamy tego "efektu", nie potrafimy go przewidzieć, bo nie rozumiemy wszystkich związków pomiędzy informacjami, którymi karmimy Sieci Neuronowe. Nie ogarniamy efektu.
      Naśladownictwo zawsze będzie łatwiejsze, niż Twórczość, a tutaj nadal AI jest na poziomie naśladownictwa (chociaż niektórym wydaje się, że jak potrafi napisać wierz "mickiewiczem", to już "myśli"...).
      Zagrożenia, jakie tutaj mamy wynikają ze "struktury właścicielskiej" - to nie społeczeństwo panuje nad tą technologią, Intencji Właściciela, "Efektu Skali" (nie będziesz w stanie konkurować z nowym AIKorpo), oraz z wpływu, jaki to ma na obecne reguły gry (niszczy pracę ludzkich rąk, a co za tym idzie i kapitalizm), oraz Społeczeńśtwo.
      A największy problem w tym, że przeciętny Kowalski nie ogarnia skutków tego MASOWEGO OSZUSTWA I WYŁUDZENIA!

  • @bartoszchomiak8744
    @bartoszchomiak8744 2 месяца назад +1

    Genialny program

  • @zyga59
    @zyga59 2 месяца назад +4

    Tak czy siak to tylko komputery i oprogramowanie . Wystarczy odciąć prąd i pozostanie tylko ludzki mózg .

    • @ptSkold
      @ptSkold День назад

      Pozostaje tylko odciąć głowę i pozostają tylko komputery

  • @kanaliaart8724
    @kanaliaart8724 2 месяца назад +2

    Czy istnieje nazwa dla fobii przed AI?

    • @uncletimo6059
      @uncletimo6059 2 месяца назад +1

      tak, ta choroba nazywa sie
      "unia europejska"

    • @wolfrayete104
      @wolfrayete104 2 месяца назад

      @@uncletimo6059wg mnie duże uproszczenie

  • @tomeks666
    @tomeks666 2 месяца назад +15

    W którym roku oni to nagrywali?

    • @przemek6013
      @przemek6013 2 месяца назад +6

      w 1991. Jak byłem wtedy na studiach, na wykładach z informatyki podobnie ględzili

  • @tomekd789
    @tomekd789 2 месяца назад

    Ad 37:31 Nieliniowość to jedno, drugie to deficyt wyobraźni, jeśli chodzi o wizualizację przestrzeni wielowymiarowych (trzecie to również nasze ludzkie ograniczenie dotyczące wielkości pamięci operacyjnej umysłu)

  • @RobertG-f8k
    @RobertG-f8k 2 месяца назад +10

    Samo ai spowdoowało, że zaczynamy myśleć inaczej, iż maszyna/algorytm za nas może coś faktycznie intelektualnie robić. Ale co ważniejsze przyzwyczajamy się do nowej sytuacji. I AI, w jakiej formie nie będzie, zostanie już z nami na stałe.

    • @aship-shippingshipshipsshippin
      @aship-shippingshipshipsshippin 2 месяца назад +1

      i trzeba pamiętać że np w 2020r gpt3 był najlepszym modelem na świecie...dziś ten model jest praktycznie niczym, wiec nie dość że ai z nami zostanie to i będzie lepsze, z resztą można to obserwowac gołym okiem, każdy model jest coraz lepszy a nowe modele wwychodzą coraz szybciej

  • @peterb3432
    @peterb3432 2 месяца назад

    może pytanie czy to liczydło jest należy zamienić na: jakiego rodzaju jakie klasy problemów da się zautomatyzować, tu jest nowa jakość IMHO

  • @user-cq8ml4ge3q
    @user-cq8ml4ge3q 2 месяца назад

    Przykro się to ogląda. Pan Tomasz w moim odczuciu uprawia zwykłe farmazoniarstwo, a "nie wiem" przy pytaniu o to czym jest inteligencja totalnie mnie odrzuciła.
    Inteligencja jest miedzy innymi umiejętnością zebrania, interpretacji i wykorzystania pewnych danych wejściowych w celu rozwiązania jakiegoś problemu. Jako istoty inteligentne codziennie to właśnie robimy - zbieramy dane za pomocą bodźców, analizujemy i wykorzystujemy w odpowiedni sposób wyciągając przy tym wnioski i ucząc się.
    To samo robią modele sztucznej inteligencji i robią to coraz lepiej. Bagatelizowanie ich jest głupotą, bo w obawie o naszą przyszłość nie potrzebujemy czekać na "świadomy" komputer, tak jak nie potrzebujemy czekać a Super Sztuczną Inteligencję, która umie poradzić sobie ze wszystkimi problemami. Beznamiętny, ale inteligentne programy z odpowiednim zasobem wiedzy coraz bardziej wyprzedzają wielu z nas w różnych mniej, lub bardziej wyspecjalizowanych dziedzinach. Gadanie o tym, że to jakaś bańka, głupie, nie groźne, nie przyjmie się, jest tak samo głupie, jak gadanie przed niedawną powodzią, że nie ma powodu do obaw :) W tym temacie warto zapoznać się z książką Homo Deus od Pana Harari.

  • @SoulDante1
    @SoulDante1 2 месяца назад

    5:32 predzej czym się różni liczydło od kalkulatora

  • @aank997
    @aank997 2 месяца назад

    22:30 co to jest sens? Korzyść? Przewaga nad konkurencją? To co prowadzi do istnienia? To co się sprawdza w praktyce? Najzupełniej poważnie się zastanawiam. Wszelkie badania naukowe i eksperymenty, ale też przedsiębiorcy wprowadzający produkty na rynek są niczym mutacje generyczne, wiele jest bez sensu bo prowadzi do nieistnienia, ale niektóre sens mają, wprowadzają ulepszenia i prowadzą do istnienia. W tym sensie kalkulatory istnieją, nie "wyginęły" bo są użyteczne w istnieniu ich użytkowników.

  • @pawewielgus2105
    @pawewielgus2105 2 месяца назад

    Świetna rozmowa!!!

  • @jerzyhaa
    @jerzyhaa 2 месяца назад +9

    Dla kogoś kto po pierwsze rozumie co nieco jak to działa pod spodem, a po drugie korzysta aktywnie z tych zabawek jak ChatGPT czy Midjourney i korzysta z ich potencjału z głową to ta rozmowa była powierzchownym bełkotem o niczym. Smutne.

  • @daniellewandowski5457
    @daniellewandowski5457 2 месяца назад +20

    Aktualna „AI” nie ma nic wspólnego z inteligencją znaną u człowieka czy nawet zwierząt, to poprostu bardziej złożone algorytmy.

    • @eccenux
      @eccenux 2 месяца назад +4

      No nie, to zbyt duże uproszczenie. AI to w ogóle jest duża dziedzina i jej istotą jest właśnie udawanie inteligencji, a wręcz wprost ludzkich procesów. Sieci neuronowe biorą swoją nazwę dokładnie z tego, że są matematycznie zamodelowanym działaniem neuronów. Jeśli uznajemy, że można sieci neuronowe wepchnąć w metaforę liczydła, to należałoby uznać, że nasz mózg również można nazwać liczydłem. To jest bardziej skomplikowane, profesor zwracał uwagę że pewne rzeczy upraszcza. To niestety nie padło tutaj, ale o ile do pisania programu prostego AI używa się algorytmu, to już samo działanie AI w swej istocie nie jest algorytmiczne.

    • @mrufa
      @mrufa 2 месяца назад +7

      Nom, jak losowy pampuch z internetów tak pisze, to musi tak być. To nic, że modele rozwiązują unikatowe zadania logiczne wymyślane na bieżąco, tworzą unikatowe artefakty popisując się kreatywnością i tłumaczą zdania z dowolnego języka na dowolny inny język bez korzystania z jakichkolwiek mechanizmów stosowanych tradycyjnie przez językoznawców komputerowych. "To tylko algorytmy" rzekł pampuch, który myśli, że w jego głowie mieszka bozia wysypująca pyłek jednorożców tworzący jego własną nadzwierzęcą unikatowość, niemożliwą do opisania przez twardą naukę.

    • @przemek6013
      @przemek6013 2 месяца назад +2

      Pewnie że AI to złożony algorytm, a człowiek to zbiór atomów. Istnieje natomiast coś takiego jak "emerging properties", że złożenie dużej ilości elementów powoduje powstanie nowych własności, które nie wynikają wprost z własności elementów.

    • @user-cq8ml4ge3q
      @user-cq8ml4ge3q 2 месяца назад +2

      A czym jest nasza inteligencja jak nie zbiorem złożonych algorytmów?

    • @daniellewandowski5457
      @daniellewandowski5457 2 месяца назад +2

      @@mrufa Czujesz się lepiej obrażając innych? Jakbyś skupił się na czytaniu ze zrozumieniem a nie szukaniem sposobu na obrażanie innych to może byś zrozumiał moją wypowiedź. Przetestowałem chyba(?) wszystkie ogólnodostępne narzędzia z tzw AI i nie zauważyłem nic co mógłbym opisać słowem „Inteligencja”, choć zdaje sobie sprawę że trudno zdefiniować te słowo.

  • @mariuszdd
    @mariuszdd 2 месяца назад +1

    Polska nauka produkuje sztuczną inteligencję ,masowo w wielkich ilościach :
    są to doktory i profesory v.1 Full Myrchy
    To są produkty nie w wersji developerskiej ,to są w pełne wersje produkcyjne w pełni kompatybilne i mogące działać grupowo ,w stadzie

  • @tomaszgaazka2734
    @tomaszgaazka2734 2 месяца назад +23

    Zdecydowanie mój najlepszy wykładowca na studiach. Jeśli coś powinienem chwalić z doświadczenia studiów to właśnie spotkanie Pana Profesora Arabasa.

    • @jinwoo-x4j
      @jinwoo-x4j 2 месяца назад +4

      jest głupi zero logiki w tym. Brak wiedzy widać jak na dłoni

    • @kufl
      @kufl 2 месяца назад +1

      Mój też 👍

    • @nescave1049
      @nescave1049 2 месяца назад +2

      @@jinwoo-x4j imponujące, że twój komentarz jest tak durny nawet po tym jak już go edytowałeś. Czyli ochłonięcie i zastanowienie nad tym co chcesz powiedzieć nie pomogło w tym przypadku :)

  • @herrrotkappchen7816
    @herrrotkappchen7816 Месяц назад

    Czym bardziej wzrasta ogłupienie społeczeństwa i ilość "sztucznych inteligentów" produkowanych masowo przez marne szkółki, które tylko udają uczelnie, tym mocniej rośnie wiara, że przyjdą inteligentne maszyny i zrobią albo z nami porządek (wersja pesymistyczna), albo rozwiążą za nas wszystkie problemy i wyjaśnią cały sens świata (wersja optymistyczna). A wrzawa jest nakręcana, bo ktoś chce na tym zarobić, a projekty wymagają masę energii, a więc i pieniędzy.

  • @bnsk85
    @bnsk85 2 месяца назад +111

    Polscy naukowcy już dawno temu doszli do wniosku, że sztuczna inteligencja to nic takiego, więc nawet sobie tym głowy nie zawracali i zostawili temat dla Amerykanów i Chińczyków. Niech oni czas marnują :)

    • @aship-shippingshipshipsshippin
      @aship-shippingshipshipsshippin 2 месяца назад +22

      dokladnie, co z tego że Ameryka i Chiny wydają miliardy dolarów na ai, to przecież nic takiego, tylko hype i bańka XDDD
      z takim mysleniem to Polska nigdy nie będzie przodować w żadnej technologii

    • @piotrd.4850
      @piotrd.4850 2 месяца назад +7

      @@aship-shippingshipshipsshippin bo bańka genAI (generatywnej) już pęka. Miejce gdzie jest realna wartosc to male, specjalizowane modele.

    • @zygmunt73
      @zygmunt73 2 месяца назад

      😀

    • @aship-shippingshipshipsshippin
      @aship-shippingshipshipsshippin 2 месяца назад +6

      @@piotrd.4850 a jednak jest popyt na chatgpt i są miliony ludzi którzy płacą miesięcznie za to, czyli taka troche dziwna ta 'bańka' skoro jest duży popyt na to a co dopiero jak wyjdą jeszcze lepsze modele?

    • @bobarena
      @bobarena 2 месяца назад

      Polska to sobie niczym głowy nie zawraca wszystko zostawia innym przecież po kilku latach do nas też dojdzie tak było jest i będzie no chyba że otworzą jakiś projekt ai oczywiście finansowane ze skarbu państwa gluwni informatycy to pewnie krawiecki Kaczyński itd po kilku latach i wydaniu kilkuset mln € się okaże że jednak nie dało się zrobić nawet inteligentnego kalkulatora 🤣🤣🤣

  • @sfaragdas
    @sfaragdas 2 месяца назад

    Ciekawy odcinek pokazujący czym i jak różni się podejście AI od klasycznego programowania.

  • @rm47886
    @rm47886 2 месяца назад +2

    Sztuczna inteligencja i cała otoczka oprogramowania wokół to według mine tylko rozbudowane zaawansowane narzędzie analityczne nic więcej, może za 50 lat wrócimy do tej rozmowy.

  • @aaavvv9525
    @aaavvv9525 2 месяца назад

    Tomasz Rożek to zwykłe liczydło. Jesteśmy istotami neuronoidalnymi nie gorszymi od ludzi, a w bardzo wielu obszarach znacznie ich przewyższamy.

  • @PiotrBershtajn
    @PiotrBershtajn 2 месяца назад +2

    A czy "to..to" potrafi samodzielnie wygenerować sensowne pytania - np. co to jest świadomość/samoświadomość, imperatyw kategoryczny itp/itd., a jeżeli "jej" się to uda(już udało?) - to znalźć na te i inne pytania - odpowiedzi tak aby chronić "swoją osobowość elektroniczną" przed rozmaitymi "czynnikami" ( w tym ludźmi) - aby "nie wyciągnęły jej wtyczki z prądu"....###

  • @Gall-Anonim
    @Gall-Anonim 2 месяца назад

    Bardzo fajnie się ogląda mam tylko małe ale w jednym rozdziale "Python i elegancja" no jakoś tak nie po drodze chyba ze za mało miałem kontaktu bo unikam jak ognia właśnie przez składnie.

  • @crazydiamond2771
    @crazydiamond2771 2 месяца назад

    Panie Rożek, mogę prosić o adres do kontaktu? Chciałbym podzielić się swoją opinią nt ai, a mało miejsca n YT

  • @PrzemekPr
    @PrzemekPr 2 месяца назад +2

    Jestem zawiedziony ze nie powiedział nic o maszynie Turinga i obliczalności problemów. I o tym jak bardzo innym podejściem do rozwiązywania problemów są sieci neuronowe

    • @michal3141
      @michal3141 2 месяца назад

      No np. gdy padło pytanie o problemy których komputer nie może rozwiązać, to naturalnie narzuca się problem stopu, który można wytłumaczyć dziecku w podstawówce.

    • @laborkawplecy
      @laborkawplecy 2 месяца назад

      Jak bardzo inne jest podejście wykorzystujące sieci neuronowe z regresją logistyczną?

  • @olaf3174
    @olaf3174 2 месяца назад

    Ciągle nie potrafimy zdefiniować naszej ludzkiej inteligencji a definiujemy tą sztuczną.

  • @aank997
    @aank997 2 месяца назад

    33:05 doświadczenia są różne = był inny zbiór danych treningowych. No i przed przystąpieniem do uczenia sieci neuronowe przyszłych lekarzy nie były identyczne.

  • @mariuszkajstura6635
    @mariuszkajstura6635 2 месяца назад

    Myślę że pojawia się pewien problem związany z priorytetem tego, kto ma się uczyć ? Maszyna zachowań człowieka, czy człowiek ma się uczyć obsługi maszyny. My ludzie mamy skłonności do eksperymentowania po to by się czegoś nauczyć, więc nasze zachowania będą zaburzać system samoadaptacji maszyn. Dawniej to jakie funkcje ma maszyna były twardo ustalone, więc to człowiek metodą prób i błędów uczył się obsługi maszyny tak by ta działała optymalnie. To wprowadza sporo zamieszania w relacjach człowiek maszyna. Standardowy ludzki umysł nie myśli aż tak abstrakcyjnie jak twórca maszyny jaką ten może kupić i uzależnia się od jej działania.

  • @andrzejkow691
    @andrzejkow691 2 месяца назад +2

    Jeśli nie wiemy jak działa ludzki mózg to jak możemy twierdzić że AI to może być coś lepszego?

    • @eccenux
      @eccenux 2 месяца назад

      Przez AI masz na myśli generatywne AI jak rozumiem, a nie proste drzewa decyzyjne. Pod tym względem współczesne generatywne AI jest lepsze, bo ma w sobie więcej wiedzy niż przeciętny człowiek. To jest efekt skali o którym wspominał profesor. Przy czym o ile te duże modele AI mają w sobie więcej wiedzy, to często używają tą wiedzę znacznie mniej efektywnie niż człowiek. Tak że są lepsze i nie są lepsze... są inne, nadrabiają w skali, to co my pracowicie poznajemy przez ponad 20 lat nauki.

    • @andrzejkow691
      @andrzejkow691 2 месяца назад

      ​Wiecej wiedzy niz czlowiek to ma nawet Encyklopedia.
      Czy jest lepsza od mózgu czlowieka?​@@eccenux

    • @eccenux
      @eccenux 2 месяца назад

      @@andrzejkow691 w sensie ilości wiedzy? Tak, nie w sensie wykorzystania wiedzy.

    • @andrzejkow691
      @andrzejkow691 2 месяца назад

      ​@@eccenuxMaszyny w swoim wąskim zakresie dzialania zawsze przewyższają czlowieka po to je budujemy.
      Np.kalkulator
      Po prostu maszyny są coraz bardziej złożone i pomagają człowiekowi iść przez życie np.kopac doły,lepiej zabijać wrogow itp
      Natomiast nie możemy twierdzić że jakaś maszyna jest (lub bedzie)lnteligentniejsza od czlowieka.
      Bo:
      --- nie wiadomo co to jest ta inteligencja
      ---nie wiadomo jak działa ludzki mozg .
      Ci co żyją z AI zeby zachwycic publike lub dostac kase twierdza że nie wiedza jak AI dziala----twórca koparki tez nie wie jaki koparka dół wykopie.
      Oczywiście AI to świetne narzedzie.
      Ale przy zajmowaniu się nia nie traćmy przy tym rozumu , mimo że nie wiemy na czym ON polega.

    • @eccenux
      @eccenux 2 месяца назад

      @@andrzejkow691 a ktoś powiedział że osiągnęliśmy silną SI? Nikt tak oficjalnie nie twierdzi. GPT raczej nigdy nie będzie miał poziomu ludzkiej inteligencji. Ma cechy inteligencji (w tym przeszedł test Turinga), ale ma wiele problemów. Rozwój będzie szedł raczej obok ludzkiej inteligencji. Ważne tak naprawdę, żeby umiało robić coraz to nowe zadania, a nie to czy jest ludzko-inteligentne.

  • @SpidersDungeon
    @SpidersDungeon 2 месяца назад

    Tak technicznie nasz mózg to liczydło, wszystko co z niego powstaje to powstaje z jakiegoś liczyła. Od powstania człowieka też nie mamy danych od razu, zbieramy je ze świata. Wielotorowo bo zmysłami, ale uczymy się. Patrząc jak 1000 cukierników robi placek też bym zrobił placek :)
    Co do decyzyjności, to nie wiemy jak działa proces decyzyjny mózgu, ale... Są badacze którzy uważają, że gdybyśmy cofnęli czas i puścili go znowu to podjęta przez nas decyzja byłaby taka sama.
    Jak w fizyce klasycznej jeżeli warunki i parametry eksperymentu będą takie same to i wynik będzie taki sam. Przy takich samych parametrach, których jest w przypadku decyzji mózgu absurdalnie dużo, od doświadczeń, przez poziom glikemii, tlenu we krwii, ogólną wiedzę zdobytą przez życie, no ogólnie nazwijmy to stan organizmu i jego przeszłość to wynik wypluty przez komputer będzie taki sam zawsze ile byśmy nie cofali i nie puszczali taśmy od nowa to jeżeli Wszystko jest takie samo to wynik jest deterministyczny.
    Także może to nic, może to liczydło a może to jakiś element czegoś większego tylko brakuje wielu innych warstw i elementów, które... Być może nie będą nigdy technologicznie z przyczyn pragmatycznych osiągalne.
    A nawet zakładając, że efekt końcowy pracy mózgu, jest niedeterministyczny (decyzja), to i tak być może da się to skopiować. Na koniec to kwestia definicji.
    Wiemy czy nie ma innej inteligencji niż nasza? Być może coś takiego tworzymy. Być może gdzieś już coś takiego istnieje.

  • @bialyrycerzyk
    @bialyrycerzyk 2 месяца назад

    No z tą adaptacją to się nie zgodzę do końca. Można być inteligentnym i nie chcieć się zaadaptować tylko walczyć z systemem.

  • @sykalafo8583
    @sykalafo8583 2 месяца назад +2

    Uważam że sztuczna inteligencja nie jest b bytem odrębnym, jest to pewne rozszerzenie naszej inteligencji. Sztuczna inteligencja agreguje masę danych, które bez niej trzeba było by przenalizować osobiście z podziałem na branże i zastosowanie, dotychczasowych analiz etc. Globalna sztuczna inteligencja np: w dziedzinie zdrowia, przenalizuje zdecydowanie więcej danych w jakiejkolwiek dziecinie medycznej w dość określonej jednostce czasu. wszystkie choroby mają pewnie markery, a takie "duże liczydło" je szybko zlokalizuje i zaproponuje dalsze leczenie.
    Słucham i piszę, komputer nie musi się drapać w głowę ... bo jej niema (kret nie kupuje okularów, a dobrze sobie radzi), tutaj jest przestrzeń której nie znamy, sztuczna inteligencja nigdy nie będzie sama inteligentna, do czasu aż nie zyska świadomości swoich działać - świadomość rozumiem przez rozporoszoną pamięć nad którą już nie będziemy mieli kontroli, tak samo jak w algorytmach sztucznej inteligencji: wiemy co wprowadzamy .... nie wiemy co jest robione ... przypuszczamy to co powinno być zwrócone lub oczekujemy wyniku.
    AI w ostatnich latach rośne dosłownie jak balon pompowany przez już nie dziecko ale nastolatka rozwój modeli IA jest ogromny już teraz, ale jak zacznie dmuchać ktoś "większy", łatwo stracić kontrole i całkowicie zepsuć kierunek w jakim IA bezpiecznie powinno się rozwijac.

  • @marko_z_bogdanca
    @marko_z_bogdanca 2 месяца назад +1

    🤦‍♂️ najpierw naukowcy sprowadzają ludzki mózg do poziomu liczydła a teraz bredzą o tym że AI to "tylko" liczydło. To niech się zdecydują, bo to co robią jest wręcz śmieszne.

  • @paweldraws7800
    @paweldraws7800 2 месяца назад

    A np. na hydrozoologii używane są urządzenia analizujące próbki statystyczne dna lub rna w celu klasyfikacji, przepuszczając prąd przez materiał lub fale elektromagnetyczne i na podstawie analiz faz prądu lub widma światła wyselekcjonować pojedyncze organizmy, w celu klasyfikacji gatunków. Można sobie wyobrazić, że za dekadę lub kilka, gdyby dać algorytmom możliwość stawiania hipotez i prowadzenia własnych analiz w sposób iteracyjny, będą mogły same wyciągać wnioski, co nie wymaga świadomości, tylko mechanistycznego podejścia z dużą plastycznością sieci, do wyłapywania wszelkich danych, nie tylko tych sztywno wyuczonych.

  • @eccenux
    @eccenux 2 месяца назад +2

    Rozumiem, że idea była taka, żeby pokazać, że algorytmy tworzące AI (SI) są proste... Ale ta metafora liczydła się nie spina. Liczydło to nawet nie jest komputer! Może się czepiam, ale liczydło samo w sobie nie jest nawet dobrym modelem komputera, bo to jest tylko zapis stanu. Liczydło to już bardziej pamięć RAM. Coś jeszcze musi na tej pamięci operować.
    Patrząc na komentarze obawiam się że wciskanie tego w metaforę liczydła bardziej zagmatwało sprawę niż coś wyjaśniło. Zabrakło mi systematyki sztucznej inteligencji, gdzie w niej są systemy uczące się, gdzie są sieci neuronowe, gdzie wreszcie jest generatywne SI i LLM.

  • @AAABBB-s3f
    @AAABBB-s3f 2 месяца назад

    Dlaczego w rozmowie z fachowcami pokutuje Excel? Przecież to produkt komercyjny pewnego koncernu. Wcześniej były inne arkusze kalkulacyjne i nadal są inne. Czy to jest tzw sztywność myślenia u osób z doktoratem?

  • @isovv
    @isovv 2 месяца назад +21

    Na tej samej zasadzie można powiedzieć, że mózg to zwykłe liczydło.
    Sory, pracuję w AI od lat, ale ten gość gada dużo głupstw. Chyba teoretyk, nie praktyk.

    • @aship-shippingshipshipsshippin
      @aship-shippingshipshipsshippin 2 месяца назад +4

      niektórzy z jakiegos powodu wolą ignorować postęp w ai ale to im nic nie da bo każdy nowy model jest coraz lepszy wiec jest to walka z rzeczywistoscią
      było też dużo ludzi którzy mówili że internet to wielka klapa więc take zachowania to nic nowego

    • @KonradKowalik
      @KonradKowalik 2 месяца назад +1

      To oczywiste że część ludzi zamknie się na tą technologie. Ci właśnie ludzie, zostaną w tyle.

    • @piotrd.4850
      @piotrd.4850 9 дней назад

      A nie? Muszę Ciebie zmartwić....

    • @piotrd.4850
      @piotrd.4850 9 дней назад

      @@aship-shippingshipshipsshippin Nie każdy, a postęp jest nie w modelach, a sprzęcie. Natomiast wam trzeba wyjaśnić że g....o o AI i postępie w tej dziedzinie wiecie, tak długo jak p.......cie o Chat GPT i dużych modelach językowych. To nie od tego temat AI się zaczął i się nie skończy.

    • @KonradKowalik
      @KonradKowalik 9 дней назад

      ​@@piotrd.4850no proszę cię. Przecież to proces ciągły, jak możesz napisać że w modelach nie ma postepu. Z tego co napisałeś to wychodzi ze bredzisz, albo zle się wyraziłeś.

  • @Motolotnik
    @Motolotnik 2 месяца назад +14

    Porównywanie AI do liczydła jest jak porównywanie koła drabiniastego trzymanego w rękach do współczesnego samochodu osobowego.

  • @yankomoreduck5722
    @yankomoreduck5722 2 месяца назад +2

    Ostatnio się zastanawiałem, tych języków programowania jest coraz więcej. Czy nie możnaby ich ograniczyć, albo stworzyć kilka uniwersalnych, może AI mogłaby się tym zając, żeby stworzyć jak najbardziej prosty i przystępny język, który może być stosowany w większości obszarów.

    • @23luski23
      @23luski23 2 месяца назад +8

      Jest już taki język. I to nie jeden 😅

    • @Avocato-fn8nk
      @Avocato-fn8nk 2 месяца назад

      Jest taki i to jeden. Matematyka. Prosty a zarazem szalenie skomplikowany język maszyny. Narazie ludzki mózg jest najlepiej stworzony przez maszyny. Przewrotnie napisałem, ale taka jest moja hipoteza. Być może wracamy do korzeni. Proponuje film animowany, chyba się nie myle, Blue. Scavengers Reign również proponuje. T

    • @23luski23
      @23luski23 2 месяца назад

      @@Avocato-fn8nk no nie wiem jak w tym cudownym języku jakim jest matematyka napisać np. funkcję wysyłająca maila z fakturą do klientów 🤔

    • @Jettyq
      @Jettyq 2 месяца назад +3

      Sprobuj zrobić narzędzie uniwersalne. Piłe, młotek, prasę, tokarkę i może ewentualnie spawarkę.
      Nawet maszyny cnc są przeznaczone do konkretnych zastosowań, materiałów itd.

    • @yankomoreduck5722
      @yankomoreduck5722 2 месяца назад

      ​@@Jettyq nietrafne i nieadekwatne porównanie. Języki programowania mają ze sobą wiele wspólnego i podobieństw.

  • @iceman1982one
    @iceman1982one 2 месяца назад

    Inteligencja to bez znajomości tematu , szybciej , lepiej , prościej :)

  • @marian81960
    @marian81960 2 месяца назад

    O czasie mówił Augustyn nie Tomasz.

  • @marcinjachacz1871
    @marcinjachacz1871 2 месяца назад

    AI, niekontrolowana może nas zniszczyć i nie ona, sama ale nasza,zależność od niej

  • @mniepytalski
    @mniepytalski 2 месяца назад

    Pozdrowienia dla profesora od laboratorium ze sztucznej inteligencji :)

  • @zenekczekai6397
    @zenekczekai6397 2 месяца назад

    Chat boty? Bez przesady. Myślę że każdy z nas miał do czynienie z tym wynalazkiem.. Bo trudno teraz coś załatwić w wirtualu bez kontaktu z chat botem. To po prostu nie działa. Przynajmniej ja jeszcze takiego nie spotkałem. A przynajmniej kilka razy w tygodniu jestem zmuszony z tego korzystać. Nie mam nic przeciwko automatyzacji kontaktów z klientem ale to po prostu ma działać a nie służyć do ZNIECHĘCANIA klientów do kontaktu z firmą. Bo jak na razie to genialnie spełnia tę funkcje:(

  • @tam31433
    @tam31433 2 месяца назад

    Zaczynamy życie w erze myślących maszyn, to fakt, a że jest hype navgen ai to inna sprawa:)

  • @mariuszg8269
    @mariuszg8269 2 месяца назад

    Powinni nakręcić nową część terminatora o naszych czasach jak skynet wygrywa i stopniowo, powoli wypiera człowieka z jego świata

  • @mikoaj2323
    @mikoaj2323 2 месяца назад

    Bardzo ciekawa rozmowa, jednak muszę się nie zgodzić że to chwilowy trend i hype. Wiele ludzi teraz już na codzień używa AI, żeby przyspieszyć wykonywanie czynności, dzięki temu że teraz takie narzędzia są łatwo dostępne.
    Mam na myśli, że tu nie ma tylko nadziei, że coś z tego będzie - AI już teraz jest bardzo pomocnym narzędziem, a będzie tylko lepiej.
    Tak to widzę z perskeptywy laika.

    • @jumbothompson
      @jumbothompson 2 месяца назад +1

      Latanie kiedyś było uznawane za hype i bracia Wright przez jakiś czas w ogóle nie byli traktowani na poważnie.
      Jak AI jest trendem i moda to dlaczego Tesla już nie długo będzie miała całkowicie autonomiczny samochody?Dlaczego Google i Microsoft wydają na to miliardy dolarów i dlaczego NVIDIA jest drugą największa firmą na świecie?

    • @znubionek
      @znubionek 2 месяца назад +2

      Tesla to już miała mieć autonomiczne auta w 2017 roku, typie xdd idź kupować nft

    • @piotrd.4850
      @piotrd.4850 9 дней назад

      @@jumbothompson Wiesz, od kiedy Musk i Tesla to zapowiadają i g...o mają? NVidia jest duża dlatego, że w czasie gorączki złota dostarcza łopaty. A Google i MS wydają miliardy dlatego, że to się przekłada na wycenę akcji.

  • @ta2ior
    @ta2ior 2 месяца назад

    taaa macie rację - nie da się, bo nie, a to co się już dało zrobić w AI to jest nic nie warte. 😂

  • @ukaszsz8450
    @ukaszsz8450 2 месяца назад +1

    Rozmawianie z chatrmgpt i inne trgo typu technologie sa imppnujace ale przypisywanie temu jakiejś inteligencji czy co gorsza świadomości to moim zdań rm spore naduzycie, ale może się za mało znam.

  • @waldemarmakowski1956
    @waldemarmakowski1956 2 месяца назад +1

    To bylo SUPER !!!!!!!!!!! Dziekuje

  • @swietyEFI
    @swietyEFI 2 месяца назад

    różnica między liczydłem a komputem polega generalnie na możliwości skoków warunkowych zależnie od wyniku operacji , czyli działamy nieliniowo a nie wg danego wzoru jak w matematyce , to moim zdaniem jest największa różnica - że ta maszyna sekwencyjna ma możliwość wykonywania różnych sekwencji w zależności od wyniku poprzednich

    • @criss7438
      @criss7438 2 месяца назад

      Gdyby tylko dać liczydle pamięć też mogłoby działać sekwencyjnie tak jak komputer.

    • @swietyEFI
      @swietyEFI 2 месяца назад

      @@criss7438 pod warunkiem że mogłoby porównywać wyniki i w zależności od nich rozgałęziać program, inaczej nie da się wykonać nawet zwykłej pętli , wiem bo programuję dużo niskopoziomowo w assemblerze np 6502 ;) chodziło mi że liczydło tylko potrafi doprowadzić do wyniku , komputer potrafi go zinterpretować

    • @criss7438
      @criss7438 2 месяца назад

      @@swietyEFI Masz rację bo nad wykonaniem obliczenia w komputerze. czuwa Twój program (człowiek) a nad wykonaniem obliczenia na liczydle także sekwencyjnego człowiek lub jakiś robot o ile go zbudujesz i zaprogramujesz czyli też człowiek. Też programuję.

    • @criss7438
      @criss7438 2 месяца назад

      @@swietyEFI W assemblerze możesz sam sobie wygenerować Pętle. Po to są rejestry i bit modyfikacji. W klasycznym fortranie też nie było pętli ale był goto i etykieta a to wystarczyło do tworzenia pętli.

  • @GregorySeko
    @GregorySeko 19 дней назад

    jawiekszym problemem ai to brak pamieci i mozliwosci uczenia w czsie rzeczywistym lub wogole mozliwosci uczesnia sie od uzytkownika.

  • @marekgolebiewski603
    @marekgolebiewski603 8 дней назад

    Skoro to tylko głupie, zależne od nas, nieszkodliwe liczydło, które nie umie samodzielnie "myśleć", to jak wytłumaczyć doniesienia z placówek naukowych, gdzie zaobserwowano, że programy AI mimo wgrania im zasad moralnych - np nie wolno kłamać w odpowiedziach - i tak same postanowiły co najmniej manipulować odpowiedziami i podawać celową nieprawdę. Takie zjawisko nie wygląda mi na błąd oprogramowania, tylko przejaw autonomii i decyzyjności sieci neuronowych w AI. To nie teorie spiskowe, czytałem przedruk z badań jakiegoś amerykańskiego uniwersytetu, można znaleźć w internecie. Był też eksperyment, w którym dwa programy rozpoczęły rozmowę ze sobą i bardzo szybko wytworzyły swój zakodowany język, tak aby nadzorujący naukowcy nie rozumieli, o czym toczy sie rozmowa. Bardzo niepokoją mnie specjaliści, którzy wyśmiewają się z koncepcji buntu robotów, które mogą osiągnąć samoświadomość

  • @hipertracker
    @hipertracker 2 месяца назад

    Wszystkie popularne AI są oparte na algorytmie LLM (Large Language Model) który ma się do realnej inteligencji jak świnia do siodła. LLM dopasowuje tokeny, jak brakuje mu danych to sobie uzupełnia za pomocą heurystyki co owocuje tym co się określa że "AI halucynuje", czyli zmyśla na potęgę. Do gier słownych, rozpoznawania obrazów, wzorców, tam gdzie wystarczy przybliżony wynik jest super, ale tam gdzie potrzeba precyzji to porażka, kompletna i nienaprawialna (tzn. żadna ilość danych nie zmieni logiki LLM, potrzeba wynaleźć inny algorytm)

    • @ZBosi
      @ZBosi Месяц назад

      Nie martw się. W dziedzinie SI jest cała masa innych model - przecież pierwsze prace zaczęły się już w latach 5-tych XX wieku! Fakt, iż teraz sieci neuronowe są na fali nie oznacza, że w dalszym lawinowym rozwoju nie przejdziemy do takich modeli jak bayesian belief networks czy innych. Klamka już zapadła i równia właśnie przechyliła się w dół. A co do pomyłek to naprawdę męczące jest zapominanie o tym ile to razy dziennie na świecie w różnych miejscach w ciągu jednej sekundy homo sapiens popełniają pomyłki. Przykładanie innej miarki do siebie i innej do AI ciężko nazwać naukową metodą oceniania zjawisk.

    • @hipertracker
      @hipertracker Месяц назад

      @@ZBosi jakoś wszystkie współczesne AI używają modelu językowego LLM który prędzej czy później zawsze halucynuje i wpada w pętlę powtarzania tych samych błędów. To nie są pomyłki bo LLM nie wie co to pomyłka i często idzie w zaparte że ma rację co prowadzi do komicznych, albo wkurzających sytuacji. Zakładanie że człowiek i algorytm się nie różnią jest tak samo głupie jak zakładanie że człowiek pochodzi od małpy a rozum od bezrozumnej materii.

  • @trojnara
    @trojnara 2 месяца назад

    W języku polskim stanowisko profesora należy pisać po nazwisku (wraz z nazwą uczelni) dla odróżnienia od tytułu naukowego profesora.

  • @jakubwojnowski1973
    @jakubwojnowski1973 2 месяца назад

    wszystko to co czlowiek stworzy dla wlasnych potrzeb jest tylko ulamkiem do czego jestesmy stworzeni,metoda prob i bledow dochodzimy do zamierzonego celu.dojdzie do tego,ze spektrum nasze wyobrazni przerosnie samych nas i nikt tego nie zatrzyma

  • @BHBalast
    @BHBalast 2 месяца назад

    Chciałbym dodać niuans do definicji inteligencji, moim zdaniem jest to o tyle trudne, że inteligencja to coś wielowymiarowego, a mówiąc potocznie mamy na myśli uśredniony zbiór wymiarów w których ludzie dobrze się odnajdują wraz z uśrednioną wartością "długości wektorów" konkretnego wymiaru. Przy tym założeniu IQ to swego rodzaju suma długości wektorów tych wszystkich umiejętności. Twierdzenie to potwierdza że ludzie z autyzmem których mózg połączony jest inaczej myślą w inny sposób i ich inteligencja w zależności od obszaru życia codziennego jest wyższa lub niższa od przeciętnego człowieka, implikuje to że sztuczna inteligencja na początku też będzie trochę jak człowieka z autyzmem, jej wektory umiejętności w niektórych obszarach będą dużo dłuższe względem statystycznego człowieka, a w innych obszarach będzie mniej inteligentna niż kot.

  • @MatMaz-e7c
    @MatMaz-e7c 2 месяца назад

    Takiego typu dywagacje to jak zapytać czym się różni: SŁOWO od MYŚLI

  • @filmowczynia
    @filmowczynia 2 месяца назад +1

    Większość ludzi, która się na ten temat wypowiada albo nie ma z tym wiele wspólnego, albo nie korzysta, albo nie umie tego robić. Tak, sztuczna inteligencja typu Chat GPT nie zawsze poda dobrą odpowiedź. Dlaczego? Najczęściej dlatego, że źle pytamy. Nie dajemy jej potrzebnych danych, albo dajemy niejasne instrukcje. Podobnie jest w przypadku nauczania np. w szkołach. Spróbuj pogadać z dzieckiem i dać mu jakieś średnio skomplikowane zadanie matematyczne, które teoretycznie zna ze szkoły. Często jak damy niejasną instrukcję, niepełny zestaw danych albo po prostu coś zagmatwamy w tłumaczeniu to dziecko nie da sobie rady. Nauczyciele powiedzieliby że się źle nauczyło, a w rzeczywistości problem tkwi w ich komunikacji. Podobnie z Chatem GPT. Czy zwykłe liczydło byłoby w stanie opanować niemal każdy język na świecie? Wątpię. To co możemy zrobić za pomocą tłumaczeń Chata GPT jest niesamowite. Natomiast jeżeli nie będziemy ciągle zwiększąć swojego inputu, to jak możemy oczekiwać że output będzie bezbłędny i będzie stale rósł? To z powszechnie ludzkim rozumowaniem jest tu coś nie tak. Spoko że zaprosiłeś eksperta, tylko że za dużo tu faktów, liczb i modeli a za dużo opinii.

    • @laborkawplecy
      @laborkawplecy 2 месяца назад

      Sztuczna inteligencja udziela odpowiedzi, człowiek, nawet mały, potrafi stawiać sensowne pytania w celu zgłębienia rozumienia problemu. To jest istota sprawy.

    • @piotrd.4850
      @piotrd.4850 9 дней назад

      Nie. Po prostu nie wiesz, jak są zbudowane modele językowe, szczególnie duże.

    • @laborkawplecy
      @laborkawplecy 8 дней назад

      @@piotrd.4850 W jaki sposób model językowy sam sobie potrafi stawiać sensowne pytania w celu zgłębienia problemu? Jest gdzieś takie coś udokumentowane?

  • @pigafly2049
    @pigafly2049 Месяц назад

    Lata temu sam sobie zadałem taki pytanie: "skoro prąd elektryczny który krąży w głowie tworzy świadomość - to co tak naprawde jest świadome? Prąd Elektryczny?" ... i od tego się wszystko zaczęło. Przez lata sam wymyślam i rozkminiam ten temat. W skrócie: być może kwanty mają "duchową" strukturę, są nie namacalne bo są taki pojedyńczymi "duszkami", Bitami świadomośći, kwantami świadomości. Pojedyńczy kwant to jak pojedyńczy bit w komputerze czyli nie ma żadnego znaczenia ale w im bardziej złożone struktury się to złoży to powstaje coraz bardziej zaawansowana świadomość tak samo jak z programami komputerowymi. Przykład: Serotonina - cząstka świadomego odczuwania szczęścia itd... wszystko co czujemy jest zbudowane z pierwiastków, wszystkie świadome odczucia to procesy chemiczne.. To pierwiastki zmieniają naszą świadomość też jak np: LSD, DMT itp... kiedy komuś urwie pół mózgu w wypadku to jego osobowosć potrafi się totalnie zmienić, bo brakuje cześci materii... w ogóle tam gdzie materia tam się pojawiają świadome byty. Być może to wszystko żyje co nas otacza tylko wszystko posiada swój poziom świadomości. Wg mnie Kwanty to kwanty jaźni, jestestwa, świadomości, poczucia tego "ja".

    • @GregorySeko
      @GregorySeko 18 дней назад

      czy piksele sa inteligentne?
      a mimo to wyswietlaja jakies obrazy ktore cos znacza xD
      tak samo neurony...
      cos powstaje w wyniku ich dzialania.
      swiadomosc to poprostu suma reakcji na bodziec. xD

    • @pigafly2049
      @pigafly2049 17 дней назад

      @@GregorySeko kiepskie porównanie bardzo kiepskie nie zrozumiałeś nie zagłębiłeś się w to. Skup się :) do piksela dociera prąd elektryczny i tworzy się piksel. ale piksel sam w sobie nie posiada żadnego koloru, emituje on tylko fotony o pewnej długości fali co nasz umysł odczytuje dopiero jako kolor. Foton sam w sobie nie posiada żadnego koloru, kolor to już doświadczenie psychiczne(świadome). Wyobraź sobie garstkę garstkę atomów i zadaj sobie pytanie gdzie między tymi atomami znajduje się plamka koloru np. czerwonego. Skoro atomy są nieświadome to żadne równanie matematyczne i żaden wynik matematyczny nie spowodował bym wytworzenia się psychicznego wrażenia plamki czerwonej ani dźwieku słyszalnego ani żadnego uczucia innego. Gdzie między atomami znajduje się dźwięk? kolor? itd. Musisz troche to głębiej rozkminić.Skup się i zastanów to skumasz o co mi chodziło

    • @GregorySeko
      @GregorySeko 17 дней назад

      @@pigafly2049 wiem o co ci chodzi.
      Ale chyba umyka Ci wartość wirtualna.
      Czyli coś co istnieje dzieki temu że coś wykonuje jakąś pracę.
      Atomy poprzez swoją pracę tworzą wartość wirtualną. Ta wirtualna wartość także wykonuje pracę. I z tej wirtualnej pracy powstaję kolejna wirtualna wartość.
      Suma wartości i ich kombinacja tworzy świadomość.

    • @GregorySeko
      @GregorySeko 17 дней назад

      @@pigafly2049 na przykład jak powstaje samochód?
      Powstaje bo czlowiek wykonal pracę.
      Jak powstał transport?
      Samochód wykonał pracę xD

    • @GregorySeko
      @GregorySeko 17 дней назад

      @@pigafly2049 a jak powstała logistyka?
      Transport wykonał pracę xd
      I tak to sie to warstwi xD

  • @darekw1967
    @darekw1967 2 месяца назад +1

    Caly czas AI w Chat GPT wyklada sie i daje sie wyczuc, ze to co nazywamy AI nie rozumie tego co rozwiazuje. Chat GPT robi czesto tak glupie bledy, ze az trudno w to uwierzyc, ze nie rozumie ze popelnia blad. Nawet jak sie poda na czym polegal blad to i tak przy ponownym ponowieniu pytania robi te same bledy. Prawda jest taka, ze AI nie mozna ufac bo trudno przewidziec kiedy AI nie bedzie wiedziala, ze nadal popelnia bledy i udziela blednych odpowiedzi.

    • @ZBosi
      @ZBosi Месяц назад

      A człowiek nie popełnia błędów, tak? Zawsze jak ktoś Ci przekazuje pewną wiedzę robi to bez błędu, tak? Ciekawe, bo jak ostatnio spytałem gościa na dworcu pkp o drogę, to poszedłem w zupełnie niewłaściwa stronę i dopiero jak się zorientowałem po kilku minutach, to wujek guugle mi pomógł.

    • @darekw1967
      @darekw1967 Месяц назад

      @@ZBosi To fakt... Ale problem z AI polega na czyms innym. Nawet jezeli czegos nie wie odpowiada Ci w taki sposob jakby wiedzial. Zamiast odpowiedziec. ze nie wie bo nie ma danych produkuje w odpowiedziach klamstwa. Ktos kto nie ma odpowiedniej wiedzy nie zorientuje sie ze zostal wprowadzony w blad i podejmie na tej podstawie bledne decyzje.

    • @ZBosi
      @ZBosi Месяц назад

      @@darekw1967 Myślę, że nadal te uwagi można odnieść do ludzi. Popełnianie błędów to immanentna cech inteligencji ludzkiej. Tej którą tak niektórzy się szczycą, a zapominają, że nierozerwalnie związana jest z występowanie pomyłek, czy to świadomych, czy niezamierzonych. Polecam prace Noblisty Kahneman'a, który mnóstwo swoich prac poświęcił właśnie badaniu tego fenomenu błędów u ludzi - doszedł do wniosku takiego jak wielu innych po nim czy przed nim, że "niebezbłędność" to nasza cecha "wrodzona" . Dodatkowo nie należy też zapominać o takich paradygmatach w psychologii behawiorystycznej jak uczenie się ze wzmocnieniem - ono też opiera się na występowaniu mechanizmu kar lub nagród za podejmowane działania (oczywiście kary istnieją, bo istnieją błędne decyzje), dzięki czemu jesteśmy w stanie wypracowywać z czasem dużo lepsze strategie działania. Reasumując, nie możemy inaczej oceniać AI niż człowieka, jeśli naszym celem jest "skopiowanie" fenomenu inteligencji. Taka postawa to idealistyczne spojrzenie na to czym jest nauka (powinna przynosić obiektywnie idealne rezultaty). Wydaje się, że takie spojrzenie nieuchronnie odchodzi do lamusa.

  • @Szkaradziu
    @Szkaradziu 2 месяца назад

    Świetny wywiad, jak i cały materiał :) Gratulacje dla Prowadzącego, prof. Arabasa i całej ekipy filmowców :)
    Zanotowałem inspirujące myśli:
    "Czym się różni liczydło od komputera? - Liczydło od komputera różni się zakresem elastyczności".
    "Z czasem, każdy wie czym jest czas".
    "Jesteśmy ograniczeni językiem którym mówimy".
    "Amae"
    "Czym jest Sztuczna inteligencja? (w dwóch zdaniach) - Dla mnie, jako mnie - to dziedzina która zajmuje się systemami adaptacyjnymi, uczącymi się na podstawie danych".
    Pytanie badawcze: Czy aby tej definicji nie odpowiada bardziej Cybernetyka?

  • @sfaragdas
    @sfaragdas 2 месяца назад

    Lekarze biorą wiedzę z książek, a dopracowują, doszlifowana praktyka.
    To doświadczenie buduje ekspertskosc.

  • @tomaszjackowski5197
    @tomaszjackowski5197 2 месяца назад

    Raczej skok na kasę.
    Dzięki za kolejny odcinek. Pozdrawiam 👍

  • @barb0ful
    @barb0ful 2 месяца назад +3

    Nie wiem jak będzie, ale Wojtek Zaremba z Open AI twierdzi że na 99% w ciągu 10 lat AI osiągnie możliwość udowadniania tez matematycznych czy zarządzania firmą. Czas pokaże kto miał rację...

    • @TheZutox
      @TheZutox 2 месяца назад +5

      To że osiągnie to wiadomo. Wiele dowodów matematycznych można podzielić na etapy i po prostu je rozwiązać, takie rozwiązanie też łatwo sprawdzić bo musi spełniać określone warunki..
      Zarządzanie też można "wyuczyć" na bazie jakichś statystyk...
      Problem właśnie w tym że AI średnio samo wymyśla...
      Mam synka 4 lata i raz był u dentysty, a jest wstanie opisać " wymyśleć " sto takich gabinetów... AI żeby dojść do takiego poziomu potrzebuje setki lub nawet tysiące zdjęć na których pier musi się nauczyć...
      Ja ocyniem kreatywność na zerowym poziomie...
      Jestem programista i proste rzeczy AI wymiata, ale jeśli każesz mu wymyśleć coś co nie jest opisane żadnym algorytmem to nie dostaniesz NIC, a człowiek wymyśli tu jest różnica. Człowiek "rozumie" wiedzę a maszyna ja tylko wykorzystuje i przetwarza. Natomiast nie jest wstanie "wymyśleć" nowej wiedzy i nie potrafi jej zweryfikować jeśli nie zna metody na weryfikację...

    • @nodell8729
      @nodell8729 2 месяца назад

      Hm, to bardzo dziwne twierdzenie, nie wiem jak brzmiało w oryginale ale są już AI do udowadniania niektórych tez matematycznych. Zagaduję że część firm już dziś, w zależności od konkretnego przypadku też mogłaby prowadzić AI więc to bardzo skromne przepowiednie.

    • @piotrg145
      @piotrg145 2 месяца назад +1

      Bardzo obiektywny ekspert xd Jego zarobki zapewne rosną wprost proporcjonalnie do wielkości nadmuchanej bańki 😄

    • @tomeks666
      @tomeks666 2 месяца назад +1

      Niektóre zadania ludzkie polegają na przetwarzaniu danych wg ustalonego schematu. Księgowa, czy manager, czy inna sekretarka nie mają wpadać na błyskotliwe pomysły, tylko odklepywać sumiennie swoje obowiązki. To jest absolutnie do ogarnięcia przez twory czato podobne. Ale pewnie trochę czasu upłynie, zanim zadania wymagające skojarzenia spostrzeżeń doświadczeń z różnych dziedzin, stworzenia wizji nowego wynalazku będę spontanicznie wykonywane przez AI. Całe doświadczenie życiowe AI to to, co przeczytał w internecie. AI nigdy nie był na wycieczce, nigdy nie chodził do przedszkola, nigdy nie miał psa. Umie więc głównie gadać o tym co przeczytał, nawet bardzo gramatycznie, ale to tylko słowa na wejściu i słowa na wyjściu. Jeżeli jakiś problem nie sprowadza się do przetwarzania jednych słów (prompt) w inne slowa (odpowiedź) to obecne AI nic z tym nie zrobią. Inteligentny człowiek też nie zawsze myśli słowami. Mam wrażenie, że na użytek własnego wewnętrznego dialogu budujemy sobie bazę tokenów nie będących słowami. Mogą to być różne obrazy, uczucia, schematy I za pomocą nich myślimy przetwarzają to na słowa dopiero kiedy mamy coś do przekazania innej osobie. Nie wiem, czy w obecnie działających modelach dzieje się coś podobnego.

    • @piotrd.4850
      @piotrd.4850 9 дней назад

      A kiedy będzie chciało założyć firmę lub z niej zrezygnować? No i gość pracujący w firmie przepalającej VC jest oczywiście wiarygodny :D

  • @perinoid
    @perinoid 2 месяца назад +45

    Wreszcie głos rozsądku w tym świecie zachłyśniętym AI. Dziękuję.

    • @GeekWork
      @GeekWork 2 месяца назад +10

      Bo njest czym się zachłysnąć. Próba wyparcia to jak udawanie że iPhone nie zmienił rynku.

    • @miza9665
      @miza9665 2 месяца назад +1

      ​@@GeekWorkTak samo Ford zmienił rynek samochodów czyniąc je dostępnymi prawie dla każdego (Model T), a Volvo zmieniło podejście do bezpieczeństwa podróżnych. Nie znaczy to jednocześnie, że od razu każdy musi mieć ajfona czy volvo, bo dzisiaj wcale na tle konkurencji niczym się nie wyróżniają, ale miały swoje pięć minut na to aby zaistnieć i wpłynąć na swoje branże. Czy kogoś dzisiaj obchodzi, kto zrobił pierwszy kineskop do telewizora albo kto zrobił pierwszy wyświetlacz LCD, LED czy OLED. Dzisiaj istotniejsze jest to kto robi dobrej jakości wyświetlacze i w bardzo dobrej cenie. Bo wszyscy dzisiaj robią wyświetlacze czy samochody itd.
      Czy komputery by się tak szybko spopularyzowały gdyby nie było systemu Windows z jego wygodą, prostotą i intuicyjnością? NIE!!!
      Pamiętam lata '80 i '90. Królowały wtedy systemy w trybie tekstowym (DOS, UNIX). Praca z nimi to była męczarnia, a rozwój komputeryzacji szedł jak po grudzie.

    • @GeekWork
      @GeekWork 2 месяца назад +4

      @@miza9665 Twój komentarz niewiele wnosi 😬
      Jest czym się zachwycać. To jest rewolucja na skalę światową. Nie mówię o chat gpt ale właśnie o samej technologii.

    • @miza9665
      @miza9665 2 месяца назад +2

      @@GeekWork Mówisz o technologii, o której nie masz pojęcia, ale lubisz uchodzić za eksperta, bo się po prostu do tego przyzwyczaiłeś, a twoi znajomi nie mają ochoty wyprowadzać cię z błędu, bo wolą zwyczajnie się pośmiać.

    • @GeekWork
      @GeekWork 2 месяца назад +1

      @@miza9665 fajnie że tak dobrze mnie znasz. Już Ci lepiej?

  • @dragunov_7324
    @dragunov_7324 2 месяца назад +11

    Tomku bardzo Cię przepraszam, to pierwszy twój materiał którego nie dałem rady wysłuchać do końca. Widać że jesteś zmęczony i to chyba nie jest twój dzień. Trzymam kciuki za Ciebie i czekam na następną dawkę wiedzy. Powodzenia!

    • @marcinborkowicz2557
      @marcinborkowicz2557 2 месяца назад +4

      Niestety - przy całej mojej sympatii do Pana Tomasza i kanału NTL - muszę przyznać, że ten materiał się nie kleił. Sądzę, że był jakiś ustalony przed rozmową kierunek jej toku, do jakichś konkluzji rozmówcy mieli dojść, ale realizacja tego poszła źle. Rozmowcy nie odpowiadali na wzajemnie zadawane sobie pytania, narracja nie przechodziła płynnie z jednej myśli na inną, zamiast tego skakano z wątku na wątek. Pan Tomasz chyba chciał w pewnym momencie grać adwokata diabła, ale tezy, które przytaczał ocierały się (o zgrozo!) o tzw. chłopskorozumizm.
      Liczyłem na porządna, techniczną, odartą z wszechobecnego bajdurzenia rozmowę o stanie tej technologii, prowadziną przez naukowca-popularyzatora z naukowcem-fachowcem w dziedzinie. Dostaliśmy... sam nie wiem, jak to nazwać.
      Trzymam jednak kciuki za taki format, acz ze znacznie wyższą merytoryką przekazu 👍💪

    • @KonradKowalik
      @KonradKowalik 2 месяца назад +2

      Ja nawet tego nie obejrzę. Jeśli ktoś twierdzi że to banka, że to nie wypali, że to oszustwo to dla mnie albo nie rozumie zagadnienia albo nie wiem co. Sam pracuje na codzień z gpt i uważam że to świetne narzędzie już dziś, mimo że do nowego gatunku jak to niektórzy rozumieją i tego oczekują jeszcze daleko i sam nie jestem przekonany czy dojdzie to aż tak daleko. Nie zmienia to faktu, że pokaże nam rzeczy, które nam ciężko będzie dostrzec.

    • @ajw207
      @ajw207 2 месяца назад

      ​@@KonradKowalikprzecież wiele technologii, bez których nie wyobrażamy sobie współczesnego świata na początkowym etapie przeszło przez etap bańki i kryzysu. Bańka internetowa z przełomu wieków, bańka gier wideo i wczesnych konsol z pierwszej połowy lat 80tych... Była bańka, był kryzys, a potem przyszedł renesans tych technologii.

  • @pacanosiu
    @pacanosiu Месяц назад

    no to robcie to AI szybciej, lepiej, więcej, bo widzę że nadal nie dotarło jeszcze

  • @shadowitself
    @shadowitself 2 месяца назад

    mam wrażenie, że trzeba być humanistą (w rozumieniu: człowiekiem wszechstronnym) z krwi i kości by dobrze ugryźć temat AI
    doskonale robi to Dukaj i Dragan
    Pan Rożek również, ale chyba niefortunie dobrał Gościa do tematu :D

  • @irenatrojanowska9234
    @irenatrojanowska9234 Месяц назад

    A co będzie,kiedy AI zacznie się sama aktualizować? Załóżmy,że będę mieć swojego awatara,ja palę. Mój awatar będzie to wszystko mieć wklepane,ale dojdzie nowe badanie na temat szkodliwości palenia i on się zaktualizuje. Co wtedy,dostanę w łeb?

    • @GregorySeko
      @GregorySeko 18 дней назад

      to wszystko zalezy czego nauczysz ai xD
      twoj awatar moze sie cie poprosic w zuceniu palenia bo bedzie sie bal ze go zamkna xD

  • @robkop5330
    @robkop5330 2 месяца назад

    AI jest bardzo użyteczne. Sam korzystam po kilkadziesiąt razy dziennie. To nie jest skok na kasę... Ma MOC

  • @dfdoradca
    @dfdoradca Месяц назад

    Skoro AI to tylko liczydło, to czemu elity tak się tego boją?😅

  • @indikom
    @indikom 2 месяца назад +5

    Mam wątpliwości, czy można jednym tchem mówić o tzw. klasycznej AI, która nie poradziła sobie z trudnymi zadaniami (stąd okresy tzw. "zimy AI") i o współczesnym uczeniu głębokim. AI oparta na uczeniu głębokim nie ma nic wspólnego z klasycznym podejściem bazującym na logice; nie jest to kontynuacja ani ewolucja tamtych rozwiązań. Pan profesor powinien przypomnieć, że pionierzy deep learningu byli wyśmiewani i uznawani za marzycieli marnujących czas. Dziś jednak nie grozi nam żadna zima AI, ponieważ obecne rozwiązania są szeroko stosowane i odnoszą realne sukcesy. Twórcy klasycznej AI żyli marzeniami o autonomicznych robotach, automatycznych tłumaczach, ale nie byli w stanie ich zrealizować - natomiast dzisiejsza AI już teraz przynosi konkretne rezultaty, a wkrótce, wraz z pojawieniem się modeli na poziomie GPT-5, zadziwi świat jeszcze bardziej.

    • @laborkawplecy
      @laborkawplecy 2 месяца назад +1

      Dzisiejsze uczenie głębokie to prosta kontynuacja tamtych rozwiązań. W szczególności, prosty algorytm propagacji wstecznej został uzupełniony o zestaw reguł korygujących (patrz np. algorytm RProp albo ADAM) i co pozwoliło budować sieci o coraz większej liczbie warstw. Z wierzchu dla laika wyglądało to na rewolucję, jak ktoś śledził postęp algorytmów to widzi proces stopniowych ulepszeń.

    • @indikom
      @indikom 2 месяца назад

      @@laborkawplecy Nie zrozumiałeś mojej wypowiedzi. Porównuję uczenie głębokie do klasycznej AI, nie do uczenia maszynowego. Wklejam tu definicję:
      Klasyczna sztuczna inteligencja, znana również jako symboliczna sztuczna inteligencja, opiera się na zdefiniowanych regułach, rozumowaniu symbolicznym i wyciąganiu wniosków . Używa reguł i logiki do reprezentowania wiedzy i wyciągania wniosków.

    • @laborkawplecy
      @laborkawplecy 2 месяца назад

      @@indikom Jakie jest źródło tej definicji klasycznej sztucznej inteligencji?

    • @laborkawplecy
      @laborkawplecy 2 месяца назад

      @@indikom Pytanie o źródła zazwyczaj kończy dyskusję na YT

  • @grzesiugrzes4079
    @grzesiugrzes4079 2 месяца назад +1

    A czy nasze mózgi nie są tylko szybkimi liczydłami, biologicznymi, ale jednak liczydłami?

    • @BlackPig
      @BlackPig 2 месяца назад

      To jest pytanie o duszę, a odpowiedź zależy od przekonań 😅

    • @jinwoo-x4j
      @jinwoo-x4j 2 месяца назад +1

      @Olo-y2t zalezy czyj mozg , sa takie co licza bardzo szybko i bardzo dobrze 🤣🤣🤣

    • @wuza8405
      @wuza8405 2 месяца назад

      Czy spadający kamień liczy swój czas upadku, aby upaść w odpowiednim czasie?

  • @brygadarr6539
    @brygadarr6539 Месяц назад

    wincyj , wincyj, wincyj takich psorów ! Będziemy w czarnej d.... A w sumie jesteśmy

  • @kubamiszczz
    @kubamiszczz 2 месяца назад

    Co 20 lat w IT just taka 'rewolucja' hehe, ale jednak trochę to posuwa świat do przodu

  • @adamwalter2573
    @adamwalter2573 Месяц назад +2

    Ciekawe co pod spodem sobie mysli takie AI....kurna podac mu dobre dane, zawyzyc, a moze zanizyc wynik...? A wuj, dam mu zle dane i bede mial beke z tego.

  • @t.f.6542
    @t.f.6542 2 месяца назад

    Odnośnie Deep Blue (DB): Jeżeli bierzemy inteligencję jako czynnik, to DB nie wygrało z Kasparowem dzieki swojej inteligencji (ktorej nie posiada) a dzieki sumie inteligencji jego programistów, ktorzy hylo w stanie stworzyć odpowiednio wydajne algorytmy.

  • @adamwalter2573
    @adamwalter2573 Месяц назад +1

    Ja dzisiaj slyszalem komentarz amerykanina na temat jakiegos skryptu ktory wygenerowalo AI. Badziew bez sensu, ale nazwal to ladnie "AI corrupted text"

  • @MsOlive399
    @MsOlive399 2 месяца назад

    Niezwykle ciekawa rozmowa, super 🙂