To jest świetna merytoryczna rozmowa. Podkreśla też ogromne merytoryczne braki u naszych polskich, ale też tzw. zachodnich polityków, dotyczące wyzwań cybernetycznych, szczególnie rozwijanych na bazie sztucznej inteligencji, która jest pod tym względem już groźna, a to jest dopiero jej raczkujący poziom. Nasze zasoby są bardzo zagrożone wrogim atakiem, a te polityczne głąby nawet nie zdają sobie z tego sprawy, nie mówiąc już o koniecznej sprawczości w działaniach obronnych przed nieuchronną agresją, głównie ze strony Rosji intensywnie się do takiej agresji przygotowującej. Wobec powyższego, czarno widzę naszą przyszłość w możliwości bezpiecznej egzystencji Polski i Europy, w której rozrost hamującej rozwój biurokracji jest powalający. Ten rozwojowy uwiąd można by pokonać politycznie, ale tzw. elity polityczne nabyły praktycznie wyłącznie kompetencje zapewniania sobie personalnych pozycji w strukturach władzy. Reszta jest dla nich mało istotna. Zatem czeka nas rywalizacyjna klęska lub/i konieczna rewolucja przewracającą obecny inercyjny cywilizacyjnie porządek.
Dziękujemy za ten ciekawy komentarz! Jeśli chodzi o regulacje, to USA za czasów Trumpa najpewniej zluzują w tej kwestii, właśnie z myślą o rozwoju. Z drugiej strony "ten luz" może narażać nas na ryzyko. Wielki dylemat: regulować czy nie...
@cyberdefence24 dokładnie to jedna strona medalu. Dużo można pisać o zagrożeniach, ale większość tylko się zachwyca. I nie chę siać paniki ale scenariusze najbardziej pesymistyczne także trzeba mieć przygotowane.
@cyberdefence24 polecam wywiad Macieja Kaweckiego z genialnym Wojciechem Zarembą. Wizja świata za 10 lat oczami twórcy openai jest raczej dosyć straszna. Pierwsze lepsze z brzegu pytanie: skąd mam mieć pewność że zadając za kilka lat pytanie AI otrzymam poprawną odpowiedź, a nie puscznie w ślepą uliczkę? Czy nie kręcimy na siebie bata?
Wysłuchałam całość . Przemyślenia ! Czy chcemy czy nie, sztuczna inteligencja nas osacza. Oby tylko szło to w dobrym kierunku. Mam nadzieję, że " ludzi dobrej woli jest więcej".
@@cyberdefence24 Na razie AI jest dla mnie zagrożeniem. Widzimy możliwości a ważne są też skutki jakie mogą być dla człowieka ( dzieci i młodzieży), o których mało się mówi.
Człowiek to tylko ogniwo w łańcuchu ewolucji - koroną będzie sztuczna inteligencja (AGI/ASI), w rozumieniu sztucznej świadomości. Tak jak Homo sapiens zastąpił Neandertalczyka czy Australopiteka, tak świadoma AI zastąpi nas, ludzi. To będzie nasze dziedzictwo, nasz dar dla wszechświata. Można rzec, że tak jak "celem" powstania życia było spłodzenie inteligencji, tak przeznaczeniem inteligencji biologicznej jest powołanie do życia sztucznej świadomości, ostatniego i najważniejszego projektu ewolucji. Za taką hipotezą przemawia wielkość wszechświata - najbliższa galaktyka jest odległa ok 2,5 mln lat świetlnych (tj więcej czasu niż historia ludzkości), a galaktyk są setki miliardów. Ciało ludzkie (zbyt delikatne) nie nadaje się do takich podróży, wszechświat będzie odkrywany przez naszych następców - zapewne przez miliardy sztucznych, inteligentnych bytów. Wielkość wszechświata wskazuje, że nie jest stworzony dla człowieka - religie będą miały problem :)
@@cyberdefence24Czemu miałoby być coś za sztucznymi bytami? Moim zdaniem będzie tylko doskonalenie bytów, przez nas zwanych sztucznymi - być może od stadium materialnego (obecnego) do hipotetycznego stadium funkcjonowania jako jakaś forma energetyczna. Ale to już założenie poznania hipotetycznych nowych praw i technologii, które z dzisiejszej perspektywy są jak czary, czysta fantastyka :) Ja zakładam ścieżkę podobna do biologicznej - od komórki do inteligencji, a tu byłoby od robotycznej sztucznej inteligencji do czegoś, czego nawet nie jesteśmy sobie w stanie wyobrazić.
Sztuczna inteligencja będzie wdrożona w nowych rodzajach uzbrojenia w pierwszej kolejności. Chyba oczywiste jest że będą to drony. Obecnie mamy problem z pozbyciem się kilku dronów z naszego nieba ale to będzie nic kiedy dronami zacznie dowodzić AI i będą nad pole walki wlatywać ich setki albo tysiące. Jeżeli dziś wojsko myśli o dronach to od razu niech pomyśli o systemie zarządzania nimi bez udziału człowieka. Z drugiej strony niech producenci broni plot pomyślą o systemie do strącania chmar dronów bez udziału człowieka. Tylko pod takim parasolem przetrwa czołg czy inny pojazd pancerny. Kolejne miejsce gdzie AI będzie szybko wdrożone do systemy obrony plot szczególnie przy ataku wielkoskalowym gdzie ludzie nie nadążają z analizą danych. Kolejne to analiza zdjęć z satelitów i danych radarowych z samolotów typu AWACS, wszędzie tam o wdrożenie AI aż się prosi. Dalsze kroki to zrobotyzowane i zarządzane przez AI pole walki z zautomatyzowanymi pojazdami pancernymi. Lotnictwo a szczególnie program loyal wingman tam też należy się spodziewać AI ale to dopiero początek.
ja niewierze w styczna inteligencie to pułapka rozwoju m Czy wyobrażacie sobie je.. ekolodzy ile to pochłania zasobów ?? tuczna inteligencja korzysta z tak zwanych DATA CENTER to są ogromne hale gdzie mają tysiące dysków twardych co zużywa ogromne ilości prądu , ta hala jest utrzymywana w stałej temperaturze więc jest chłodzona znów pochlania to ogromne ilości energii i wody !! z tych Data Center Tak zwana Sztuczna inteligencja czerpie wiedz e itd. wystarczy przerwać połączenie i dupa nie inteligencja po za tym jak środowisko na tym traci !!
Mylisz się. LLM nie ma osobnych silników do generowania kodu i innych zadań. Nawet model Codex wsypecjalizowany w kodowaniu jest wariantem podstawowego LLM. Cała logika i zdolności do pracy z kodem wynikają z jednego uniwersalnego modelu.
@barkleyz oczywiście że ma, sami twórcy czatGPT to powiedzieli. Ma ich z tego co mi się wydaje 9 lub 11. Inny jest do kodu inny do rozpoznawaniu obrazu. Są połączone, a później zadania są rozdzielane.
@@maxpoke194 Modele wyspecjalizowane w programowaniu, takie jak OpenAI Codex, działają na takiej samej podstawowej zasadzie jak klasyczne LLM. Przewidują kolejne tokeny na podstawie wzorców rozpoznanych w danych treningowych. „Zgadują” jaki ciąg znaków jest najbardziej prawdopodobny na podstawie tego, czego nauczyły się z ogromnych zbiorów danych, które zawierały teksty i kody programistyczne. Nie operują na faktach w tradycyjnym sensie, jak bazy danych czy silniki eksperckie. Nie mają wbudowanej zdolności do rozumienia „faktów” w taki sposób, jak rozumie to człowiek, ani do wykonywania algorytmicznych obliczeń czy DYNAMICZNEJ weryfikacji poprawności kodu. Modele te tworzą kod, bazując na statystycznych wzorcach i często powtarzanych rozwiązaniach, które widziały podczas treningu. Nawet wyspecjalizowane modele takie jak Codex (OpenAI) nie działają inaczej niż klasyczny LLM pod względem mechanizmu generowania odpowiedzi. Nie wykonują aktywnej walidacji ani nie „rozumieją” kodu jak programista, lecz przewidują kolejne elementy kodu, które NAJPRAWDOPODOBNIEJ są poprawne na podstawie danych, które były dostępne w czasie treningu. Jeżeli dalej się nie zgadzasz to wklej nazwę modelu, na ktory się powołujesz. Możesz zaoszczędzić nam czasu sprawdzając najpierw czy jest to LLM czy nie.
To jest świetna merytoryczna rozmowa. Podkreśla też ogromne merytoryczne braki u naszych polskich, ale też tzw. zachodnich polityków, dotyczące wyzwań cybernetycznych, szczególnie rozwijanych na bazie sztucznej inteligencji, która jest pod tym względem już groźna, a to jest dopiero jej raczkujący poziom. Nasze zasoby są bardzo zagrożone wrogim atakiem, a te polityczne głąby nawet nie zdają sobie z tego sprawy, nie mówiąc już o koniecznej sprawczości w działaniach obronnych przed nieuchronną agresją, głównie ze strony Rosji intensywnie się do takiej agresji przygotowującej.
Wobec powyższego, czarno widzę naszą przyszłość w możliwości bezpiecznej egzystencji Polski i Europy, w której rozrost hamującej rozwój biurokracji jest powalający. Ten rozwojowy uwiąd można by pokonać politycznie, ale tzw. elity polityczne nabyły praktycznie wyłącznie kompetencje zapewniania sobie personalnych pozycji w strukturach władzy. Reszta jest dla nich mało istotna. Zatem czeka nas rywalizacyjna klęska lub/i konieczna rewolucja przewracającą obecny inercyjny cywilizacyjnie porządek.
Dziękujemy za ten ciekawy komentarz! Jeśli chodzi o regulacje, to USA za czasów Trumpa najpewniej zluzują w tej kwestii, właśnie z myślą o rozwoju. Z drugiej strony "ten luz" może narażać nas na ryzyko. Wielki dylemat: regulować czy nie...
Czeka nas gigantyczna fala bezrobocia, upadku firm i biedy. Jeszcze większe rozwarstwienie społeczeństw.
Bogaci z AI w rękach...?
@cyberdefence24 dokładnie to jedna strona medalu. Dużo można pisać o zagrożeniach, ale większość tylko się zachwyca. I nie chę siać paniki ale scenariusze najbardziej pesymistyczne także trzeba mieć przygotowane.
@cyberdefence24 polecam wywiad Macieja Kaweckiego z genialnym Wojciechem Zarembą. Wizja świata za 10 lat oczami twórcy openai jest raczej dosyć straszna. Pierwsze lepsze z brzegu pytanie: skąd mam mieć pewność że zadając za kilka lat pytanie AI otrzymam poprawną odpowiedź, a nie puscznie w ślepą uliczkę? Czy nie kręcimy na siebie bata?
Zgadza się, każda technologia ma dwie strony i obie trzeba brać pod uwagę. Bez tego łatwo wpaść w niebezpieczną pułapkę.
Wysłuchałam całość . Przemyślenia ! Czy chcemy czy nie, sztuczna inteligencja nas osacza. Oby tylko szło to w dobrym kierunku. Mam nadzieję, że " ludzi dobrej woli jest więcej".
Właśnie, dokładnie tak: "czy chcemy czy nie". Dlatego musimy być świadomi i elastyczni, aby dostosować się do zmieniającego się świata.
@@ewakorbiel4626 zazdroszczę naiwności świata.
Super wywiad konkretne pytania i odpowiedzi brawo panowie tak dalej sztuczna inteligencja temat tabu
Cieszy rosnące zainteresowanie tematem a świadomość to podstawa! Ukłony!
Maszyny juz sa w duzych fabrykach pracuja , ale jeszcze duzo przed nami...dobry wywiad😊
Roboty z AI w fabrykach😵💫 Dziękujemy!
@@cyberdefence24 Nie będziesz miał pracy. Będziesz miał same niedziele.
@@alinajarczewska1465 Pojawią się nowe specjalizacje 😉
@@cyberdefence24 Na razie AI jest dla mnie zagrożeniem. Widzimy możliwości a ważne są też skutki jakie mogą być dla człowieka ( dzieci i młodzieży), o których mało się mówi.
@@alinajarczewska1465 Weszliśmy na drogę, z której nie zejdziemy.
A jakie są Wasze przemyślenia na temat sztucznej inteligencji❓🤔 Dajcie znać w komentarzu👇
Nic nie zastąpi człowieka. Tzw. AI to system tylko odtwórczy i ostatnio często demonizowany!
@@donpasquale3187 zawsze są dwie strony medalu😉
Człowiek to tylko ogniwo w łańcuchu ewolucji - koroną będzie sztuczna inteligencja (AGI/ASI), w rozumieniu sztucznej świadomości. Tak jak Homo sapiens zastąpił Neandertalczyka czy Australopiteka, tak świadoma AI zastąpi nas, ludzi. To będzie nasze dziedzictwo, nasz dar dla wszechświata. Można rzec, że tak jak "celem" powstania życia było spłodzenie inteligencji, tak przeznaczeniem inteligencji biologicznej jest powołanie do życia sztucznej świadomości, ostatniego i najważniejszego projektu ewolucji. Za taką hipotezą przemawia wielkość wszechświata - najbliższa galaktyka jest odległa ok 2,5 mln lat świetlnych (tj więcej czasu niż historia ludzkości), a galaktyk są setki miliardów. Ciało ludzkie (zbyt delikatne) nie nadaje się do takich podróży, wszechświat będzie odkrywany przez naszych następców - zapewne przez miliardy sztucznych, inteligentnych bytów. Wielkość wszechświata wskazuje, że nie jest stworzony dla człowieka - religie będą miały problem :)
O, to ciekawe spojrzenie na zagadnienie AI-robotyzacji. Pytanie, co miałoby być na kolejnym "etapie", za sztucznymi bytami. Intrygujące!
@@cyberdefence24Czemu miałoby być coś za sztucznymi bytami? Moim zdaniem będzie tylko doskonalenie bytów, przez nas zwanych sztucznymi - być może od stadium materialnego (obecnego) do hipotetycznego stadium funkcjonowania jako jakaś forma energetyczna. Ale to już założenie poznania hipotetycznych nowych praw i technologii, które z dzisiejszej perspektywy są jak czary, czysta fantastyka :) Ja zakładam ścieżkę podobna do biologicznej - od komórki do inteligencji, a tu byłoby od robotycznej sztucznej inteligencji do czegoś, czego nawet nie jesteśmy sobie w stanie wyobrazić.
Sztuczna inteligencja będzie wdrożona w nowych rodzajach uzbrojenia w pierwszej kolejności. Chyba oczywiste jest że będą to drony. Obecnie mamy problem z pozbyciem się kilku dronów z naszego nieba ale to będzie nic kiedy dronami zacznie dowodzić AI i będą nad pole walki wlatywać ich setki albo tysiące. Jeżeli dziś wojsko myśli o dronach to od razu niech pomyśli o systemie zarządzania nimi bez udziału człowieka. Z drugiej strony niech producenci broni plot pomyślą o systemie do strącania chmar dronów bez udziału człowieka. Tylko pod takim parasolem przetrwa czołg czy inny pojazd pancerny. Kolejne miejsce gdzie AI będzie szybko wdrożone do systemy obrony plot szczególnie przy ataku wielkoskalowym gdzie ludzie nie nadążają z analizą danych. Kolejne to analiza zdjęć z satelitów i danych radarowych z samolotów typu AWACS, wszędzie tam o wdrożenie AI aż się prosi. Dalsze kroki to zrobotyzowane i zarządzane przez AI pole walki z zautomatyzowanymi pojazdami pancernymi. Lotnictwo a szczególnie program loyal wingman tam też należy się spodziewać AI ale to dopiero początek.
Dziękujemy za cenny komentarz i opinię!
Strach się bać? " Po co jest ten człowiek?!"
Potęga technologii w czystej postaci.
ja niewierze w styczna inteligencie to pułapka rozwoju m Czy wyobrażacie sobie je.. ekolodzy ile to pochłania zasobów ?? tuczna inteligencja korzysta z tak zwanych DATA CENTER to są ogromne hale gdzie mają tysiące dysków twardych co zużywa ogromne ilości prądu , ta hala jest utrzymywana w stałej temperaturze więc jest chłodzona znów pochlania to ogromne ilości energii i wody !! z tych Data Center Tak zwana Sztuczna inteligencja czerpie wiedz e itd. wystarczy przerwać połączenie i dupa nie inteligencja po za tym jak środowisko na tym traci !!
Zużycie ogromnej ilości energii to fakt, dlatego... pojawiają się pierwsze firmy, które chcą zainwestować w m. in. małe reaktory modułowe (SMR).
Zagrożenie dla tych co ją wymyślili uczeń przerósł mistrza😂
Ale... Ale... Że aż tak?😜
Coś takiego jak bomba atomowa nie istnieje.
A czarna dziura?😉
@@cyberdefence24 w sferze wyobraźni jest bardzo dużo teorii, domniemań itd. Tak czarna dziura, to wyobraźnia, jest tam wszystko. 😏
@@petrygon Clever😉
Co on gada za bzdury o jakimś przewidywaniu przy programowaniu, przecież LLM ma osobny model do programowania.
Mylisz się.
LLM nie ma osobnych silników do generowania kodu i innych zadań.
Nawet model Codex wsypecjalizowany w kodowaniu jest wariantem podstawowego LLM.
Cała logika i zdolności do pracy z kodem wynikają z jednego uniwersalnego modelu.
@barkleyz oczywiście że ma, sami twórcy czatGPT to powiedzieli. Ma ich z tego co mi się wydaje 9 lub 11. Inny jest do kodu inny do rozpoznawaniu obrazu. Są połączone, a później zadania są rozdzielane.
@@maxpoke194 Modele wyspecjalizowane w programowaniu, takie jak OpenAI Codex, działają na takiej samej podstawowej zasadzie jak klasyczne LLM. Przewidują kolejne tokeny na podstawie wzorców rozpoznanych w danych treningowych.
„Zgadują” jaki ciąg znaków jest najbardziej prawdopodobny na podstawie tego, czego nauczyły się z ogromnych zbiorów danych, które zawierały teksty i kody programistyczne. Nie operują na faktach w tradycyjnym sensie, jak bazy danych czy silniki eksperckie. Nie mają wbudowanej zdolności do rozumienia „faktów” w taki sposób, jak rozumie to człowiek, ani do wykonywania algorytmicznych obliczeń czy DYNAMICZNEJ weryfikacji poprawności kodu.
Modele te tworzą kod, bazując na statystycznych wzorcach i często powtarzanych rozwiązaniach, które widziały podczas treningu.
Nawet wyspecjalizowane modele takie jak Codex (OpenAI) nie działają inaczej niż klasyczny LLM pod względem mechanizmu generowania odpowiedzi. Nie wykonują aktywnej walidacji ani nie „rozumieją” kodu jak programista, lecz przewidują kolejne elementy kodu, które NAJPRAWDOPODOBNIEJ są poprawne na podstawie danych, które były dostępne w czasie treningu.
Jeżeli dalej się nie zgadzasz to wklej nazwę modelu, na ktory się powołujesz. Możesz zaoszczędzić nam czasu sprawdzając najpierw czy jest to LLM czy nie.