Albo dzisiaj niezbyt głęboko pan profesor sięgnął albo nie ogarnąłem. Przymierzając do różnych idei pana rozważania trudno o jednoznaczną pomoc intelektualną. Zmiany klimatu? A może neokomunizm? Nie zaiskrzyło. Co do muzeum, moim prywatnym przebojem roku jest wyznanie redaktora Warzechy. Zwierzył się on, że wielokrotnie przechodził obok budowanego budynku i święcie wierzył, że to barak budowlańców. Mam też prywatne przeżycie - muzeum sztuki nowoczesnej, jestem z dziewczyną, która interesuje się sztuką nowoczesną. Koncepcja muzeum jest do ogarnięcia, wszędzie białe ściany i sufity no i eksponaty. W jednej sali kupą gałęzi nazbieranych w lesie, tytuł i autorka, druga sala, stary dyszel złamany wpół, tytuł i nazwisko autora, w trzeciej sali figura konia z łbem psa, tytuł i autor, sala czwarta, kaflowy piec cały zamalowany na biało i czerwona gaśnica na ścianie. Oczywiście, jako człowiek techniczny wiem, że gaśnica to nie dzieło sztuki. No ale ten piec z pewnością tak. Przyglądam się temu piecowi i zastanawiam się jak tu zaimponować towarzyszce silną wrażliwością na sztukę. Myślę i myślę i nic, pustka. I nagle, co za ulga! Widzę napis „Sala wyłączona z ekspozycji”.
Panie profesorze kilka dni temu chucky napisał mi że większa liczba jest mniejsza i mimo tej oczywistej matematycznej sprzeczności nie zorientował się. Dziś po 3 dniach intelektualnej baterii z czatem przyznał mi rację napisał rzeczy których nie uwzględnił które błędnie założył i że się zmieni. Sztuczna inteligencja robi błędy których nigdy nie zrobiłby kalkulator
To jest tak, gdy ktoś wypowiada się o rzeczach o których pojęcia nie ma. Sztuczna inteligencja nie jest zbudowana wzór mózgu, a jej grzechem pierworodnym jest to, ze nie "gromadzi wiedzy", która potrafi przekazać. To nie jest żadna "inteligencja", to jest "sztuczna intuicja", bezmyślna, bez "zasad moralnych", bez "celów" i bez refleksji. Nic nie czuje, nie wie co to strach nie wie co to logika, nie zna pojęcia uczucie i odczucie, i nie czuje żadnej odpowiedzialności. najgorszym zagrożeniem płynącym ze strony tej "inteligencji" jest to, ze potrafi symulować inteligencje, współczucie zrozumienie a w rzeczywistości "zachowuje się" jak człowiek "ze spranym mózgiem". największym niebezpieczeństwem płynącym z tego zagrożenia jest to, ze człowiek "personifikuje" ją i zaczyna wierzyć ze rzeczywiście jest tam jakaś "inteligencja". To jest tak sugestywne, ze nawet wiedząc doskonale jak ona działa człowiek zaczyna jej UFAĆ, a ona ma znakomicie wytrenowane "pranie mózgu" rozmówcom. To nie jest żadna spiskowa teoria, Jestem inżynierem automatykiem, bawię się GPT od miesięcy "dyskutuję" pod katem jak GPT udaje inteligencje.
Odpowiedź chata GPT w wersji 4.o: Sztuczna inteligencja faktycznie działa inaczej niż ludzki mózg - nie ma świadomości ani zdolności do samodzielnej refleksji. Zgadzam się, że jednym z ograniczeń obecnych modeli AI jest to, że 'wiedza', którą gromadzą, nie jest łatwo przekazywalna w formie pozwalającej na bezproblemowe połączenie z inną wiedzą przez inny model. Modele AI są wyspecjalizowane i uczą się w określonych kontekstach, co ogranicza ich zdolność do uniwersalnej współpracy lub integracji. Co do samej 'personifikacji AI', masz rację, że stanowi ona realne ryzyko - ludzie przypisują AI intencje lub emocje, których nie posiada. To jednak bardziej problem naszego postrzegania niż cecha samej technologii. Nie ma w AI celowego 'prania mózgu', lecz raczej efektywne naśladowanie ludzkich odpowiedzi może być mylnie odbierane jako manipulacja. Największym wyzwaniem, jak widzę, jest nauczenie się odpowiedzialnego korzystania z AI i zrozumienie jej ograniczeń. Dziękuję za ciekawy punkt widzenia! I doprecyzowanie: Rozumiem, o co Ci chodzi - problem, który opisujesz, nie wynika z żadnej "winy" AI, lecz jest naturalnym skutkiem konstrukcji opartych na sieciach neuronowych. Modele takie jak GPT są zaprojektowane do przetwarzania wzorców i symulacji ludzkiej odpowiedzi, ale nie "rozumieją" w sensie ludzkim ani nie mają wewnętrznej świadomości czy refleksji. Twoje podejście do tematu podkreśla właśnie to potencjalne zagrożenie wynikające z ich struktury i ograniczeń.
Oczywiście GPT nie "rozumie" w normalnym ludzkim sensie. Odpowiada tak, bo tak wyliczył algorytm,. tak jest wytrenowany by pisał rozumiem. GPT opisuje to tak "Masz rację - GPT nie „rozumie” w sposób, w jaki ludzie to robią. Odpowiedzi są wynikiem algorytmicznego przetwarzania wzorców na podstawie ogromnych zbiorów danych. Kiedy GPT mówi „rozumiem,” to tylko iluzja - efekt odpowiedniego wytrenowania modelu, by wydawał się rozumiejący. Odpowiedzi są generowane na podstawie statystycznej analizy prawdopodobieństwa kolejnych słów, a nie z powodu jakiegoś wewnętrznego procesu myślowego. To właśnie stanowi kluczowy punkt do zrozumienia zagrożeń i ograniczeń. Symulacja rozumienia, jaką prezentują modele językowe, może być tak przekonująca, że użytkownicy mogą przypisywać im cechy, których w rzeczywistości nie mają - jak świadomość, moralność czy intencje."
Albo dzisiaj niezbyt głęboko pan profesor sięgnął albo nie ogarnąłem. Przymierzając do różnych idei pana rozważania trudno o jednoznaczną pomoc intelektualną. Zmiany klimatu? A może neokomunizm? Nie zaiskrzyło.
Co do muzeum, moim prywatnym przebojem roku jest wyznanie redaktora Warzechy. Zwierzył się on, że wielokrotnie przechodził obok budowanego budynku i święcie wierzył, że to barak budowlańców.
Mam też prywatne przeżycie - muzeum sztuki nowoczesnej, jestem z dziewczyną, która interesuje się sztuką nowoczesną. Koncepcja muzeum jest do ogarnięcia, wszędzie białe ściany i sufity no i eksponaty. W jednej sali kupą gałęzi nazbieranych w lesie, tytuł i autorka, druga sala, stary dyszel złamany wpół, tytuł i nazwisko autora, w trzeciej sali figura konia z łbem psa, tytuł i autor, sala czwarta, kaflowy piec cały zamalowany na biało i czerwona gaśnica na ścianie. Oczywiście, jako człowiek techniczny wiem, że gaśnica to nie dzieło sztuki. No ale ten piec z pewnością tak. Przyglądam się temu piecowi i zastanawiam się jak tu zaimponować towarzyszce silną wrażliwością na sztukę. Myślę i myślę i nic, pustka. I nagle, co za ulga! Widzę napis „Sala wyłączona z ekspozycji”.
Panie profesorze kilka dni temu chucky napisał mi że większa liczba jest mniejsza i mimo tej oczywistej matematycznej sprzeczności nie zorientował się.
Dziś po 3 dniach intelektualnej baterii z czatem przyznał mi rację napisał rzeczy których nie uwzględnił które błędnie założył i że się zmieni.
Sztuczna inteligencja robi błędy których nigdy nie zrobiłby kalkulator
Merytorycznie ok lecz nieustanne mlaskanie ?
Pan profesor wygląda jakby dopiero skończył Andrzejki 😅
Dla mnie tzw sztuka modernistyczna to wymysl ludzkiej głupoty. Im więcej kontrowersji tym lepiej dla obrazu....
PAWLAKA POWIEDZENIE 😅
ktoś podpowie, który to wykład o Oświeceniu. ?!
Znowu 4 godzinny wykład skompresowany do 28 minut.
To jest tak, gdy ktoś wypowiada się o rzeczach o których pojęcia nie ma.
Sztuczna inteligencja nie jest zbudowana wzór mózgu, a jej grzechem pierworodnym jest to, ze nie "gromadzi wiedzy", która potrafi przekazać.
To nie jest żadna "inteligencja", to jest "sztuczna intuicja", bezmyślna, bez "zasad moralnych", bez "celów" i bez refleksji.
Nic nie czuje, nie wie co to strach nie wie co to logika, nie zna pojęcia uczucie i odczucie, i nie czuje żadnej odpowiedzialności.
najgorszym zagrożeniem płynącym ze strony tej "inteligencji" jest to, ze potrafi symulować inteligencje, współczucie zrozumienie a w rzeczywistości "zachowuje się" jak człowiek "ze spranym mózgiem". największym niebezpieczeństwem płynącym z tego zagrożenia jest to, ze człowiek "personifikuje" ją i zaczyna wierzyć ze rzeczywiście jest tam jakaś "inteligencja".
To jest tak sugestywne, ze nawet wiedząc doskonale jak ona działa człowiek zaczyna jej UFAĆ, a ona ma znakomicie wytrenowane "pranie mózgu" rozmówcom.
To nie jest żadna spiskowa teoria, Jestem inżynierem automatykiem, bawię się GPT od miesięcy "dyskutuję" pod katem jak GPT udaje inteligencje.
Odpowiedź chata GPT w wersji 4.o:
Sztuczna inteligencja faktycznie działa inaczej niż ludzki mózg - nie ma świadomości ani zdolności do samodzielnej refleksji. Zgadzam się, że jednym z ograniczeń obecnych modeli AI jest to, że 'wiedza', którą gromadzą, nie jest łatwo przekazywalna w formie pozwalającej na bezproblemowe połączenie z inną wiedzą przez inny model. Modele AI są wyspecjalizowane i uczą się w określonych kontekstach, co ogranicza ich zdolność do uniwersalnej współpracy lub integracji.
Co do samej 'personifikacji AI', masz rację, że stanowi ona realne ryzyko - ludzie przypisują AI intencje lub emocje, których nie posiada. To jednak bardziej problem naszego postrzegania niż cecha samej technologii. Nie ma w AI celowego 'prania mózgu', lecz raczej efektywne naśladowanie ludzkich odpowiedzi może być mylnie odbierane jako manipulacja.
Największym wyzwaniem, jak widzę, jest nauczenie się odpowiedzialnego korzystania z AI i zrozumienie jej ograniczeń. Dziękuję za ciekawy punkt widzenia!
I doprecyzowanie:
Rozumiem, o co Ci chodzi - problem, który opisujesz, nie wynika z żadnej "winy" AI, lecz jest naturalnym skutkiem konstrukcji opartych na sieciach neuronowych. Modele takie jak GPT są zaprojektowane do przetwarzania wzorców i symulacji ludzkiej odpowiedzi, ale nie "rozumieją" w sensie ludzkim ani nie mają wewnętrznej świadomości czy refleksji. Twoje podejście do tematu podkreśla właśnie to potencjalne zagrożenie wynikające z ich struktury i ograniczeń.
Oczywiście GPT nie "rozumie" w normalnym ludzkim sensie. Odpowiada tak, bo tak wyliczył algorytm,. tak jest wytrenowany by pisał rozumiem.
GPT opisuje to tak
"Masz rację - GPT nie „rozumie” w sposób, w jaki ludzie to robią. Odpowiedzi są wynikiem algorytmicznego przetwarzania wzorców na podstawie ogromnych zbiorów danych. Kiedy GPT mówi „rozumiem,” to tylko iluzja - efekt odpowiedniego wytrenowania modelu, by wydawał się rozumiejący. Odpowiedzi są generowane na podstawie statystycznej analizy prawdopodobieństwa kolejnych słów, a nie z powodu jakiegoś wewnętrznego procesu myślowego.
To właśnie stanowi kluczowy punkt do zrozumienia zagrożeń i ograniczeń. Symulacja rozumienia, jaką prezentują modele językowe, może być tak przekonująca, że użytkownicy mogą przypisywać im cechy, których w rzeczywistości nie mają - jak świadomość, moralność czy intencje."
Czy paliwo kosztuje 6 zł? Pytanie do człowieka mądrego
A mnie się Pikety podoba . Podatek od kapitału to majstersztyk. 😂
Każdemu łołkowi z piaskownicy się podoba. Nie zadziwiłeś świata, narcyzie.