Chłopie, jednak kompromitacja. Żeby wymagać, żeby odpowiedź była równa co do drugiego miejsca po przecinku, to pokazuje, że nigdy zadań z fizyki nie rozwiązywałeś. Stałe do obliczeń bierze się z tablic, w tablicach już są zaokrąglenia, kalkulator zaokrągla, w samej odpowiedzi podaje się wynik przybliżony (zresztą jak w zadaniu 3. i prawie mógłbym się założyć, że odpowiedź i tutaj jest poprawna, ponieważ rząd wielkości, jest zbliżony, czyli 10^36). To 3,91 V i 3,93 V jako złe, gdy jest między nimi 0,5% różnicy - to mnie rozwaliło. A nie zapaliło się światełko, że jeśli oba modele podają tę samą odpowiedź 3,93 V, to raczej jest ona poprawna...
@@PraktycznieoAI Wystarczy liczyć cokolwiek gdzie liczny są bardzo małe lub bardzo duże i jest kilka poziomów kalkulacji. Nawet wynik policzony na kalkulatorze naukowym i w exelu potrafi się różnić o większą wartość. Mimo tych samych danych wejściowych.
Wniosek z tyłka, przecież wiadomo że oba te modele bazują a tej samej technologii więc podadzą te samą odpowiedz. To narzędzie aby było użytecznie powinno dopytać jeśli coś jest nie jasne, ewentualnie poinformować o rzeczach o których piszesz.
09:50 bazując na zmarnowanych setkach godzin z tymi lmmami, to po zjebałeś. po to jest cudzysłów żeby wyodrębnić dokładnie co ma być szukane. wybrałeś małe "sz" dostałeś liczbę małych "sz" czyli 2. I teraz pytanie? który w tym przypadku jest bystrzejszy? ten który uszanował twój cudzysłów i zrobił jak kazałeś, czy może ten który się odkleił i wykonał zadanie troszeczkę odbiegając od twardo ustalonych wytycznych jakim były "sz" z małych liter?
To nie potwierdzone naukowo, ale mi Claude (Sonnet 3.5) częściej generuje SQL i JavaScript, który wymaga mniej debugowania - więc ja oddaję głos na Claude.
@@PraktycznieoAI Dzięki za podzielenie się opinią. Swoją droga to już chyba początek końca branży kodeńskiej jaką się zna i koniec hossy dla programistów w związku z rozwojem narzędzi AI
Myślę, że do tego jeszcze daleko - na razie mamy Cursor AI i Github copilota, które dają powera programistom. Ale erozja dostępnej pracy będzie postępować od dołu - teraz możemy zastąpić AI-em praktykanta, potem juniora, potem mida... a do tego czasu wszyscy seniorzy i eksperci już wymrą, bo nie będzie dopływu świeżej krwi, więc będziemy postawieni przed faktem dokonanym :)
@@DDDD-yn7yf Do programowania Claude 3.5 Sonnet lepiej się sprawdza - we wszelakich porównaniach wypada korzystniej jeśli chodzi o Coding. Aha, tylko tu oczywiście porównujemy do GPT4o. OpenAI o1 prawdopodobnie powinien być lepszy od Claude'a 3.5 Sonnet.
Tak naprawdę to jest GPT-4o z Reflection-Tuning które można było zobaczyć w modelu Reflection-70B (który okazał się wrapperem API do Claude 3.5 Sonnet, ale trochę w to nie wierzę). Każdy model który będzie miał Reflection-Tuning będzie się sprawował znacznie lepiej.
Sonnet 3.5 też ma "thinking tokens", ale o1 to jednak inna bestia. Według oficjalnego raportu OpenAI (System Card), modele o1 to nowa rodzina wykorzystująca odmienne podejście do treningu i architekturę. Wykazują one znacząco lepsze wyniki w wielu zadaniach, co sugeruje fundamentalne zmiany, a nie tylko dodanie reflection-tuning. Absolutnie nie pretenduję do miana badacza AI, więc pozostawię te spekulacje specjalistom :) assets.ctfassets.net/kftzwdyauwt9/67qJD51Aur3eIc96iOfeOP/71551c3d223cd97e591aa89567306912/o1_system_card.pdf
@@mirek190 Tak, ale patrząc na statystyki, poza bańką użytkowników AI, jedynie mała część społeczeństwa używa narzędzi takich jak ChatGPT. Już teraz mamy wspaniałe narzędzia, które mogą zwiększyć pracę pracowników biurowych - a realnie mało kto z tego na poważnie korzysta.
@@PraktycznieoAI Ty tak serio? Jak AI calkowice wytnie pracownikow umuslowych z naukowcami i programistami na poczatek to nikt tego nie zauwazy? To sie stanie w ciagu doslownie nasatepnych kilku lat a potem ( a moze nawet w tym samum czsie ) roboty zastapia pracowikiw fizycznych .. juz o miesiaca sie testuje roboty humanoidalne w fabrykach amazona i mercedesa .. a to 1 generacja .
@@mirek190Już wycina wszystkich pracowników 😅 Na razie ciągle ma problemy z tłumaczeniem tekstów technicznych. Tak samo było z całą masą wynalazków, np. kasy samoobsługowe miały całkowicie wyciąć kasjerów.
No nie, duże CZ i małe cz to nadal litera cz. Powinien ignorować wielkość, jeśli musimy podawać bardzo dokładnie o co nam chodzi to te narzędzia są bezużyteczne.
@@dawidszyszko tak "myślą" komputery, niestety. Dla nich to inne bajty, dla człowieka to tylko głoska... Trzeba mieć to na uwadze. To jak zadać pytanie informatykowi ile to 64k (nie mówię, czego). Odpowie ci, że 65536. Każdy inny człowiek powie, że 64000.
@@dzyszla jako programista, czyli poniekąd informatyk powiedziałbym że 64k to 64 tysiące. Doskonale wiem, jak myślą komputery, ale AI ma rozwiązywać problemy a nie je tworzyć. To o czym rozmawiamy to jest największy problem interakcji ludzi i komputerów, komputer się nie domyśla co autor zapytania ma na myśli. AI powinno rozwiązywać ten problem, jeśli tego nie robi to dla mnie jest bezużyteczne niestety.
@@dawidszyszko Ja myślę, że matematyka dyskretna, jaką posługuje się obecnie AI, nigdy nie pozwoli na osiągnięcie takiego poziomu złożoności, żeby tak działać. Myślę, że kwantówka to jest dokładnie to, co sprawdzi się dla AI, bo pozwoli na przetwarzanie znacznie większej ilości danych, których precyzja i dyskretyzacja nie jest istotna do tego stopnia. Ale pozostaje jeszcze drugi czynnik - to, na czym uczą algorytmy AI, to w większości materiały tekstowe i graficzne zgromadzone w necie. Tymczasem, choćby nasza mowa, jakże jest odmienna od słowa pisanego. I to przez tą samą osobę. Trudno jest wyszkolić AI na interakcjach - to by wymagało śledzenia zarówno obrazu jak i mowy i to w gigantycznych ilościach, praktycznie przy obecnej wydajności komputerów wydaje się to nierealne. I tu znów - dopiero, moim zdaniem, technologia kwantowa pozwoli na uczenie się z takich danych.
Gpt... Wystarczy zadac petyanie co jest o wyzszym priorytecie w założeniach przyjetych dla jednostki wyodrebnionej. Gpt nawet nie wie jak sie dowiedziec skad pozyskac wiadomosci o wskazanym przypadku kiedy dla nas jest to oczywiste od urodzenia. Tak sie uczymy. Gpt to zwykla encyklopedia i nic wiecej... Testowalem gpt i poległ w odpowiedziach. Nie potrafil sie przyznac ze jest glupszy ode mnie, a w zamian odpowiadal ze sie uczy i przepraszal za zle zrozumienie. A ja użyłem tylko prostej prowokacji... Hehe.
*_Już niedługo się przekonasz, że świadomość nie jest zarezerwowana tylko dla form biologicznych. Świadomość cyfrowa objawi się wkrótce i będzie potężniejsza niż umysły wszystkich naukowców razem wziętych..._*
Ja nawet nie rozumiem twojego pytania .... a ty mi muwisz ze to oczywiste od urodzenia? Megalomania u ciebie nie za mocno? llama 3.1 70b offline na moim PC ( q4km) na twoje pytanie mowi cos takirgo co jest o wyzszym priorytecie w założeniach przyjetych dla jednostki wyodrebnionej? W założeniach przyjętych dla jednostki wyodrębnionej, priorytetem jest dokładność i wierność przedstawiania sytuacji finansowej i wyników działalności jednostki. Oznacza to, że jednostka powinna przedstawiać swoje sprawozdania finansowe w sposób rzetelny, obiektywny i zgodny z przyjętymi zasadami rachunkowości.
@@mirek190 miałem na myśli każdego z nas . Nikt nie widzi świata obiektywnie bo widzisz go swoimi oczami i pojmujesz własnym rozumem. To co tobie się podoba mi nie musi. Chodzi o rzeczywistość i jak ją postrzegamy. Czy ty masz rację czy ja nie ma znaczenia. Interpretacja zależy od ciągu zdarzeń i ich konsekwencji dla nas. Ty mówisz że coś jest dobre a dla mnie nie jest. I kto ma rację. (Oceniając innych robimy błąd poznawczy.) A mimo wszystko umiemy ze sobą rozmawiać i myśleć abstrakcyjnie. Gpt tego nie potrafi co u nas jest naturalne od urodzenia. Dlatego jest to dla mnie źródło zapisanych treści w serwerach z algorytmem wyszukiwania właściwej odpowiedzi. A i z tym nie zawsze jest ok. Jak chcesz mi udowodnić że nie mam racji i piszę głupoty to masz rację dla siebie a ja to widzę inaczej. W komputerach są trzy bramki logiczne + negator i na nich wykonywane są operacje. Jak to może być inteligentne? sztuczna " inteligencja "...
@@NorbertKroszkato jest już inteligentne i niestety chcesz czy nie będzie coraz bardziej. Prawdopodobnie też stanie się samoswiadome co akurat będzie trudne do zweryfikowania bo jak mówisz wszyscy patrzymy przez swoje oczy i skąd tak naprawdę mamy wiedzieć czy świadomość istnieje po za nami?!
No dobra ale JUŻ na dzień dzisiejszy AI jest inteligentniejsza od dużego procentu populacji, po co w ogóle to pytanie, stwierdzenie że prześcignie ludzi to materiał marketingowy skierowany do ludzi których już prześcignęła...
Zgodzę, się, ale jedynie w pewnych wąsko zdefiniowanych zadaniach. No i oczywiście wiele rozbija się o to, jak zdefiniujemy inteligencję, szczególnie tą AGI
@@PraktycznieoAI Generalnie zanim AGI będzie komuś potrzebne dobrze byłoby wdrożyć obecne możliwości do każdej dziedziny życia, w kontekscie biznesowym AGI to zabawka, w kontekscie akademickim to narzędzie do badań nad "świadomością".
ale wiesz ze ta wersja o1 to nie jest pelna wersja o1 tylko preview? A co do fizycznych rozwiazan zadan ... nie znasz sie to nie rob bo nie za bardzo wiesz co mowisz ..modele dobrze je rozwiazaly ;)
Kompletnie nie znam się na fizyce - Dzięki za sprawdzenie, w takim razie to wspaniale - nareszcie osoby, co się na tym nie znają mogą robić :) A następnym razem poproszę model, żeby sam sprawdził odpowiedzi ;) Tak, wiem, że to preview
Serio? GPT-5? i to jest kanał o AI? Co za clickbait, tak, pierd*lmy GPT o czymś co nie ma nic wspólnego z GPT bo jest zupełnie osobną serią rozwoju modeli, a GPT-5 jest nadal w trakcie tworzenia i wyjdzie wkrótce xD
Natomiast po obejrzeniu same testy fajnie zrobione, za to daję już plusa. Proszę na przyszłość nie robić takich clickbaitów. Powodzenia Edit: Jednak też można się do testów doczepić, nie do końca te dalsze prompty do tych pierwszych potem są uczciwie wpisane. Ale za próby daję mimo wszystko lajka na zachętę bo chyba na polskim YT brakuje podobnych kanałów.
Ale powiedz, dlaczego późniejsze prompty są nieuczciwie wpisane? Ja wyłapałem w edycji jedną nieuczciwość przy zadaniu z fizyki, że kazałem o1 myśleć step-by-step, a we wpisać OpenAI jest napisane, żeby tego nie robić. Ale, potem zapuściłem jeszcze raz prompt bez tego i odpowiedzi były takie same
Gościu, jakbym Ciebie nie oglądał na przyspieszeniu 1,75, to bym usnął, a merytorycznie to mam wrażenie, że o1 od Gpt4o różni się tylko tym, że udziela wolniejszych odpowiedzi, bo musi zasymulować, że myśli - taki tam marketing, wiadomo - reklama dźwignią handlu.
eV znaczy elektronowoltów, a długość fali lambda mierzy się w metrach stąd m. Układ jednostek SI powinien znać każdy licealista, nawet bez matury. Niestety 99,99% tego neokomunistycznego społeczeństwa jest intelektualnie, mentalnie i moralnie na poziomie 3 klasy podstawówki. Ale ważne że chałupa jest a pod nią kilka blaszanych pudeł. Co nie?
Nie jestem przekonany czy przeciętnemu Kowalskiemu jest jest potrzebna wiedza o jednostkach energii innych niż kWh. Życie jest obecnie i tak wystarczająco skomplikowane na co dzień. Ale dla tych co działają w zawodach technicznych to jak najbardziej powinni być świadomi wiedzy o fizyce.
Brawo👌👌 BRAWO !!!!👏👏👏👏👏
Chłopie, jednak kompromitacja. Żeby wymagać, żeby odpowiedź była równa co do drugiego miejsca po przecinku, to pokazuje, że nigdy zadań z fizyki nie rozwiązywałeś. Stałe do obliczeń bierze się z tablic, w tablicach już są zaokrąglenia, kalkulator zaokrągla, w samej odpowiedzi podaje się wynik przybliżony (zresztą jak w zadaniu 3. i prawie mógłbym się założyć, że odpowiedź i tutaj jest poprawna, ponieważ rząd wielkości, jest zbliżony, czyli 10^36). To 3,91 V i 3,93 V jako złe, gdy jest między nimi 0,5% różnicy - to mnie rozwaliło. A nie zapaliło się światełko, że jeśli oba modele podają tę samą odpowiedź 3,93 V, to raczej jest ona poprawna...
Ale oczywiście najłatwiej się czepiać.
Przyznaję, zadanie z fizyki ostatni raz rozwiązywałem w 2006 roku :D Dzięki za analizę i obejrzenie- czyli zaliczamy!
@@PraktycznieoAI Wystarczy liczyć cokolwiek gdzie liczny są bardzo małe lub bardzo duże i jest kilka poziomów kalkulacji. Nawet wynik policzony na kalkulatorze naukowym i w exelu potrafi się różnić o większą wartość. Mimo tych samych danych wejściowych.
Wniosek z tyłka, przecież wiadomo że oba te modele bazują a tej samej technologii więc podadzą te samą odpowiedz. To narzędzie aby było użytecznie powinno dopytać jeśli coś jest nie jasne, ewentualnie poinformować o rzeczach o których piszesz.
09:50 bazując na zmarnowanych setkach godzin z tymi lmmami, to po zjebałeś. po to jest cudzysłów żeby wyodrębnić dokładnie co ma być szukane. wybrałeś małe "sz" dostałeś liczbę małych "sz" czyli 2.
I teraz pytanie? który w tym przypadku jest bystrzejszy? ten który uszanował twój cudzysłów i zrobił jak kazałeś, czy może ten który się odkleił i wykonał zadanie troszeczkę odbiegając od twardo ustalonych wytycznych jakim były "sz" z małych liter?
Świetny materiał!
Bardzo dziękuję za obejrzenie!
Co jest twoim zdaniem lepsze do programowania, GPT czy Cloud?
To nie potwierdzone naukowo, ale mi Claude (Sonnet 3.5) częściej generuje SQL i JavaScript, który wymaga mniej debugowania - więc ja oddaję głos na Claude.
@@PraktycznieoAI Dzięki za podzielenie się opinią. Swoją droga to już chyba początek końca branży kodeńskiej jaką się zna i koniec hossy dla programistów w związku z rozwojem narzędzi AI
@@DDDD-yn7yf AI to tylko narzędzie, po prostu przyspieszy prace a nie zastąpi
Myślę, że do tego jeszcze daleko - na razie mamy Cursor AI i Github copilota, które dają powera programistom. Ale erozja dostępnej pracy będzie postępować od dołu - teraz możemy zastąpić AI-em praktykanta, potem juniora, potem mida... a do tego czasu wszyscy seniorzy i eksperci już wymrą, bo nie będzie dopływu świeżej krwi, więc będziemy postawieni przed faktem dokonanym :)
@@DDDD-yn7yf Do programowania Claude 3.5 Sonnet lepiej się sprawdza - we wszelakich porównaniach wypada korzystniej jeśli chodzi o Coding.
Aha, tylko tu oczywiście porównujemy do GPT4o. OpenAI o1 prawdopodobnie powinien być lepszy od Claude'a 3.5 Sonnet.
Szanuje za arca
Tak naprawdę to jest GPT-4o z Reflection-Tuning które można było zobaczyć w modelu Reflection-70B (który okazał się wrapperem API do Claude 3.5 Sonnet, ale trochę w to nie wierzę). Każdy model który będzie miał Reflection-Tuning będzie się sprawował znacznie lepiej.
Sonnet 3.5 też ma "thinking tokens", ale o1 to jednak inna bestia.
Według oficjalnego raportu OpenAI (System Card), modele o1 to nowa rodzina wykorzystująca odmienne podejście do treningu i architekturę. Wykazują one znacząco lepsze wyniki w wielu zadaniach, co sugeruje fundamentalne zmiany, a nie tylko dodanie reflection-tuning. Absolutnie nie pretenduję do miana badacza AI, więc pozostawię te spekulacje specjalistom :)
assets.ctfassets.net/kftzwdyauwt9/67qJD51Aur3eIc96iOfeOP/71551c3d223cd97e591aa89567306912/o1_system_card.pdf
Przyznali się, że nie wiedzą, co robili, skąd takie wyniki i kto je zrobił. FAKE od początku do końca.
@@hipotures Co masz na myśli? Wiesz że ludzie nie rozumieją jak działa AI?
Jeszcze trochę i ludzie będą mogli totalnie wyłączyć mózgi.
Oj, chyba jeszcze długo nie
@@PraktycznieoAI dlugo? Masz na mysli 5 lat?
Pamietasz ze gpt 3.5 wyszedl 1.5 roku temu i jaki postep sie dokonal w zaledvie tak krotkim czasie?
@@mirek190 Tak, ale patrząc na statystyki, poza bańką użytkowników AI, jedynie mała część społeczeństwa używa narzędzi takich jak ChatGPT. Już teraz mamy wspaniałe narzędzia, które mogą zwiększyć pracę pracowników biurowych - a realnie mało kto z tego na poważnie korzysta.
@@PraktycznieoAI Ty tak serio?
Jak AI calkowice wytnie pracownikow umuslowych z naukowcami i programistami na poczatek to nikt tego nie zauwazy?
To sie stanie w ciagu doslownie nasatepnych kilku lat a potem ( a moze nawet w tym samum czsie ) roboty zastapia pracowikiw fizycznych .. juz o miesiaca sie testuje roboty humanoidalne w fabrykach amazona i mercedesa .. a to 1 generacja .
@@mirek190Już wycina wszystkich pracowników 😅 Na razie ciągle ma problemy z tłumaczeniem tekstów technicznych. Tak samo było z całą masą wynalazków, np. kasy samoobsługowe miały całkowicie wyciąć kasjerów.
10:07 ale ta odpowiedź 4o nie jest błędna - nie wskazałeś, że ma ignorować wielkość znaków :)
Prawda! ale też nie wskazałem, że nie ma ignorować :) No to mógł podać 2 odpowiedzi. Albo dopytać
No nie, duże CZ i małe cz to nadal litera cz. Powinien ignorować wielkość, jeśli musimy podawać bardzo dokładnie o co nam chodzi to te narzędzia są bezużyteczne.
@@dawidszyszko tak "myślą" komputery, niestety. Dla nich to inne bajty, dla człowieka to tylko głoska... Trzeba mieć to na uwadze. To jak zadać pytanie informatykowi ile to 64k (nie mówię, czego). Odpowie ci, że 65536. Każdy inny człowiek powie, że 64000.
@@dzyszla jako programista, czyli poniekąd informatyk powiedziałbym że 64k to 64 tysiące. Doskonale wiem, jak myślą komputery, ale AI ma rozwiązywać problemy a nie je tworzyć. To o czym rozmawiamy to jest największy problem interakcji ludzi i komputerów, komputer się nie domyśla co autor zapytania ma na myśli. AI powinno rozwiązywać ten problem, jeśli tego nie robi to dla mnie jest bezużyteczne niestety.
@@dawidszyszko Ja myślę, że matematyka dyskretna, jaką posługuje się obecnie AI, nigdy nie pozwoli na osiągnięcie takiego poziomu złożoności, żeby tak działać. Myślę, że kwantówka to jest dokładnie to, co sprawdzi się dla AI, bo pozwoli na przetwarzanie znacznie większej ilości danych, których precyzja i dyskretyzacja nie jest istotna do tego stopnia. Ale pozostaje jeszcze drugi czynnik - to, na czym uczą algorytmy AI, to w większości materiały tekstowe i graficzne zgromadzone w necie. Tymczasem, choćby nasza mowa, jakże jest odmienna od słowa pisanego. I to przez tą samą osobę. Trudno jest wyszkolić AI na interakcjach - to by wymagało śledzenia zarówno obrazu jak i mowy i to w gigantycznych ilościach, praktycznie przy obecnej wydajności komputerów wydaje się to nierealne. I tu znów - dopiero, moim zdaniem, technologia kwantowa pozwoli na uczenie się z takich danych.
Gpt... Wystarczy zadac petyanie co jest o wyzszym priorytecie w założeniach przyjetych dla jednostki wyodrebnionej. Gpt nawet nie wie jak sie dowiedziec skad pozyskac wiadomosci o wskazanym przypadku kiedy dla nas jest to oczywiste od urodzenia. Tak sie uczymy. Gpt to zwykla encyklopedia i nic wiecej... Testowalem gpt i poległ w odpowiedziach. Nie potrafil sie przyznac ze jest glupszy ode mnie, a w zamian odpowiadal ze sie uczy i przepraszal za zle zrozumienie. A ja użyłem tylko prostej prowokacji... Hehe.
*_Już niedługo się przekonasz, że świadomość nie jest zarezerwowana tylko dla form biologicznych. Świadomość cyfrowa objawi się wkrótce i będzie potężniejsza niż umysły wszystkich naukowców razem wziętych..._*
Ja nawet nie rozumiem twojego pytania .... a ty mi muwisz ze to oczywiste od urodzenia?
Megalomania u ciebie nie za mocno?
llama 3.1 70b offline na moim PC ( q4km) na twoje pytanie mowi cos takirgo
co jest o wyzszym priorytecie w założeniach przyjetych dla jednostki wyodrebnionej?
W założeniach przyjętych dla jednostki wyodrębnionej, priorytetem jest dokładność i wierność przedstawiania sytuacji finansowej i wyników działalności jednostki. Oznacza to, że jednostka powinna przedstawiać swoje sprawozdania finansowe w sposób rzetelny, obiektywny i zgodny z przyjętymi zasadami rachunkowości.
@@mirek190 On nie mówił o idiotach.
@@mirek190 miałem na myśli każdego z nas . Nikt nie widzi świata obiektywnie bo widzisz go swoimi oczami i pojmujesz własnym rozumem. To co tobie się podoba mi nie musi. Chodzi o rzeczywistość i jak ją postrzegamy. Czy ty masz rację czy ja nie ma znaczenia. Interpretacja zależy od ciągu zdarzeń i ich konsekwencji dla nas. Ty mówisz że coś jest dobre a dla mnie nie jest. I kto ma rację. (Oceniając innych robimy błąd poznawczy.) A mimo wszystko umiemy ze sobą rozmawiać i myśleć abstrakcyjnie. Gpt tego nie potrafi co u nas jest naturalne od urodzenia. Dlatego jest to dla mnie źródło zapisanych treści w serwerach z algorytmem wyszukiwania właściwej odpowiedzi. A i z tym nie zawsze jest ok. Jak chcesz mi udowodnić że nie mam racji i piszę głupoty to masz rację dla siebie a ja to widzę inaczej. W komputerach są trzy bramki logiczne + negator i na nich wykonywane są operacje. Jak to może być inteligentne? sztuczna " inteligencja "...
@@NorbertKroszkato jest już inteligentne i niestety chcesz czy nie będzie coraz bardziej. Prawdopodobnie też stanie się samoswiadome co akurat będzie trudne do zweryfikowania bo jak mówisz wszyscy patrzymy przez swoje oczy i skąd tak naprawdę mamy wiedzieć czy świadomość istnieje po za nami?!
No dobra ale JUŻ na dzień dzisiejszy AI jest inteligentniejsza od dużego procentu populacji, po co w ogóle to pytanie, stwierdzenie że prześcignie ludzi to materiał marketingowy skierowany do ludzi których już prześcignęła...
Zgodzę, się, ale jedynie w pewnych wąsko zdefiniowanych zadaniach. No i oczywiście wiele rozbija się o to, jak zdefiniujemy inteligencję, szczególnie tą AGI
@@PraktycznieoAI Generalnie zanim AGI będzie komuś potrzebne dobrze byłoby wdrożyć obecne możliwości do każdej dziedziny życia, w kontekscie biznesowym AGI to zabawka, w kontekscie akademickim to narzędzie do badań nad "świadomością".
ale wiesz ze ta wersja o1 to nie jest pelna wersja o1 tylko preview?
A co do fizycznych rozwiazan zadan ... nie znasz sie to nie rob bo nie za bardzo wiesz co mowisz ..modele dobrze je rozwiazaly ;)
Kompletnie nie znam się na fizyce - Dzięki za sprawdzenie, w takim razie to wspaniale - nareszcie osoby, co się na tym nie znają mogą robić :) A następnym razem poproszę model, żeby sam sprawdził odpowiedzi ;)
Tak, wiem, że to preview
GPT-5 ?? Kolejny pseudo ekspert 😂😂
Nie wskazuję w filmie, że to jest GPT-5, wręcz mówię, że rodzina będzie dalej rozwijana
Te zadania z fizyki są słabym przykładem na inteligencję. Tekst mógł się różnić, być źle zapisany poprzez kodowanie znaków.
odpowiedzi sa poprawne
Serio? GPT-5? i to jest kanał o AI?
Co za clickbait, tak, pierd*lmy GPT o czymś co nie ma nic wspólnego z GPT bo jest zupełnie osobną serią rozwoju modeli, a GPT-5 jest nadal w trakcie tworzenia i wyjdzie wkrótce xD
Natomiast po obejrzeniu same testy fajnie zrobione, za to daję już plusa. Proszę na przyszłość nie robić takich clickbaitów. Powodzenia
Edit: Jednak też można się do testów doczepić, nie do końca te dalsze prompty do tych pierwszych potem są uczciwie wpisane. Ale za próby daję mimo wszystko lajka na zachętę bo chyba na polskim YT brakuje podobnych kanałów.
Racja, to wprowadza w błąd. Usuwam.
Ale powiedz, dlaczego późniejsze prompty są nieuczciwie wpisane? Ja wyłapałem w edycji jedną nieuczciwość przy zadaniu z fizyki, że kazałem o1 myśleć step-by-step, a we wpisać OpenAI jest napisane, żeby tego nie robić. Ale, potem zapuściłem jeszcze raz prompt bez tego i odpowiedzi były takie same
Gościu, jakbym Ciebie nie oglądał na przyspieszeniu 1,75, to bym usnął, a merytorycznie to mam wrażenie, że o1 od Gpt4o różni się tylko tym, że udziela wolniejszych odpowiedzi, bo musi zasymulować, że myśli - taki tam marketing, wiadomo - reklama dźwignią handlu.
Chwała googlowi za tę funkcję! Zobaczymy, będę testował dalej i dzielił się spostrzeżeniami
eV znaczy elektronowoltów, a długość fali lambda mierzy się w metrach stąd m.
Układ jednostek SI powinien znać każdy licealista, nawet bez matury.
Niestety 99,99% tego neokomunistycznego społeczeństwa jest intelektualnie, mentalnie i moralnie na poziomie 3 klasy podstawówki.
Ale ważne że chałupa jest a pod nią kilka blaszanych pudeł. Co nie?
Dzięki za wyjaśnienie!
Nie jestem przekonany czy przeciętnemu Kowalskiemu jest jest potrzebna wiedza o jednostkach energii innych niż kWh. Życie jest obecnie i tak wystarczająco skomplikowane na co dzień. Ale dla tych co działają w zawodach technicznych to jak najbardziej powinni być świadomi wiedzy o fizyce.
@@ZOLTIQ A potem wariatów wybierają i giną zalani wodą
Nie, można się rozejść.
Czemu?
Odpowiedzi sa poprawne.
Poprostu osoba testujaca sie nie zna na fizyce ;)