Tylko wiesz, jest jeden problem. Nie ma czegoś takiego jak "najwydajniej". Ciągle się uczymy tego narzędzia. I nikt tak naprawdę jeszcze tego nie wie. PRacujemy tutaj mocno po omacku :) Pamiętaj, że nawet twórcy tego LLMa, nie do końca rozumieją jak (i dlaczego!!!), on działa :)
@@FromZeroToJunior jasne, ja to rozumiem, ale i tak chciałbym zobaczyć jak ktoś z dużo większym doświadczeniem promptuje ten model, aby wypluwał najsensowniejsze wiadomości. Przy projektach w Za rączkę też dużo pracuję z Chatem, ale denerwuje mnie to, że mimo, że proszę go o nie pokazywanie kodu i nie pisanie rozwiązań to on i tak momentami bardzo mocno mi podpowiada. Za mocno. Ale ten film wyżej dużo mi pokazał, zaraz sam się biorę za konfigurację swojego indywidualnego mentora i mam nadzieję, że uda się go tak ogarnąć, aby działał w taki sposób na jakim mi najbardziej zależy.
Przyznam, że po tym co się wydarzyło w 18 minucie jak chat pomylił konteksty wywołania ,mam poważne wątpliwości, czy odznaczanie tego checkboxa (dotyczącego nieużywania danych z utworzonej instancji chata do nauki globalnego modelu) wywołuje jakikolwiek efekt ;)
Ha ha, to byłby dopiero model, uczący się w takim tempie :)))) Nie, to na pewno był błąd UI. Który nie przełączył się na główny model. To wszystko to jest Alpha :)
@@coder_one A to faktycznie ciekawe. Może warto napisać do supportu. A opublikowałeś GPTsa? Czy masz go ciągle jako szkic? Bo mi pojawia się za każdym razem dopiero po publikacji. Nigdy wcześniej.
@@FromZeroToJunior opublikowałem, korzystam z niego na co dzień ;) Dziś spróbuję utworzyć jego klona jak ten drugi nie dostanie tego checkboxa to faktycznie do nich napiszę.
Ja bym z chęcią obejrzał odcinek o promptowaniu Chata i jak z tego najwydajniej korzystać.
Tylko wiesz, jest jeden problem. Nie ma czegoś takiego jak "najwydajniej". Ciągle się uczymy tego narzędzia. I nikt tak naprawdę jeszcze tego nie wie. PRacujemy tutaj mocno po omacku :) Pamiętaj, że nawet twórcy tego LLMa, nie do końca rozumieją jak (i dlaczego!!!), on działa :)
@@FromZeroToJunior jasne, ja to rozumiem, ale i tak chciałbym zobaczyć jak ktoś z dużo większym doświadczeniem promptuje ten model, aby wypluwał najsensowniejsze wiadomości. Przy projektach w Za rączkę też dużo pracuję z Chatem, ale denerwuje mnie to, że mimo, że proszę go o nie pokazywanie kodu i nie pisanie rozwiązań to on i tak momentami bardzo mocno mi podpowiada. Za mocno. Ale ten film wyżej dużo mi pokazał, zaraz sam się biorę za konfigurację swojego indywidualnego mentora i mam nadzieję, że uda się go tak ogarnąć, aby działał w taki sposób na jakim mi najbardziej zależy.
@@szymonmisztal6017 Taka była idea tego filmu. Pokazać jakie to proste. Bo, reszta to już tylko kwestia wyobraźni.
Super!
Cieszę, że się podobało
Troszkę w minucie 19 coś ewidentnie nie pyklo 😅
Bo to wszystko to jedna wielka Alpha :))
Przyznam, że po tym co się wydarzyło w 18 minucie jak chat pomylił konteksty wywołania ,mam poważne wątpliwości, czy odznaczanie tego checkboxa (dotyczącego nieużywania danych z utworzonej instancji chata do nauki globalnego modelu) wywołuje jakikolwiek efekt ;)
Ha ha, to byłby dopiero model, uczący się w takim tempie :)))) Nie, to na pewno był błąd UI. Który nie przełączył się na główny model. To wszystko to jest Alpha :)
@@FromZeroToJuniortaka ciekawostka - od tygodnia zaglądam do ustawień asystenta gpt którego utworzyłem, a tego checkboxa ani widu ani słychu…
@@coder_one A to faktycznie ciekawe. Może warto napisać do supportu. A opublikowałeś GPTsa? Czy masz go ciągle jako szkic? Bo mi pojawia się za każdym razem dopiero po publikacji. Nigdy wcześniej.
@@FromZeroToJunior opublikowałem, korzystam z niego na co dzień ;)
Dziś spróbuję utworzyć jego klona jak ten drugi nie dostanie tego checkboxa to faktycznie do nich napiszę.
@@coder_one Tak jak mówiłem. To nawet nie beta, to ciągle Alpha. Ja i tak jestem w szoku, że przy tak OGROMNEJ skali tak dobrze to wszystko działa.
Do czego te gigantyczne napisy z tym pointerem? Juniorzy nie umieją czytać czy co?
W kolejnych filmach już ich nie ma. Nie ma się co gorączkować ;)