Dzięki za ten materiał. Przyznam, że o wiele lepiej rozumiem to o czym mówisz, po tym jak próbowałem na własną rękę zaprząc ML, DL i LLM do rozwiązania moich problemów, które w dużej mierze sprowadzały się do automatyzacji.
Dzięki :) No tak, to działa. Jak już człowiek spróbuje, to szybciej "łapie" kontekst. Jeszcze lepiej, jak sam popełni błąd, który go zaboli, i usłyszy, jakie są rozwiązania. Wtedy dopiero docenia to na maksa. Takie życie :)
Bardzo dziękuję za miłe słowa! To prawdziwy miód na moje serce i motywacja, by działać i dzielić się jeszcze więcej - nawet jeśli robię to w wolnym czasie, na przykład w weekendy. Dziękuję, że o tym piszesz!
Jednym z podstawowych problemów z tabelka liczb wrzucona na wejście LLM jest tokenizer. Wszystkie złe encodują długie sekwencje cyfr a zwłaszcza te z przecinkiem. Konieczne jest zmiana na poziomie tokenizera i fine tuning by to rozwiązać.
Początek - super! Natomiast dalszy wniosek brzmi jak ciekawa przygoda aby spróbować, w szczególności jako fine-tuning, ale nie oczekiwałbym, że to pomoże :).
Właśnie ostatnio próbowałem rozwiązania gdzie wyniki z anomaly detection wprowadzałem na LLM. Celem było znalezienie interpretacji dla anomalii a także zaklasyfikowanie lub nie danych bieżących do typu anomalii - no i jak to się mawia at the end of the day chyba lepiej byłoby użyć dla interpretacji klasyfikatora na sieci neuronowej. Nie mniej jednak niektóre interpretacje LLMa były bardzo ciekawe. Zaczynająć od tego, że sam tworzył dodatkowe klasy anomalii ;) Tak że zgadzam się LLM nie wyprze klasyka.
Michał, dziękuję za podzielenie się historią. Bardzo dobry wniosek na koniec - w 100% się zgadzam, na teraz i przynajmniej w najbliższym czasie będzie to aktualne.
Drobna uwaga językowa: bardzo często używasz słowa "utylizować". Podejrzewam, że stosujesz kalkę z angielskiego "utilize". Niestety, w języku polskim "utylizować" oznacza przetwarzanie odpadów na surowce wtórne, a nie używać czy wykorzystywać. Przepraszam, że się czepiam, ale jeśli często używasz tego słowa, to może warto zwrócić na to uwagę.
Bardzo Ci dziękuję za uwagę! Super, że piszesz i to jeszcze w tak delikatny sposób :) Najśmieszniejsze w tej historii jest to, że przy współpracy w jednej z firm "nauczyli mnie tak mówić". Masz rację, trzeba to poprawić. Będę uważał na to słowa, jak usłyszysz, że mówię "wykorzystać", to oznacza, że dzięki temu komentarzu :). Dzięki za to!
Dzięki za ten materiał. Przyznam, że o wiele lepiej rozumiem to o czym mówisz, po tym jak próbowałem na własną rękę zaprząc ML, DL i LLM do rozwiązania moich problemów, które w dużej mierze sprowadzały się do automatyzacji.
Dzięki :) No tak, to działa. Jak już człowiek spróbuje, to szybciej "łapie" kontekst. Jeszcze lepiej, jak sam popełni błąd, który go zaboli, i usłyszy, jakie są rozwiązania. Wtedy dopiero docenia to na maksa. Takie życie :)
Super odcinek , fajnie wytłumaczyłeś różnice między LLM i ML , i ogólnie odc jest bogaty w konkretna wiedze. Pozdrawiam.
Bardzo dziękuję za miłe słowa! To prawdziwy miód na moje serce i motywacja, by działać i dzielić się jeszcze więcej - nawet jeśli robię to w wolnym czasie, na przykład w weekendy. Dziękuję, że o tym piszesz!
@@DataWorkshop "Cieszę się i czekam na kolejne odcinki. Tymczasem nadrabiam oglądanie Twoich poprzednich materiałów."
Jednym z podstawowych problemów z tabelka liczb wrzucona na wejście LLM jest tokenizer. Wszystkie złe encodują długie sekwencje cyfr a zwłaszcza te z przecinkiem. Konieczne jest zmiana na poziomie tokenizera i fine tuning by to rozwiązać.
Początek - super! Natomiast dalszy wniosek brzmi jak ciekawa przygoda aby spróbować, w szczególności jako fine-tuning, ale nie oczekiwałbym, że to pomoże :).
Właśnie ostatnio próbowałem rozwiązania gdzie wyniki z anomaly detection wprowadzałem na LLM.
Celem było znalezienie interpretacji dla anomalii a także zaklasyfikowanie lub nie danych bieżących
do typu anomalii - no i jak to się mawia at the end of the day chyba lepiej byłoby użyć dla interpretacji
klasyfikatora na sieci neuronowej. Nie mniej jednak niektóre interpretacje LLMa były bardzo ciekawe.
Zaczynająć od tego, że sam tworzył dodatkowe klasy anomalii ;) Tak że zgadzam się LLM nie wyprze klasyka.
Michał, dziękuję za podzielenie się historią.
Bardzo dobry wniosek na koniec - w 100% się zgadzam, na teraz i przynajmniej w najbliższym czasie będzie to aktualne.
Drobna uwaga językowa: bardzo często używasz słowa "utylizować". Podejrzewam, że stosujesz kalkę z angielskiego "utilize". Niestety, w języku polskim "utylizować" oznacza przetwarzanie odpadów na surowce wtórne, a nie używać czy wykorzystywać. Przepraszam, że się czepiam, ale jeśli często używasz tego słowa, to może warto zwrócić na to uwagę.
Bardzo Ci dziękuję za uwagę! Super, że piszesz i to jeszcze w tak delikatny sposób :)
Najśmieszniejsze w tej historii jest to, że przy współpracy w jednej z firm "nauczyli mnie tak mówić".
Masz rację, trzeba to poprawić. Będę uważał na to słowa, jak usłyszysz, że mówię "wykorzystać", to oznacza, że dzięki temu komentarzu :). Dzięki za to!
Ja chyba też za długo w IT, siedzę, bo to utylizować mi jak 'apply' weszło, tak, że nawet nie zwróciłem uwagi. Dzięki