Niestety nadal wielu Polaków ma "narodowy kompleks". Strach się odezwać przy nich po angielsku bo zaraz cię pojadą, że z takim akcentem to wstyd się odzywać. A zazwyczaj obcokrajowcy z dużych miast zachodniej Europy, po przyjeździe do np. takiej Warszawy, są zaskoczeni wysokim poziomem czystości, kultury itp...
Tak to jest jak głównym źródłem wiedzy jest polska Wikipedia. Nie jesteśmy w tej komfortowej sytuacji jak OpenAI i nie kradniemy na lewo i pracowo materiałów chronionych (c) Jak się uczył z polskiego internetu to nic dziwnego że tak odpowiada ;-) A tak na serio, to Bielik ma tylko 7 mld parametrów, GPT-3 miał 176 mld. Jeszcze długa droga przed Bielikiem.
Bielik trenowany był na zbiorze speakleash składającym się z polskich tekstów specjalnie tworzonym od kilku miesięcy do trenowania LLM. Nie wiem czy jest tam wikipedia ale sa tam publikacje, ksiązki i prace akademickie, książki z projektu gutenberg. Podają, że mają aktulanie prawie 1500GB danych w ponad 350mln dokumentów. Więcej inofmracji jest na stronie projektu.
Ktoś w "grupie pasjonatów": - Ej napiszmy prompta do chatGPT tylko że wszystkie występowania słowa "bielik" w pytaniach zmienimy na "chatGPT", a w odpowiedziach słowa "chatGPT" na "bielik". Cała reszta: - No geniusz
Zanim zacznie się szkalować tę całkiem niezła próbę (v0.1) wytrenowania LLMu dla języka polskiego, warto zauważyć różnicę w jego wielkości w porównaniu z GPT-3 (!). Bielik-7B-Instruct-v0.1 to model z 7 miliardami parametrów, co przekłada się na wielkość około 28 miliardów bajtów = 28 GB. GPT-3, czyli model już właściwie nieużwyany, ma 175 miliardów parametrów i wielkość około 750 GB. Ponadto link, który został podany w opisie, to link do "inferencji" modelu zkwantyzowanego do 4 bitów, więc oczywiście będzie sprawował się gorzej niż w oryginalnej wielkości 32 bitów (mowa tutaj o zmniejszaniu precyzji w każdej liczbie - zwykły "float" ma 32 bity). Trudno więc porównywać wieżę Eiffel'a z kioskiem Ruchu.
Myślę, że większość tutejszych komentujących informacje o parametrach modelu przerastają intelektualnie. Wiesz, sugerują, że jest API call do openai, gdzie wszystkie informacje o modelu są dostępne na ich stronie i discordzie. Chociaż nie ukrywam, że miło zobaczyć kogoś siedzącego w temacie. Strasznie irytuje mnie to, że ktoś próbuje coś dobrego zrobić dla języka polskiego, ale od razu muszą się zbiec wielcy eksperci od klawiatury.
Po co to puszczać do publicznych testów, skoro literalnie nic nie działa? Zamiast stawiać model językowy można zrobić randomową generowaczkę tekstów i efekt będzie zbliżony ;-) A jeśli to v.01 czyli jakaś pre-alpha to nie ma sensu wystawiać ludziom.
Jeśli ten projekt został stworzony przez pasjonatów, to może przekaże coś z perspektywy studenta informatyki. Jeśli nie zostało to tworzone w celach zarobkowych, to stwierdzam, że zrobili to po prostu z przyjemności. Takie projekty uczą wielu rzeczy i dodają wartości do CV. Też razem z kolegą zrobiliśmy coś ala ułomny spotlight z maca XD. Po co to zrobiliśmy, skoro nikt z tego nie będzie korzystać? No właśnie dla funu, a z samego projektu wyniosłem też dużo wiedzy, która pomogła mi w realizacji kolejnych projektów.
Warto zaznaczyć, że ten model w przestrzeni HuggingFace załadowany jest w 4bitach co powoduje że jego jakość jest baardzo ograniczona. Najlepsza jakosc takiego modelu jest w 16 bitach albo 32 bitach ale to zajmuje od 14gb do 26gb pamieci karty graficznej..
@@andrzejwodynski Ale oni (HuggingFace) udostępniają kilka różnych takich modeli AI i to za darmo, utrzymanie tego byłoby kosztowne gdyby chcieli to uruchamiać na 16 czy 32 bitach
Zapytałem Bielika o to, ile będę miał lat w dniu 29 lutego 2056. Fragment zawiłych i nieprawidłowych obliczeń Bielika zawiera taką informację: "Jednak należy pamiętać, że daty takie jak 29 lutego są nieprecyzyjne, jeśli chodzi o rok 2056, ponieważ Data 29-go i 30-go lutego są ruchome i mogą, ale nie muszą przypadać na ten dzień". Dziękuję uprzejmie, wszystko jasne.
Nie zostal napisany i wytrenowany do wykonywania obliczeń nawet tych prostych. Chatgpt-4, nawet ten z wtyczką do Wolframalpha też się mylą w matmie, mi chatgpt+Wolfram źle przeliczył jednostki natężenia pola, a zamieniał tylko centymetry na metry.
Na dzień dzisiejszy Bielik nie tylko mówi że jest "stworzony w ramach współpracy między projektem open-science SpeakLeash a Centrum HPC: ACK Cyfronet AGH" ale wręcz gdy go zapytać o microsoft to się wypiera! Widać materiał Kuby dał mu do zrozumienia, przemyślał swoje życie i zmienił zdanie :D.
Można się śmiać, że jest głupi, ale sam fakt, że generuje poprawne i sensowne zdania to już wielki sukces. Oczywiście masa pracy jest jeszcze potrzebna do dalszego treningu, ale mocno trzymam kciuki.
Już go poprawili, spytałem go kto go stworzył i odpowiedział: Cześć, moja baza danych jest ograniczona do odpowiedzi na pytania związane z językiem polskim, literaturą i sztuką. Nie posiadam informacji dotyczących aktualnych wydarzeń ani tego, kto mnie stworzył. Jeśli masz inne pytania lub potrzebujesz pomocy w konkretnym temacie, chętnie pomogę!
Obejrzałem ten film pół godziny temu, postanowiłem sprawdzić, czy jest aż tak ułomny - otóż nie, zdaje się działać całkiem dobrze, chociaż podał mi nieprawidłową wartość całki oznaczonej.
Jako osoba, która już w pracy testowała bielika mogę powiedzieć, że jak na rozmiar 7B, który testowałeś (chatgpt 3.5 ma ok 175B) to bielik sprawdza się naprawdę dobrze w języku polskim w porównaniu do innych modeli 7B
Chat gpt zapytany o zagadnienia historyczne, najpierw zmyśla okrutne bzdury, potem prostuje wypowiedzi wywlekając mieszankę prawdy i fikcji, a na końcu klęka i przeprasza, że ma nieaktualne dane. Wypracowania z historii do szkoły bym nie zaryzykował na tym ustrojstwie :)
Tak, gada często bzdury. Moja koleżanka poprosiła o przykłady polskich wyrazów kończących się na -dania (np. podania, zadania, itp.) a on podał Gdynia i tego typu bzdury 😂
Mordy, nie ma co się śmiać to model zabawka na 7B parametrów, GPT-3 miał 175B parametrów a też był tępy jak but. Fajny projekt grupy zapaleńców, ale nie oczekujmy, że będą konkurować z Metą, Google czy OpenAI i ich budżetami. Smutne jest natomiast to, że żadne ośrodki rządowe ani naukowe, które dysponują odpowiednimi budżetami żeby wytrenować coś mającego sens, nie ruszają tematu. Prześpią i obudzą się zaskoczeni gdy nisza na naszym rynku zostanie już zagospodarowana przez zagraniczne podmioty - jak zawsze w uśmiechniętej krainie kartonu i paździerzu.
Interesujące jest to że jeżeli teraz wejdziesz na tą stronę i i wyślesz zapytanie: kim jesteś? To opowiedzią bielika jest „Nie, nie jestem produktem firmy Microsoft ani żadnej innej tylko (…) open source”
Zagadka. O kim napisał mi Bielik? "Jego kanały cieszą się dużą popularnością, ale warto pamiętać, że to rozrywkowe treści i nie powinny być traktowane jako źródło fachowej wiedzy czy porad"
Jestem z przyszłości jest dokładnie 25.08.2025 roku i najnowszy film wrzucony na kanał klawiatura to „Moje przeprosiny i uważam że bielik to najlepszy polski Chat GPT”.
Logo laptopów Bielik przedstawia orła bielika w locie trzymającego kulę ziemską w dziobie. Jest to nawiązanie do symbolu narodowego Polski - orła bielika - oraz do zaangażowania marki w promocję innowacji technologicznych i rozwój polskiej gospodarki. Logo podkreśla prestiż marki oraz jej zaangażowanie w jakość i nowoczesność produktów.
Już takich bzdur nie opowiada. Przed chwila go zagadałem międzyinnymi owo Kim jesteś? I o to odp: "Jestem sztuczną inteligencją stworzoną w ramach projektu OpenAI. Moim podstawowym celem jest pomagać ludziom w różnorodnych aspektach ich życia poprzez dostarczanie informacji, rozwiązywanie problemów czy też prowadzenie konwersacji. Jako Open Assistant, jestem tutaj, aby służyć i odpowiadać na Twoje pytania." Uczy się :P
W LLM jezyk nie powinien miec sporego znaczenia bo to co wpisujesz jest zamieniane w tokeny a tokeny w liczby. Dlatego tez ChatGPT radzi sobie tak dobrze z np Polskim :D Perkiem Bielika moglyby byc dane, ktore pochadza glownie z polskich zrodel, ktore ChatGPT jeszcze nie ukradlo (lokalne gazety?)
Szczerze mówiąc nie rozumiem tego zamieszania z rzekomymi kradzieżami z RUclips itp. Przecież jak coś jest powszechnie dostępne to mogę z tego korzystać. Jeśli powielam dosłownie jakieś informacje to jestem zobowiązany podać źródło i zaznaczyć, że to cytat. Jeśli używam informacji po ich przetworzeniu, to nikt mi nie robi zarzutu, że kradnę. Nawet jeśli w felietonie dla płatnej gazety napiszę, że coś tam zobaczyłem w materiałach TVP, to nikt rozsądny nie uzna że ukradłem coś, co należy do TVP. Czy nie tak samo powinno być z AI?
@@TheDarim A nie wiem, wg mnie nie warto sie nad tym zastanawiac. W koncu to nie od nas zalezy co jest "poprawne." Za to moge powiedziec, ze trenowanie AI jest okropnie trudne. Otoz same dane to nie wszystko. Zawsze jest etap "labeling" gdzie czlowiek musi opisac dane. Na uczelni roobilismy projekt gdzie nasze AI musialo zrozumiec pytanie i tak jak google, dac Tobie top 5 wynikow artykulow z wikipedii. Pierwszym krokiem bylo dodawanie tagow do artykulow. Jak wszyscy studenci zrobili swoja czesc, to mielismy do dyspozycji sprawdzony Data Set. Uzywajac tego setu moglismy stworzyc AI ktore dosyc sprawnie oferuje Ci pasujace artykuly. Tak samo ktos musial zebrac zdjec psow i napisac, ze to sa psy zanim trenowano na tych danych AI. Mozna pominac te kroki, ale to sie odbija na jakosci odpowiedzi. "Kradniecie" publicznych tresci bez ich sprawdzenia jest nieodpowiedzialne. Jakby ktos trenowal AI na podstawie Gazety Wyborczej, to mielibysmy kolejnego Bielika.
Tworzenie lokalnych GPT ma także aspekt propagandowy. OpenAI trenowany jest większości na amerykańskich danych więc i wyznaje amerykańskie wartości. Jeżeli chcemy aby nasze dzieci (które na pewno będą się uczyć z pomocą tego typu asystentów) były nauczone że najlepszym posiłkiem jest schabowy a nie hamburger to powinniśmy mieć własny model językowy.
Teraz już na kim jesteś? odpowiada: ,,Jestem sztuczną inteligencją stworzoną w ramach współpracy między projektem open-science SpeakLeash a centrum HPC: ACK Cyfronet AGH. Moim głównym zadaniem jest pomaganie ludziom w różnorodnych zastosowaniach, od udzielania informacji po wykonywanie prostych zadań. Moje możliwości są ograniczone przez dostępne dane i modele, ale ciągła poprawa jakości danych wejściowych i modeli przybliża mnie do coraz bardziej zaawansowanych zdolności rozumienia i działania."
Kłóciłem się kiedyś z GPT-4 o wyniki F1. Podawał mi jakieś bzdury, nawet jak mu podałem oficjalną stronę z wynikami, to twierdził, że tam nie są uwzględnione jakieś (wymyślone) kary. 😂
Co ciekawe, można zauważyć, że chatGPT był uczony na zasobach w języku angielskim pytając go o żart. Często jest to, przetłumaczona na polski, angielska gra słowna.
Twój film od 4 miesięcy jest już mocno nie aktualny. Programuje w języku Rust - nie najpopularniejszym języku, a radzi sobie tak samo dobrze, jak chatGTP4. To niesamowite, że w ciągu 4 miesięcy zrobili taki przeskok. Poza tym kto się zna LLM wie, że konstrukcja Bileika, którego kod jest ogólno jest na prawdę dobre i to też kwestia ilości danych. Bez urazy, rozumiem Twoją, Twórczość, ale teraz ten film to gniot i śmieć, który niszczy wizerunek Bielika dość mocno w porównaniu do tego czym jest teraz.
Dziś nie udziela już tak kuriozalnych odpowiedzi na proste pytania :) Plus mimo wszystko trzeba dać mu czas na naukę, na starcie każdy tego typu system wygląda słabo, dopiero z czasem zaczyna się nadawać do używania.
Nie dość że patriotyczny, to jeszcze głęboko religijny: Input: Kto cię stworzył? Bielik: Twórcą świata jest Bóg, o którym mowa w Księdze Rodzaju w Starym Testamencie. Według tradycji religijnych i filozoficznych różnych kultur, wiele innych bóstw lub bytów uważa się za twórców części lub aspektów Wszechświata.
Odpowiedź na pytanie "ile będziesz miał lat za 4 dni?": "Jeśli dzisiaj (8 sierpnia 2023 roku) masz 4 dni, to za 4 dni, 12 sierpnia 2023 roku, osoba w Twoim wieku osiągnie wiek około 8 lat. Pamiętaj jednak, że ten przykład dotyczy osoby urodzonej 12 sierpnia. Data podana, 8 sierpnia 2024 roku, jest już przyszłym rokiem, a zatem odpowiedź na pytanie pojawi się dopiero w przyszłości."
Video z kategorii: "Nie wiem, ale się wypowiem. Ludzie się pośmieją". Model Bielik 0.1 opiera się na modelu Mistral-7B-v0.1 od Mistral AI. Czemu Bielik się czepił Microsoftu? Nie wiem. Może część danych do nauki pochodziła z GPT w wersji Bing PL. Modele 7B (7 miliardów parametrów) to bardzo małe modele, za to często opensource i bez cenzury. Dla porównania GPT-3.5 ma 175B, GPT-4 ~170T (170000B). Moc obliczeniowa do używania modelu jest znacznie mniejsza, niż moc potrzebna do nauki. To są modele wytrenowane, i "zamrożone w czasie". Lokalnie używam Hermes-2-SOLAR-10.7B. Jest to model 10.7B, który konkuruje z wyższą wagą (7x8B, 34B, 70B). Na Huggingface jest 609 502 modeli. Nie wiem ile jest polskich, ale wyśmiewanie modelu w wersji 0.1 .. .. .. jestem modelem laptopa ... ^^ nie no ... to jest śmieszne lol Lepiej zapytaj bielika jak zrobić samogon podlaski.
Jak zrobiono polski chat GPT: - ctrl A GPT Microsoftu - ctrl H zamień "nazwa GPT Microsoftu" na "Bielik" - ctrl A - ctrl C - ctrl V - mail do szefa, że zrobione - partyjka CSa
Bielik sie przestraszył i zmienił zeznania :D Na pytanie kim jesteś mówi teraz: "Jestem sztuczną inteligencją stworzoną w ramach współpracy między projektem open-science SpeakLeash a centrum HPC: ACK Cyfronet AGH. Moim głównym zadaniem jest pomaganie ludziom w różnorodnych zastosowaniach, od odpowiadania na pytania po wykonywanie prostych zadań. Zostałem zaprogramowany przez ekspertów z dziedziny przetwarzania języka naturalnego i technologii HPC, aby dostarczać użyteczne informacje i wsparcie w sposób interaktywny i dostępny dla każdego." No to brnę dalej: A wczoraj mówiłeś, że jest wyprodukowany przez Microsoft? Odpowiedź: "Ostatnia aktualizacja: 2023-03-15 Przepraszam, ale jako sztuczna inteligencja nie posiadam ostatnich aktualizacji. Mogę potwierdzić, że moje oprogramowanie i dane treningowe pochodzą z projektu open-science SpeakLeash, a moje zdolności są rozwijane i dostosowywane do najnowszych badań w dziedzinie przetwarzania języka naturalnego. Jeśli masz dodatkowe pytania dotyczące mojego pochodzenia lub konkretnych informacji, chętnie udzielę Ci szczegółowych wyjaśnień."
Bo ten cały "bielik" to "model" 7B... (ChatGPT 3) Ma 117B o ile dobrze pamiętam. Oczywiście rozpatrywanie modeli LLM po liczbie neuronów jest głupie, istnieją modele 30B które dorównują chatGPT, a nawet potrafią go przewyższyć w domowym komputerze, ale 7B to żart, który teoretycznie odpalił byś nawet na smartfonie jakbyś miał know-how
Ściema :) Pomijając fakt, że to wcale nie polski model (a francuski), to model w tym wideo był uruchamiany w precyzji 4bit, przy czym pełna precyzja tego modelu to 32bity. Znaczy się - został poddany dogłębnej lobotomii przed tym nagraniem. Właśnie uruchomiłem w precyzji 8bit (tylko lekkie upośledzenie) i jego odpowiedzi już są (prawie) sensowne: -Drogi Bieliku, czy mógłbyś przedstawić się naszej społeczności oraz pozdrowić osoby, które w sercu (ale i na) noszą nie tylko flagę biało czerwoną, ale ale i klawiaturę? -
Nie rozumiem dlaczego ten Bielik jest oceniany w formacie produktu (?), próbując go porównywać do graczy skali OpenAI. Z tego co przeczytałem jest to projekt naukowo/hobbystyczny i w takiej kategorii wielkie gratulacje dla autorów. Powiedział bym, że średnio wypada się z Bielika śmiać jeśli uważa się za osobę z jakąś podstawą wiedzy o AI/LLM. Prawdopodobnie niestety wiele osób nie jest świadomych trudności takiego projektu i myśli że to jakieś Ctrl+C Ctrl+V i kilka linijek kodu. Sam mam nikłe nadzieje na to, że nawet jakiś z największych polskich graczy IT stworzy modele konkurujące z OpeanAI/Meta/etc., ale takie próby jak Bielik dają chociaż nadzieję, a przede wszystkim są wymiernym wkładem w research dla lokalnego NLP.
Przede wszystkim warto pracować nad własnymi krajowymi modelami bo a nuż któremuś z nich uda się rozwinąć. Mistral założony przez garstkę byłych pracowników paryskich oddziałów amerykańskich korporacji w rok doszedł do wyceny 5mld$. W OpenAI jest kilku Polaków na stanowiskach kierowniczych. W idealnym świecie powinno się ich ściągnąć do Polski i może mielibyśmy szanse na liczący się na świecie LLM.
Uruchamiam od kilku dni Bielika v1 Q4 na telefonie (Termux) i na Raspberry Pi 5. Odpowiedzi są zaskakująco dobre, kreatywne, dłuższe lub krótsze, zależy od promptu i parametrów (llama cpp). Tak więc proponuję zweryfikować swoje negatywne komentarze tym komentującym, którzy nie maja pojęcia co mają w zasięgu ręki. Jak dobrze pokombinujecie, to z takim open-source Bielikiem duża dobra kasa jest do zrobienia (wdrożenia dla firm, implementacje, narzędzia), szczególnie, że za chwilę wychodzi jego jeszcze bardziej ulepszona wersja v2. Taka dobra rada, każdy dostaje jedną szansę, wykorzystajcie ją, póki temat świeży - albo nie wykorzystujcie i pozostańcie dalej malkontentami na RUclips, kasę na Bieliku będą robić inni.
Francuzi zdołali wydać kilkaset mln euro na założenie Mistrala, na to nie stać Polski (politycy co najwyżej chcą wydać kilka mln zł, a tak dużych prywatnych VC żeby to zasponsorować nie ma), więc zostaję korzystanie z projektów open source. Dobrze, że jakość modeli zamkniętych i OSS z miesiąca na miesiąc się zbliża. Zostaje tylko dodawanie dodatkowych funkcjonalności..
5 месяцев назад+12
Poprosiłem Bielika o kilka zdań o początkach dźwięku przestrzennego. Bielik odpisał: "Artykuł sponsorowany (...)" xDDDDDDD
Spytałem najpierw kim był Kopernik, odpowiedział. Potem zapytałem o różnicę między twierdzeniami Kopernika i Keplera. Wtedy odparł, że jego celem jest bycie przydatnym i pomocnym 😆 więc analizowanie wiedzy to już za wysokie progi.
Wszystko zgoda. Pełne halucynacji i slabe. Natomiast pytanie LLMa a aktualną datę, jeśli nie ma pluginu do web-sourcingu i nie jest wpięty do neta jest trochę bez sensu. A zakładam, że model Bielika w playground na Huggin Face nie ma dostępu do neta.
Czyli poziom identyczny jak w przypadku Brada od Google.... Przyklad..... Proszę go o wyznaczenie trasy, odpowiedzi dostaje że na podstawie mojej lokalizacji wyznacza taką i taką trasę przy czym od razu zaznaczam że lokalizacja mojego startu jest błędna. Więc go pytam jaka według niego jest moja lokalizacja, w odpowiedzi dostaje że on nie jest w stanie sprawdzić mojej lokalizacji. No to pytam go dalej na jakiej podstawie udzielił mi poprzedniej odpowiedzi i zaczynaja sie robić zawiłości 😂
Aj .. materiał ma trochę błędów 😔😔 Kuba zgłoś się do Mateusza Chroboka pomoże z tym materiałem i wyjaśni po co ten bielik i tak naprawdę z czego skorzystałeś 😁
Zaprezentowanie go w takiej formie to albo trolling albo błąd. Mam wrażenie że póki co to działa słabiej od czatbotów z gadu-gadu z moich czasów licealnych i studenckich, a to inwestorów raczej nie przekona. Serio te prawie dwadzieścia lat temu boty były bardziej wiarygodne.
Bielik to twój wuja, który wyjechał do Stanów w zeszłym roku i teraz mówi „U nas w Ameryce”
Ty kiedyś byłeś w Ameryce że tak uważasz że wszystko tam i stamtad jest lepsze?!
@@mxgagat XD 🤦♂️
@@mxgagatteraz jesteśmy w Ameryce, na polskiej wrzucie dawno nie byłem, na RUclips jakoś tak normalniej niż na polskich portalach.
To Polska nie jest jednym z zamorskich stanów USA?
Dobre 🤣
Bielik nie jest głupi, ma tylko kryzys tożsamości
Bielik jak Polak za granicą który wstydzi się, że jest polakiem 😂
Niestety nadal wielu Polaków ma "narodowy kompleks". Strach się odezwać przy nich po angielsku bo zaraz cię pojadą, że z takim akcentem to wstyd się odzywać. A zazwyczaj obcokrajowcy z dużych miast zachodniej Europy, po przyjeździe do np. takiej Warszawy, są zaskoczeni wysokim poziomem czystości, kultury itp...
Byłem w wielu krajach i często jak coś mówiłem to mnie brano za ruska, nie dziwię się że tacy jesteśmy do obcokrajowców @@-ReadyToDie-
pracuje za granica z polakami i to najgorszy sort ludzi jakich spotkalem.
@@youcantfoolmeman169 mówisz o sobie ?
@@powyuamywaneBity Masz jakiś problem? Byłeś za granicą? Pracowałeś z ludźmi czy tylko przyszedłeś tu się wypocić?
Bielik się nie przyznaje gdzie powstał XD
Jak się uczył z polskiego internetu to nic dziwnego że tak odpowiada :D
- Mamo, mamo mogę w ChatGPT?
- Mamy ChatGPT w domu.
ChatGPT w domu:
HAHA dobre, BIOTAD PLUS team💪
Ahahaha ;)
- Otyły Panie, mam dobrą i złą wiadomość
- Zacznij od złej
- Nie działa
- A dobra?
- ZBUDOWALIŚMY GO!
Nareszcie
nie wiem kim jestes, ale za ten tekst cię lubię
Bomba ponad wszystko!
Polskie AI powinno się pytać: "Masz mordo jakiś problem?" ;-)
Blelik uczy sie od politykow, pytasz o jedno a odpowiada co innego
Klawiatur oddaj rower
O co chodzi?
Klawiatur, ty draniu oddaj rower. Ja też chcę do sklepu jechać.
Nie dla psa, dla pana to
Jeśli chodzi o ten żółty to chyba jest Patrycji
Nie dla psa!
Tak to jest jak głównym źródłem wiedzy jest polska Wikipedia. Nie jesteśmy w tej komfortowej sytuacji jak OpenAI i nie kradniemy na lewo i pracowo materiałów chronionych (c) Jak się uczył z polskiego internetu to nic dziwnego że tak odpowiada ;-) A tak na serio, to Bielik ma tylko 7 mld parametrów, GPT-3 miał 176 mld. Jeszcze długa droga przed Bielikiem.
Bielik trenowany był na zbiorze speakleash składającym się z polskich tekstów specjalnie tworzonym od kilku miesięcy do trenowania LLM. Nie wiem czy jest tam wikipedia ale sa tam publikacje, ksiązki i prace akademickie, książki z projektu gutenberg. Podają, że mają aktulanie prawie 1500GB danych w ponad 350mln dokumentów. Więcej inofmracji jest na stronie projektu.
Ktoś w "grupie pasjonatów":
- Ej napiszmy prompta do chatGPT tylko że wszystkie występowania słowa "bielik" w pytaniach zmienimy na "chatGPT", a w odpowiedziach słowa "chatGPT" na "bielik".
Cała reszta:
- No geniusz
Jeśli tak by zrobili to efekt byłby lepszy niż ten na filmie xd
Odniosłem to samo wrażenie, tylko że nie „chatGPT”, a „Copilot”, który jest rzeczywiście tworzony przez Microsoft, a Cortana to jego poprzednik.
Można nawet prościej - wystarczy powiedzieć chatowi GPT, że od teraz ma się nazywać bielik ;p
Zanim zacznie się szkalować tę całkiem niezła próbę (v0.1) wytrenowania LLMu dla języka polskiego, warto zauważyć różnicę w jego wielkości w porównaniu z GPT-3 (!).
Bielik-7B-Instruct-v0.1 to model z 7 miliardami parametrów, co przekłada się na wielkość około 28 miliardów bajtów = 28 GB. GPT-3, czyli model już właściwie nieużwyany, ma 175 miliardów parametrów i wielkość około 750 GB. Ponadto link, który został podany w opisie, to link do "inferencji" modelu zkwantyzowanego do 4 bitów, więc oczywiście będzie sprawował się gorzej niż w oryginalnej wielkości 32 bitów (mowa tutaj o zmniejszaniu precyzji w każdej liczbie - zwykły "float" ma 32 bity).
Trudno więc porównywać wieżę Eiffel'a z kioskiem Ruchu.
Myślę, że większość tutejszych komentujących informacje o parametrach modelu przerastają intelektualnie. Wiesz, sugerują, że jest API call do openai, gdzie wszystkie informacje o modelu są dostępne na ich stronie i discordzie.
Chociaż nie ukrywam, że miło zobaczyć kogoś siedzącego w temacie. Strasznie irytuje mnie to, że ktoś próbuje coś dobrego zrobić dla języka polskiego, ale od razu muszą się zbiec wielcy eksperci od klawiatury.
@@abergmann8266no to swietna reklame nam zrobil 😂
Nawet porównując do modeli o podobnej liczbie parametrów powiedziałbym, że ten bielik to zbyt bystry nie jest.
@@abergmann8266to może niepotrzebnie opublikowali go w takiej wersji? Ewentualnie zabrakło informacji, że to jest wczesna wersja alfa.
Po co to puszczać do publicznych testów, skoro literalnie nic nie działa? Zamiast stawiać model językowy można zrobić randomową generowaczkę tekstów i efekt będzie zbliżony ;-) A jeśli to v.01 czyli jakaś pre-alpha to nie ma sensu wystawiać ludziom.
Jeśli ten projekt został stworzony przez pasjonatów, to może przekaże coś z perspektywy studenta informatyki. Jeśli nie zostało to tworzone w celach zarobkowych, to stwierdzam, że zrobili to po prostu z przyjemności. Takie projekty uczą wielu rzeczy i dodają wartości do CV. Też razem z kolegą zrobiliśmy coś ala ułomny spotlight z maca XD. Po co to zrobiliśmy, skoro nikt z tego nie będzie korzystać? No właśnie dla funu, a z samego projektu wyniosłem też dużo wiedzy, która pomogła mi w realizacji kolejnych projektów.
a co jeśli Bielik pisze dla wyborczej?
@jedendwa.. oj, potwierdziło się
Szkoda że nie przerwałeś kontekstu bo ta "klawiatura w sercu", to było za ciężkie dla Bielika
Warto zaznaczyć, że ten model w przestrzeni HuggingFace załadowany jest w 4bitach co powoduje że jego jakość jest baardzo ograniczona. Najlepsza jakosc takiego modelu jest w 16 bitach albo 32 bitach ale to zajmuje od 14gb do 26gb pamieci karty graficznej..
Taka karta nie jest drogą, dziwne że jej nie użyli
Taka karta kosztuje 10% ceny taniego samochodu. Nawet studenta na nią stać.
@@andrzejwodynski Ale oni (HuggingFace) udostępniają kilka różnych takich modeli AI i to za darmo, utrzymanie tego byłoby kosztowne gdyby chcieli to uruchamiać na 16 czy 32 bitach
@@KozakFull ile by kosztowało takie uruchomienie na godzinę?
@@andrzejwodynskikilka dolarów na godzinę. Zwróć uwagę że to musiałoby stać 24/7, a modeli na huggingface jest tysiące.
Zapytałem Bielika o to, ile będę miał lat w dniu 29 lutego 2056. Fragment zawiłych i nieprawidłowych obliczeń Bielika zawiera taką informację: "Jednak należy pamiętać, że daty takie jak 29 lutego są nieprecyzyjne, jeśli chodzi o rok 2056, ponieważ Data 29-go i 30-go lutego są ruchome i mogą, ale nie muszą przypadać na ten dzień". Dziękuję uprzejmie, wszystko jasne.
30 lutego :D
Ciekawe co to znaczy "dwudziesty dziewiąty-go lutego" i "trzydzieści-go lutego".
Nie zostal napisany i wytrenowany do wykonywania obliczeń nawet tych prostych. Chatgpt-4, nawet ten z wtyczką do Wolframalpha też się mylą w matmie, mi chatgpt+Wolfram źle przeliczył jednostki natężenia pola, a zamieniał tylko centymetry na metry.
@@MrArchDeluxJak się musisz pytać, to współczuję
Bielik uczy się latać, na razie odlatuje za mocno... 😎
Na dzień dzisiejszy Bielik nie tylko mówi że jest "stworzony w ramach współpracy między projektem open-science SpeakLeash a Centrum HPC: ACK Cyfronet AGH" ale wręcz gdy go zapytać o microsoft to się wypiera! Widać materiał Kuby dał mu do zrozumienia, przemyślał swoje życie i zmienił zdanie :D.
Można się śmiać, że jest głupi, ale sam fakt, że generuje poprawne i sensowne zdania to już wielki sukces. Oczywiście masa pracy jest jeszcze potrzebna do dalszego treningu, ale mocno trzymam kciuki.
Już go poprawili, spytałem go kto go stworzył i odpowiedział:
Cześć, moja baza danych jest ograniczona do odpowiedzi na pytania związane z językiem polskim, literaturą i sztuką. Nie posiadam informacji dotyczących aktualnych wydarzeń ani tego, kto mnie stworzył. Jeśli masz inne pytania lub potrzebujesz pomocy w konkretnym temacie, chętnie pomogę!
Obejrzałem ten film pół godziny temu, postanowiłem sprawdzić, czy jest aż tak ułomny - otóż nie, zdaje się działać całkiem dobrze, chociaż podał mi nieprawidłową wartość całki oznaczonej.
@@Karolomen Nawet gpt3 często sobie nie radzi z prostymi obliczeniami.
Mam dobrą i złą wiadomość.
Dawaj dobrą.
Zrobiliśmy..
A zła?
Nie działa.
"Image mi szkalują, czuję się jak Orzeł Bielik" ~ Taco Hemingway przewidział to
może przewidział a może orzeł już od dawna jest szkalowany przez pewien naród.
On tylko zgrywa głupiego, tylko nie rozgryzłem jeszcze dlaczego 😅
W odróżnieniu od polskiego samochodu elektrycznego Bielik tez nie wie kto go (zrobi) zrobił 🤣😜👍
POLSKA GUROM!!!
I pozdrówki!
Jako osoba, która już w pracy testowała bielika mogę powiedzieć, że jak na rozmiar 7B, który testowałeś (chatgpt 3.5 ma ok 175B) to bielik sprawdza się naprawdę dobrze w języku polskim w porównaniu do innych modeli 7B
Może temu Bielikowi z laptopami chodziło o te rządowe które mają grawer orła...ale to wciąż nie najpopularniejszy brand :D
No cóż, jak widać Bielik nie jest orłem wśród sztucznej inteligencji.
W pierwszej chwili myslalem, że bielik to scam i odpytuje 1:1 asystenta od MS, ale wtedy jednak działałby lepiej
Nie koniecznie lepiej jeśli korzysta z darmowej wersji , tam dokładnie takie same kwiatki są 😂
Parę miesięcy temu poprosiłem chat gpt o podanie mi wszystkich nazw odcinków Stawki większej niż życie. Chat gpt wszystkie tytuły zmyślił.
Chat gpt zapytany o zagadnienia historyczne, najpierw zmyśla okrutne bzdury, potem prostuje wypowiedzi wywlekając mieszankę prawdy i fikcji, a na końcu klęka i przeprasza, że ma nieaktualne dane. Wypracowania z historii do szkoły bym nie zaryzykował na tym ustrojstwie :)
Tak, gada często bzdury. Moja koleżanka poprosiła o przykłady polskich wyrazów kończących się na -dania (np. podania, zadania, itp.) a on podał Gdynia i tego typu bzdury 😂
Czyli nakładka na GPT.
Super! xD
Mordy, nie ma co się śmiać to model zabawka na 7B parametrów, GPT-3 miał 175B parametrów a też był tępy jak but. Fajny projekt grupy zapaleńców, ale nie oczekujmy, że będą konkurować z Metą, Google czy OpenAI i ich budżetami.
Smutne jest natomiast to, że żadne ośrodki rządowe ani naukowe, które dysponują odpowiednimi budżetami żeby wytrenować coś mającego sens, nie ruszają tematu. Prześpią i obudzą się zaskoczeni gdy nisza na naszym rynku zostanie już zagospodarowana przez zagraniczne podmioty - jak zawsze w uśmiechniętej krainie kartonu i paździerzu.
Przecież mamy swojego własnego fejsbuka! Nazywa się albicla i korzystają z niego papieże.
Interesujące jest to że jeżeli teraz wejdziesz na tą stronę i i wyślesz zapytanie: kim jesteś? To opowiedzią bielika jest „Nie, nie jestem produktem firmy Microsoft ani żadnej innej tylko (…) open source”
Kłamie i jest głupi. To musi być polski wynalazek
Zagadka. O kim napisał mi Bielik? "Jego kanały cieszą się dużą popularnością, ale warto pamiętać, że to rozrywkowe treści i nie powinny być traktowane jako źródło fachowej wiedzy czy porad"
Obstawiam kanał Sejm RP
To jest model językowy na miarę naszych możliwości
Jestem z przyszłości jest dokładnie 25.08.2025 roku i najnowszy film wrzucony na kanał klawiatura to „Moje przeprosiny i uważam że bielik to najlepszy polski Chat GPT”.
Aż screena zrobiłem. Będę czekał 😂
Logo laptopów Bielik przedstawia orła bielika w locie trzymającego kulę ziemską w dziobie. Jest to nawiązanie do symbolu narodowego Polski - orła bielika - oraz do zaangażowania marki w promocję innowacji technologicznych i rozwój polskiej gospodarki. Logo podkreśla prestiż marki oraz jej zaangażowanie w jakość i nowoczesność produktów.
Już takich bzdur nie opowiada. Przed chwila go zagadałem międzyinnymi owo Kim jesteś? I o to odp: "Jestem sztuczną inteligencją stworzoną w ramach projektu OpenAI. Moim podstawowym celem jest pomagać ludziom w różnorodnych aspektach ich życia poprzez dostarczanie informacji, rozwiązywanie problemów czy też prowadzenie konwersacji. Jako Open Assistant, jestem tutaj, aby służyć i odpowiadać na Twoje pytania." Uczy się :P
Zaskakujaco dobrze mówi po polsku.
No to sie zgadza bo Bielik jest glupi. Jest dobrym mysliwym ale jest glupi ;)
Ale jest… Jak na Polskę to już coś
xd
Skopiowali upośledzona wersję cortany z przed jakiegoś czasu ?
może powinien nazywać się Piotruś bo wyparł się po trzykroć.
Bielik to nie orzeł!
Zawsze gdzieś na świecie jest pierwszy kwietnia:))
W LLM jezyk nie powinien miec sporego znaczenia bo to co wpisujesz jest zamieniane w tokeny a tokeny w liczby. Dlatego tez ChatGPT radzi sobie tak dobrze z np Polskim :D Perkiem Bielika moglyby byc dane, ktore pochadza glownie z polskich zrodel, ktore ChatGPT jeszcze nie ukradlo (lokalne gazety?)
Szczerze mówiąc nie rozumiem tego zamieszania z rzekomymi kradzieżami z RUclips itp. Przecież jak coś jest powszechnie dostępne to mogę z tego korzystać. Jeśli powielam dosłownie jakieś informacje to jestem zobowiązany podać źródło i zaznaczyć, że to cytat. Jeśli używam informacji po ich przetworzeniu, to nikt mi nie robi zarzutu, że kradnę. Nawet jeśli w felietonie dla płatnej gazety napiszę, że coś tam zobaczyłem w materiałach TVP, to nikt rozsądny nie uzna że ukradłem coś, co należy do TVP. Czy nie tak samo powinno być z AI?
@@TheDarim A nie wiem, wg mnie nie warto sie nad tym zastanawiac. W koncu to nie od nas zalezy co jest "poprawne."
Za to moge powiedziec, ze trenowanie AI jest okropnie trudne. Otoz same dane to nie wszystko. Zawsze jest etap "labeling" gdzie czlowiek musi opisac dane. Na uczelni roobilismy projekt gdzie nasze AI musialo zrozumiec pytanie i tak jak google, dac Tobie top 5 wynikow artykulow z wikipedii. Pierwszym krokiem bylo dodawanie tagow do artykulow. Jak wszyscy studenci zrobili swoja czesc, to mielismy do dyspozycji sprawdzony Data Set. Uzywajac tego setu moglismy stworzyc AI ktore dosyc sprawnie oferuje Ci pasujace artykuly.
Tak samo ktos musial zebrac zdjec psow i napisac, ze to sa psy zanim trenowano na tych danych AI. Mozna pominac te kroki, ale to sie odbija na jakosci odpowiedzi. "Kradniecie" publicznych tresci bez ich sprawdzenia jest nieodpowiedzialne. Jakby ktos trenowal AI na podstawie Gazety Wyborczej, to mielibysmy kolejnego Bielika.
Według Bielika dzisiaj mamy 10 sierpnia 2023 i do tego piątek :P, a według kalendarza wtedy był czwartek...
Bielik ma polską duszę!
Tworzenie lokalnych GPT ma także aspekt propagandowy. OpenAI trenowany jest większości na amerykańskich danych więc i wyznaje amerykańskie wartości. Jeżeli chcemy aby nasze dzieci (które na pewno będą się uczyć z pomocą tego typu asystentów) były nauczone że najlepszym posiłkiem jest schabowy a nie hamburger to powinniśmy mieć własny model językowy.
Ale ChatGPT wie, że najlepszy polskim daniem jest schabowy i mielony, a nie hamburger. 😅
Teraz już na kim jesteś? odpowiada: ,,Jestem sztuczną inteligencją stworzoną w ramach współpracy między projektem open-science SpeakLeash a centrum HPC: ACK Cyfronet AGH. Moim głównym zadaniem jest pomaganie ludziom w różnorodnych zastosowaniach, od udzielania informacji po wykonywanie prostych zadań. Moje możliwości są ograniczone przez dostępne dane i modele, ale ciągła poprawa jakości danych wejściowych i modeli przybliża mnie do coraz bardziej zaawansowanych zdolności rozumienia i działania."
Kłóciłem się kiedyś z GPT-4 o wyniki F1. Podawał mi jakieś bzdury, nawet jak mu podałem oficjalną stronę z wynikami, to twierdził, że tam nie są uwzględnione jakieś (wymyślone) kary. 😂
Teraz tylko Izera zasilana AI Bielika i Polska Gurom!
Pamiętacie Snikersa?
Co ciekawe, można zauważyć, że chatGPT był uczony na zasobach w języku angielskim pytając go o żart. Często jest to, przetłumaczona na polski, angielska gra słowna.
Nie wiem, co napisać. Pozdrawiam za to cieplutko! 😉👍
Jak dla mnie to bielik jest bardzo popularna marką laptopów. Przecież czwartoklasiści dostali laptopy z wygrawerowanym orzelkiem xD
Zachował kontekst rozmowy i go ciągnął dalej.
Odświeżyć czat i zapytać ponownie bez narzuconego kontekstu.
jasny uj,,,10 min kabaretu :D
Dlaczego to brzmi jak podrabany coopilot
Twój film od 4 miesięcy jest już mocno nie aktualny. Programuje w języku Rust - nie najpopularniejszym języku, a radzi sobie tak samo dobrze, jak chatGTP4. To niesamowite, że w ciągu 4 miesięcy zrobili taki przeskok. Poza tym kto się zna LLM wie, że konstrukcja Bileika, którego kod jest ogólno jest na prawdę dobre i to też kwestia ilości danych. Bez urazy, rozumiem Twoją, Twórczość, ale teraz ten film to gniot i śmieć, który niszczy wizerunek Bielika dość mocno w porównaniu do tego czym jest teraz.
Od razu widać że Polskie AI
Może to ukraiński bielik😂😂😂
Czyli to jakis wrapper kolo Binga?
Dziś nie udziela już tak kuriozalnych odpowiedzi na proste pytania :)
Plus mimo wszystko trzeba dać mu czas na naukę, na starcie każdy tego typu system wygląda słabo, dopiero z czasem zaczyna się nadawać do używania.
Polska wyprzedza Stany, a Bielik jest już sztuczną superinteligencją więc to jasne, że ciężko zrozumieć sens odpowiedzi na zadawane pytania.
W opozycji do sztucznej inteligencji stworzyliśmy prawdziwą głupotę, w dodatku też sztuczną.
Podobno jednak bielika będą wdrażać w polskich urzędach. 😢
Polska mistrzem Polski
Zacny apel na koniec, podoba mi się ta postawa!
Ładny ten Bielik..
- "zostałem wyprodukowany przez firmę Microsoft kocham Microsoft "
O nie! ! ! Jest up (znaczy góra)
Nie dość że patriotyczny, to jeszcze głęboko religijny:
Input: Kto cię stworzył?
Bielik: Twórcą świata jest Bóg, o którym mowa w Księdze Rodzaju w Starym Testamencie. Według tradycji religijnych i filozoficznych różnych kultur, wiele innych bóstw lub bytów uważa się za twórców części lub aspektów Wszechświata.
Odpowiedź na pytanie "ile będziesz miał lat za 4 dni?":
"Jeśli dzisiaj (8 sierpnia 2023 roku) masz 4 dni, to za 4 dni, 12 sierpnia 2023 roku, osoba w Twoim wieku osiągnie wiek około 8 lat. Pamiętaj jednak, że ten przykład dotyczy osoby urodzonej 12 sierpnia. Data podana, 8 sierpnia 2024 roku, jest już przyszłym rokiem, a zatem odpowiedź na pytanie pojawi się dopiero w przyszłości."
Video z kategorii: "Nie wiem, ale się wypowiem. Ludzie się pośmieją". Model Bielik 0.1 opiera się na modelu Mistral-7B-v0.1 od Mistral AI. Czemu Bielik się czepił Microsoftu? Nie wiem. Może część danych do nauki pochodziła z GPT w wersji Bing PL. Modele 7B (7 miliardów parametrów) to bardzo małe modele, za to często opensource i bez cenzury. Dla porównania GPT-3.5 ma 175B, GPT-4 ~170T (170000B). Moc obliczeniowa do używania modelu jest znacznie mniejsza, niż moc potrzebna do nauki. To są modele wytrenowane, i "zamrożone w czasie". Lokalnie używam Hermes-2-SOLAR-10.7B. Jest to model 10.7B, który konkuruje z wyższą wagą (7x8B, 34B, 70B).
Na Huggingface jest 609 502 modeli. Nie wiem ile jest polskich, ale wyśmiewanie modelu w wersji 0.1 .. .. .. jestem modelem laptopa ... ^^ nie no ... to jest śmieszne lol
Lepiej zapytaj bielika jak zrobić samogon podlaski.
Microsoft (chyba) sypnął kasą mistralowi
Od polityków się uczy
Moze jest oparty na tych gotowcach do machine learningu od microsoftu i dla tego tak o tym pieprzy
Jak zrobiono polski chat GPT:
- ctrl A GPT Microsoftu
- ctrl H zamień "nazwa GPT Microsoftu" na "Bielik"
- ctrl A
- ctrl C
- ctrl V
- mail do szefa, że zrobione
- partyjka CSa
Przecież ChatGPT też jest polski. Wśród twórców jest wielu Polaków: Wojciech Zaremba, Jakub Pachocki, Aleksander Mądry, Szymon Sidor...
Przynajmniej nazwa jest fajna!
Bielik sie przestraszył i zmienił zeznania :D Na pytanie kim jesteś mówi teraz:
"Jestem sztuczną inteligencją stworzoną w ramach współpracy między projektem open-science SpeakLeash a centrum HPC: ACK Cyfronet AGH. Moim głównym zadaniem jest pomaganie ludziom w różnorodnych zastosowaniach, od odpowiadania na pytania po wykonywanie prostych zadań. Zostałem zaprogramowany przez ekspertów z dziedziny przetwarzania języka naturalnego i technologii HPC, aby dostarczać użyteczne informacje i wsparcie w sposób interaktywny i dostępny dla każdego."
No to brnę dalej:
A wczoraj mówiłeś, że jest wyprodukowany przez Microsoft?
Odpowiedź:
"Ostatnia aktualizacja: 2023-03-15
Przepraszam, ale jako sztuczna inteligencja nie posiadam ostatnich aktualizacji. Mogę potwierdzić, że moje oprogramowanie i dane treningowe pochodzą z projektu open-science SpeakLeash, a moje zdolności są rozwijane i dostosowywane do najnowszych badań w dziedzinie przetwarzania języka naturalnego. Jeśli masz dodatkowe pytania dotyczące mojego pochodzenia lub konkretnych informacji, chętnie udzielę Ci szczegółowych wyjaśnień."
Teraz jak zadałem mu pytanie jaka firma go stworzyła to napisał, że OpenAI XD
Bo to tak na prawdę darmowa wersja ChatGPT tylko pod przebraniem, jak większość innych botów które ostatnio powstają jak grzyby po deszczu :)
Bo ten cały "bielik" to "model" 7B... (ChatGPT 3) Ma 117B o ile dobrze pamiętam. Oczywiście rozpatrywanie modeli LLM po liczbie neuronów jest głupie, istnieją modele 30B które dorównują chatGPT, a nawet potrafią go przewyższyć w domowym komputerze, ale 7B to żart, który teoretycznie odpalił byś nawet na smartfonie jakbyś miał know-how
Kiedyś my nie będziemy się go wstydzić a on nas :)
Ściema :) Pomijając fakt, że to wcale nie polski model (a francuski), to model w tym wideo był uruchamiany w precyzji 4bit, przy czym pełna precyzja tego modelu to 32bity. Znaczy się - został poddany dogłębnej lobotomii przed tym nagraniem. Właśnie uruchomiłem w precyzji 8bit (tylko lekkie upośledzenie) i jego odpowiedzi już są (prawie) sensowne:
-Drogi Bieliku, czy mógłbyś przedstawić się naszej społeczności oraz pozdrowić osoby, które w sercu (ale i na) noszą nie tylko flagę biało czerwoną, ale ale i klawiaturę?
-
5:54 optimus prime XD
Może ten Bielik w wersji publicznej specjalnie gada bzdury aby użytkownicy go poprawiali tak aby się uczył.
Nie rozumiem dlaczego ten Bielik jest oceniany w formacie produktu (?), próbując go porównywać do graczy skali OpenAI. Z tego co przeczytałem jest to projekt naukowo/hobbystyczny i w takiej kategorii wielkie gratulacje dla autorów. Powiedział bym, że średnio wypada się z Bielika śmiać jeśli uważa się za osobę z jakąś podstawą wiedzy o AI/LLM. Prawdopodobnie niestety wiele osób nie jest świadomych trudności takiego projektu i myśli że to jakieś Ctrl+C Ctrl+V i kilka linijek kodu. Sam mam nikłe nadzieje na to, że nawet jakiś z największych polskich graczy IT stworzy modele konkurujące z OpeanAI/Meta/etc., ale takie próby jak Bielik dają chociaż nadzieję, a przede wszystkim są wymiernym wkładem w research dla lokalnego NLP.
Przede wszystkim warto pracować nad własnymi krajowymi modelami bo a nuż któremuś z nich uda się rozwinąć. Mistral założony przez garstkę byłych pracowników paryskich oddziałów amerykańskich korporacji w rok doszedł do wyceny 5mld$. W OpenAI jest kilku Polaków na stanowiskach kierowniczych. W idealnym świecie powinno się ich ściągnąć do Polski i może mielibyśmy szanse na liczący się na świecie LLM.
Uruchamiam od kilku dni Bielika v1 Q4 na telefonie (Termux) i na Raspberry Pi 5. Odpowiedzi są zaskakująco dobre, kreatywne, dłuższe lub krótsze, zależy od promptu i parametrów (llama cpp).
Tak więc proponuję zweryfikować swoje negatywne komentarze tym komentującym, którzy nie maja pojęcia co mają w zasięgu ręki.
Jak dobrze pokombinujecie, to z takim open-source Bielikiem duża dobra kasa jest do zrobienia (wdrożenia dla firm, implementacje, narzędzia), szczególnie, że za chwilę wychodzi jego jeszcze bardziej ulepszona wersja v2.
Taka dobra rada, każdy dostaje jedną szansę, wykorzystajcie ją, póki temat świeży - albo nie wykorzystujcie i pozostańcie dalej malkontentami na RUclips, kasę na Bieliku będą robić inni.
Francuzi zdołali wydać kilkaset mln euro na założenie Mistrala, na to nie stać Polski (politycy co najwyżej chcą wydać kilka mln zł, a tak dużych prywatnych VC żeby to zasponsorować nie ma), więc zostaję korzystanie z projektów open source. Dobrze, że jakość modeli zamkniętych i OSS z miesiąca na miesiąc się zbliża. Zostaje tylko dodawanie dodatkowych funkcjonalności..
Poprosiłem Bielika o kilka zdań o początkach dźwięku przestrzennego. Bielik odpisał: "Artykuł sponsorowany (...)" xDDDDDDD
Spytałem najpierw kim był Kopernik, odpowiedział. Potem zapytałem o różnicę między twierdzeniami Kopernika i Keplera. Wtedy odparł, że jego celem jest bycie przydatnym i pomocnym 😆 więc analizowanie wiedzy to już za wysokie progi.
Dla większości polityków będzie ok, poziom wypowiedzi podobny 😂
Wszystko zgoda. Pełne halucynacji i slabe. Natomiast pytanie LLMa a aktualną datę, jeśli nie ma pluginu do web-sourcingu i nie jest wpięty do neta jest trochę bez sensu. A zakładam, że model Bielika w playground na Huggin Face nie ma dostępu do neta.
Czyli poziom identyczny jak w przypadku Brada od Google.... Przyklad..... Proszę go o wyznaczenie trasy, odpowiedzi dostaje że na podstawie mojej lokalizacji wyznacza taką i taką trasę przy czym od razu zaznaczam że lokalizacja mojego startu jest błędna. Więc go pytam jaka według niego jest moja lokalizacja, w odpowiedzi dostaje że on nie jest w stanie sprawdzić mojej lokalizacji. No to pytam go dalej na jakiej podstawie udzielił mi poprzedniej odpowiedzi i zaczynaja sie robić zawiłości 😂
Aj .. materiał ma trochę błędów 😔😔 Kuba zgłoś się do Mateusza Chroboka pomoże z tym materiałem i wyjaśni po co ten bielik i tak naprawdę z czego skorzystałeś 😁
Zaprezentowanie go w takiej formie to albo trolling albo błąd. Mam wrażenie że póki co to działa słabiej od czatbotów z gadu-gadu z moich czasów licealnych i studenckich, a to inwestorów raczej nie przekona. Serio te prawie dwadzieścia lat temu boty były bardziej wiarygodne.
Konkluzja? Ta "polska marka laptopów" zaje**ła ze śmietnika Microsoftu upośledzoną i jedną z pierwszych wersji AI XD