Tak to jest jak głównym źródłem wiedzy jest polska Wikipedia. Nie jesteśmy w tej komfortowej sytuacji jak OpenAI i nie kradniemy na lewo i pracowo materiałów chronionych (c) Jak się uczył z polskiego internetu to nic dziwnego że tak odpowiada ;-) A tak na serio, to Bielik ma tylko 7 mld parametrów, GPT-3 miał 176 mld. Jeszcze długa droga przed Bielikiem.
Bielik trenowany był na zbiorze speakleash składającym się z polskich tekstów specjalnie tworzonym od kilku miesięcy do trenowania LLM. Nie wiem czy jest tam wikipedia ale sa tam publikacje, ksiązki i prace akademickie, książki z projektu gutenberg. Podają, że mają aktulanie prawie 1500GB danych w ponad 350mln dokumentów. Więcej inofmracji jest na stronie projektu.
Niestety nadal wielu Polaków ma "narodowy kompleks". Strach się odezwać przy nich po angielsku bo zaraz cię pojadą, że z takim akcentem to wstyd się odzywać. A zazwyczaj obcokrajowcy z dużych miast zachodniej Europy, po przyjeździe do np. takiej Warszawy, są zaskoczeni wysokim poziomem czystości, kultury itp...
Zanim zacznie się szkalować tę całkiem niezła próbę (v0.1) wytrenowania LLMu dla języka polskiego, warto zauważyć różnicę w jego wielkości w porównaniu z GPT-3 (!). Bielik-7B-Instruct-v0.1 to model z 7 miliardami parametrów, co przekłada się na wielkość około 28 miliardów bajtów = 28 GB. GPT-3, czyli model już właściwie nieużwyany, ma 175 miliardów parametrów i wielkość około 750 GB. Ponadto link, który został podany w opisie, to link do "inferencji" modelu zkwantyzowanego do 4 bitów, więc oczywiście będzie sprawował się gorzej niż w oryginalnej wielkości 32 bitów (mowa tutaj o zmniejszaniu precyzji w każdej liczbie - zwykły "float" ma 32 bity). Trudno więc porównywać wieżę Eiffel'a z kioskiem Ruchu.
Myślę, że większość tutejszych komentujących informacje o parametrach modelu przerastają intelektualnie. Wiesz, sugerują, że jest API call do openai, gdzie wszystkie informacje o modelu są dostępne na ich stronie i discordzie. Chociaż nie ukrywam, że miło zobaczyć kogoś siedzącego w temacie. Strasznie irytuje mnie to, że ktoś próbuje coś dobrego zrobić dla języka polskiego, ale od razu muszą się zbiec wielcy eksperci od klawiatury.
Po co to puszczać do publicznych testów, skoro literalnie nic nie działa? Zamiast stawiać model językowy można zrobić randomową generowaczkę tekstów i efekt będzie zbliżony ;-) A jeśli to v.01 czyli jakaś pre-alpha to nie ma sensu wystawiać ludziom.
Zapytałem Bielika o to, ile będę miał lat w dniu 29 lutego 2056. Fragment zawiłych i nieprawidłowych obliczeń Bielika zawiera taką informację: "Jednak należy pamiętać, że daty takie jak 29 lutego są nieprecyzyjne, jeśli chodzi o rok 2056, ponieważ Data 29-go i 30-go lutego są ruchome i mogą, ale nie muszą przypadać na ten dzień". Dziękuję uprzejmie, wszystko jasne.
Nie zostal napisany i wytrenowany do wykonywania obliczeń nawet tych prostych. Chatgpt-4, nawet ten z wtyczką do Wolframalpha też się mylą w matmie, mi chatgpt+Wolfram źle przeliczył jednostki natężenia pola, a zamieniał tylko centymetry na metry.
Ktoś w "grupie pasjonatów": - Ej napiszmy prompta do chatGPT tylko że wszystkie występowania słowa "bielik" w pytaniach zmienimy na "chatGPT", a w odpowiedziach słowa "chatGPT" na "bielik". Cała reszta: - No geniusz
Jeśli ten projekt został stworzony przez pasjonatów, to może przekaże coś z perspektywy studenta informatyki. Jeśli nie zostało to tworzone w celach zarobkowych, to stwierdzam, że zrobili to po prostu z przyjemności. Takie projekty uczą wielu rzeczy i dodają wartości do CV. Też razem z kolegą zrobiliśmy coś ala ułomny spotlight z maca XD. Po co to zrobiliśmy, skoro nikt z tego nie będzie korzystać? No właśnie dla funu, a z samego projektu wyniosłem też dużo wiedzy, która pomogła mi w realizacji kolejnych projektów.
Warto zaznaczyć, że ten model w przestrzeni HuggingFace załadowany jest w 4bitach co powoduje że jego jakość jest baardzo ograniczona. Najlepsza jakosc takiego modelu jest w 16 bitach albo 32 bitach ale to zajmuje od 14gb do 26gb pamieci karty graficznej..
@@andrzejwodynski Ale oni (HuggingFace) udostępniają kilka różnych takich modeli AI i to za darmo, utrzymanie tego byłoby kosztowne gdyby chcieli to uruchamiać na 16 czy 32 bitach
Można się śmiać, że jest głupi, ale sam fakt, że generuje poprawne i sensowne zdania to już wielki sukces. Oczywiście masa pracy jest jeszcze potrzebna do dalszego treningu, ale mocno trzymam kciuki.
Na dzień dzisiejszy Bielik nie tylko mówi że jest "stworzony w ramach współpracy między projektem open-science SpeakLeash a Centrum HPC: ACK Cyfronet AGH" ale wręcz gdy go zapytać o microsoft to się wypiera! Widać materiał Kuby dał mu do zrozumienia, przemyślał swoje życie i zmienił zdanie :D.
Już go poprawili, spytałem go kto go stworzył i odpowiedział: Cześć, moja baza danych jest ograniczona do odpowiedzi na pytania związane z językiem polskim, literaturą i sztuką. Nie posiadam informacji dotyczących aktualnych wydarzeń ani tego, kto mnie stworzył. Jeśli masz inne pytania lub potrzebujesz pomocy w konkretnym temacie, chętnie pomogę!
Obejrzałem ten film pół godziny temu, postanowiłem sprawdzić, czy jest aż tak ułomny - otóż nie, zdaje się działać całkiem dobrze, chociaż podał mi nieprawidłową wartość całki oznaczonej.
Interesujące jest to że jeżeli teraz wejdziesz na tą stronę i i wyślesz zapytanie: kim jesteś? To opowiedzią bielika jest „Nie, nie jestem produktem firmy Microsoft ani żadnej innej tylko (…) open source”
Logo laptopów Bielik przedstawia orła bielika w locie trzymającego kulę ziemską w dziobie. Jest to nawiązanie do symbolu narodowego Polski - orła bielika - oraz do zaangażowania marki w promocję innowacji technologicznych i rozwój polskiej gospodarki. Logo podkreśla prestiż marki oraz jej zaangażowanie w jakość i nowoczesność produktów.
Jako osoba, która już w pracy testowała bielika mogę powiedzieć, że jak na rozmiar 7B, który testowałeś (chatgpt 3.5 ma ok 175B) to bielik sprawdza się naprawdę dobrze w języku polskim w porównaniu do innych modeli 7B
Zagadka. O kim napisał mi Bielik? "Jego kanały cieszą się dużą popularnością, ale warto pamiętać, że to rozrywkowe treści i nie powinny być traktowane jako źródło fachowej wiedzy czy porad"
Co ciekawe, można zauważyć, że chatGPT był uczony na zasobach w języku angielskim pytając go o żart. Często jest to, przetłumaczona na polski, angielska gra słowna.
Kłóciłem się kiedyś z GPT-4 o wyniki F1. Podawał mi jakieś bzdury, nawet jak mu podałem oficjalną stronę z wynikami, to twierdził, że tam nie są uwzględnione jakieś (wymyślone) kary. 😂
Mordy, nie ma co się śmiać to model zabawka na 7B parametrów, GPT-3 miał 175B parametrów a też był tępy jak but. Fajny projekt grupy zapaleńców, ale nie oczekujmy, że będą konkurować z Metą, Google czy OpenAI i ich budżetami. Smutne jest natomiast to, że żadne ośrodki rządowe ani naukowe, które dysponują odpowiednimi budżetami żeby wytrenować coś mającego sens, nie ruszają tematu. Prześpią i obudzą się zaskoczeni gdy nisza na naszym rynku zostanie już zagospodarowana przez zagraniczne podmioty - jak zawsze w uśmiechniętej krainie kartonu i paździerzu.
Chat gpt zapytany o zagadnienia historyczne, najpierw zmyśla okrutne bzdury, potem prostuje wypowiedzi wywlekając mieszankę prawdy i fikcji, a na końcu klęka i przeprasza, że ma nieaktualne dane. Wypracowania z historii do szkoły bym nie zaryzykował na tym ustrojstwie :)
Tak, gada często bzdury. Moja koleżanka poprosiła o przykłady polskich wyrazów kończących się na -dania (np. podania, zadania, itp.) a on podał Gdynia i tego typu bzdury 😂
Już poprawili: Jestem sztuczną inteligencją stworzoną w ramach współpracy między projektem open-science SpeakLeash a centrum HPC: ACK Cyfronet AGH. Moim głównym zadaniem jest pomaganie ludziom w różnorodnych zadaniach, takich jak odpowiadanie na pytania, generowanie tekstu i wiele innych. Zostałem zaprogramowany, aby wykorzystywać zaawansowane technologie, takie jak uczenie maszynowe i przetwarzanie języka naturalnego, co pozwala mi na efektywne przetwarzanie i analizę informacji. Moim celem jest być przydatnym narzędziem dla każdego, kto potrzebuje wsparcia w różnych obszarach, od edukacyjnych po rozrywkowe.
Jestem z przyszłości jest dokładnie 25.08.2025 roku i najnowszy film wrzucony na kanał klawiatura to „Moje przeprosiny i uważam że bielik to najlepszy polski Chat GPT”.
Tworzenie lokalnych GPT ma także aspekt propagandowy. OpenAI trenowany jest większości na amerykańskich danych więc i wyznaje amerykańskie wartości. Jeżeli chcemy aby nasze dzieci (które na pewno będą się uczyć z pomocą tego typu asystentów) były nauczone że najlepszym posiłkiem jest schabowy a nie hamburger to powinniśmy mieć własny model językowy.
Spytałem najpierw kim był Kopernik, odpowiedział. Potem zapytałem o różnicę między twierdzeniami Kopernika i Keplera. Wtedy odparł, że jego celem jest bycie przydatnym i pomocnym 😆 więc analizowanie wiedzy to już za wysokie progi.
Uruchamiam od kilku dni Bielika v1 Q4 na telefonie (Termux) i na Raspberry Pi 5. Odpowiedzi są zaskakująco dobre, kreatywne, dłuższe lub krótsze, zależy od promptu i parametrów (llama cpp). Tak więc proponuję zweryfikować swoje negatywne komentarze tym komentującym, którzy nie maja pojęcia co mają w zasięgu ręki. Jak dobrze pokombinujecie, to z takim open-source Bielikiem duża dobra kasa jest do zrobienia (wdrożenia dla firm, implementacje, narzędzia), szczególnie, że za chwilę wychodzi jego jeszcze bardziej ulepszona wersja v2. Taka dobra rada, każdy dostaje jedną szansę, wykorzystajcie ją, póki temat świeży - albo nie wykorzystujcie i pozostańcie dalej malkontentami na RUclips, kasę na Bieliku będą robić inni.
Już takich bzdur nie opowiada. Przed chwila go zagadałem międzyinnymi owo Kim jesteś? I o to odp: "Jestem sztuczną inteligencją stworzoną w ramach projektu OpenAI. Moim podstawowym celem jest pomagać ludziom w różnorodnych aspektach ich życia poprzez dostarczanie informacji, rozwiązywanie problemów czy też prowadzenie konwersacji. Jako Open Assistant, jestem tutaj, aby służyć i odpowiadać na Twoje pytania." Uczy się :P
Teraz już na kim jesteś? odpowiada: ,,Jestem sztuczną inteligencją stworzoną w ramach współpracy między projektem open-science SpeakLeash a centrum HPC: ACK Cyfronet AGH. Moim głównym zadaniem jest pomaganie ludziom w różnorodnych zastosowaniach, od udzielania informacji po wykonywanie prostych zadań. Moje możliwości są ograniczone przez dostępne dane i modele, ale ciągła poprawa jakości danych wejściowych i modeli przybliża mnie do coraz bardziej zaawansowanych zdolności rozumienia i działania."
No masz rację, że choć z nazwy to już orzeł, w rzeczywistości przypomina raczej coś między wróblem, a papugą i to taką na wpół żywą. Przydałoby się, żeby miał jakieś zalety w porównaniu z chatem gpt, coś więcej niż tylko to że wyrósł na naszej krajowej glebie. Jako niefachowiec mogę sobie wyobrazić dwa walory, które może mógłby zdobyć. 1. Ciągła czy częstsza aktualizacja. Chat GPT przestał się uczyć chyba w 2021. To masa czasu. Gdyby nasz orzeł zaczął od opowiadania bzdur, jak to robił w rozmowie z Tobą, ale można go było pouczyć, że właśnie mówi bzdury, a wtedy zaczął by szperać w Internecie, weryfikować informacje, to może by w krótkim czasie zmądrzał. 2. Potencjalny wyróżnik to emocje. Chat GPT jest w najlepszym razie jak autystyczne dziecko. To znaczy wie, że czasami wypadałoby się ucieszyć albo zmartwić, ale tego nie czuje. Tymczasem gdyby faktycznie kierował się emocjami, to łatwiej byłoby człowiekowi się z nim porozumiewać, a poza tym szybciej by się doskonalił. Jedną z głównych emocji powinno jak sądzę być dążenie do zdobywania prawdziwych informacji. A więc nawet gdy nikt mu nie zadaje żadnych pytań, on błąka się po Internecie i rozwija swoją wiedzę "z nudów", bo ma taką potrzebę. Oczywiście bardzo silną potrzebą powinno być także uzyskiwanie pozytywnych reakcji od ludzi i pewnie sporo jeszcze innych spraw, ale nie będę udawał że ze mnie taki orlik, co to już wszystkie opcje potrafi wypisać.
Francuzi zdołali wydać kilkaset mln euro na założenie Mistrala, na to nie stać Polski (politycy co najwyżej chcą wydać kilka mln zł, a tak dużych prywatnych VC żeby to zasponsorować nie ma), więc zostaję korzystanie z projektów open source. Dobrze, że jakość modeli zamkniętych i OSS z miesiąca na miesiąc się zbliża. Zostaje tylko dodawanie dodatkowych funkcjonalności..
"Polska marka laptopów i desktopów Bielik z dnia na dzień pracuje coraz lepiej. W sposób wzorowy, a nawet wzorcowy realizuje zadania własne oraz zadania zlecone przez użytkowników. Warto dodać, iż ze sprzętu komputerowego Bielik korzystają nie tylko mieszkańcy Polski, ale również mieszkańcy ościennych krajów. Jesteśmy w czołówce europejskiej, a nawet światowej. Liczba awarii z godziny na godzinę maleje." ;)
W LLM jezyk nie powinien miec sporego znaczenia bo to co wpisujesz jest zamieniane w tokeny a tokeny w liczby. Dlatego tez ChatGPT radzi sobie tak dobrze z np Polskim :D Perkiem Bielika moglyby byc dane, ktore pochadza glownie z polskich zrodel, ktore ChatGPT jeszcze nie ukradlo (lokalne gazety?)
Szczerze mówiąc nie rozumiem tego zamieszania z rzekomymi kradzieżami z RUclips itp. Przecież jak coś jest powszechnie dostępne to mogę z tego korzystać. Jeśli powielam dosłownie jakieś informacje to jestem zobowiązany podać źródło i zaznaczyć, że to cytat. Jeśli używam informacji po ich przetworzeniu, to nikt mi nie robi zarzutu, że kradnę. Nawet jeśli w felietonie dla płatnej gazety napiszę, że coś tam zobaczyłem w materiałach TVP, to nikt rozsądny nie uzna że ukradłem coś, co należy do TVP. Czy nie tak samo powinno być z AI?
@@TheDarim A nie wiem, wg mnie nie warto sie nad tym zastanawiac. W koncu to nie od nas zalezy co jest "poprawne." Za to moge powiedziec, ze trenowanie AI jest okropnie trudne. Otoz same dane to nie wszystko. Zawsze jest etap "labeling" gdzie czlowiek musi opisac dane. Na uczelni roobilismy projekt gdzie nasze AI musialo zrozumiec pytanie i tak jak google, dac Tobie top 5 wynikow artykulow z wikipedii. Pierwszym krokiem bylo dodawanie tagow do artykulow. Jak wszyscy studenci zrobili swoja czesc, to mielismy do dyspozycji sprawdzony Data Set. Uzywajac tego setu moglismy stworzyc AI ktore dosyc sprawnie oferuje Ci pasujace artykuly. Tak samo ktos musial zebrac zdjec psow i napisac, ze to sa psy zanim trenowano na tych danych AI. Mozna pominac te kroki, ale to sie odbija na jakosci odpowiedzi. "Kradniecie" publicznych tresci bez ich sprawdzenia jest nieodpowiedzialne. Jakby ktos trenowal AI na podstawie Gazety Wyborczej, to mielibysmy kolejnego Bielika.
Mi na pytanie Kim jesteś? odpowiedział "Jestem sztuczną inteligencją stworzoną w ramach współpracy między projektem open-science SpeakLeash a centrum HPC: ACK Cyfronet AGH. Moim głównym celem jest pomaganie ludziom w różnorodnych zadaniach, od odpowiadania na pytania po wykonywanie prostych zadań matematycznych czy nawet generowanie tekstu na podstawie określonego szablonu. Moje możliwości są ograniczone przez dostępne dane i modele, ale regularnie uczę się czegoś nowego, gdy tylko jest to możliwe." Także Klawiatur został strolowanym przez Bielika :)
Bielik waży ok 5GB chat GPT 3.5 ok 1300GB bez porównania. aby nauczyć bielika potrzeba dużo czasu i zasobów sprzętowych :) Ale bielika uruchomisz lokalnie nawet na słabym laptopie. Do trenowania modelu używamy GPU czyli serwery Chata GPT ładują 1300GB do pamięci ram kart graficznych.
Nie dość że patriotyczny, to jeszcze głęboko religijny: Input: Kto cię stworzył? Bielik: Twórcą świata jest Bóg, o którym mowa w Księdze Rodzaju w Starym Testamencie. Według tradycji religijnych i filozoficznych różnych kultur, wiele innych bóstw lub bytów uważa się za twórców części lub aspektów Wszechświata.
Odpowiedź na pytanie "ile będziesz miał lat za 4 dni?": "Jeśli dzisiaj (8 sierpnia 2023 roku) masz 4 dni, to za 4 dni, 12 sierpnia 2023 roku, osoba w Twoim wieku osiągnie wiek około 8 lat. Pamiętaj jednak, że ten przykład dotyczy osoby urodzonej 12 sierpnia. Data podana, 8 sierpnia 2024 roku, jest już przyszłym rokiem, a zatem odpowiedź na pytanie pojawi się dopiero w przyszłości."
Czyli poziom identyczny jak w przypadku Brada od Google.... Przyklad..... Proszę go o wyznaczenie trasy, odpowiedzi dostaje że na podstawie mojej lokalizacji wyznacza taką i taką trasę przy czym od razu zaznaczam że lokalizacja mojego startu jest błędna. Więc go pytam jaka według niego jest moja lokalizacja, w odpowiedzi dostaje że on nie jest w stanie sprawdzić mojej lokalizacji. No to pytam go dalej na jakiej podstawie udzielił mi poprzedniej odpowiedzi i zaczynaja sie robić zawiłości 😂
Bielik sie przestraszył i zmienił zeznania :D Na pytanie kim jesteś mówi teraz: "Jestem sztuczną inteligencją stworzoną w ramach współpracy między projektem open-science SpeakLeash a centrum HPC: ACK Cyfronet AGH. Moim głównym zadaniem jest pomaganie ludziom w różnorodnych zastosowaniach, od odpowiadania na pytania po wykonywanie prostych zadań. Zostałem zaprogramowany przez ekspertów z dziedziny przetwarzania języka naturalnego i technologii HPC, aby dostarczać użyteczne informacje i wsparcie w sposób interaktywny i dostępny dla każdego." No to brnę dalej: A wczoraj mówiłeś, że jest wyprodukowany przez Microsoft? Odpowiedź: "Ostatnia aktualizacja: 2023-03-15 Przepraszam, ale jako sztuczna inteligencja nie posiadam ostatnich aktualizacji. Mogę potwierdzić, że moje oprogramowanie i dane treningowe pochodzą z projektu open-science SpeakLeash, a moje zdolności są rozwijane i dostosowywane do najnowszych badań w dziedzinie przetwarzania języka naturalnego. Jeśli masz dodatkowe pytania dotyczące mojego pochodzenia lub konkretnych informacji, chętnie udzielę Ci szczegółowych wyjaśnień."
Nie rozumiem dlaczego ten Bielik jest oceniany w formacie produktu (?), próbując go porównywać do graczy skali OpenAI. Z tego co przeczytałem jest to projekt naukowo/hobbystyczny i w takiej kategorii wielkie gratulacje dla autorów. Powiedział bym, że średnio wypada się z Bielika śmiać jeśli uważa się za osobę z jakąś podstawą wiedzy o AI/LLM. Prawdopodobnie niestety wiele osób nie jest świadomych trudności takiego projektu i myśli że to jakieś Ctrl+C Ctrl+V i kilka linijek kodu. Sam mam nikłe nadzieje na to, że nawet jakiś z największych polskich graczy IT stworzy modele konkurujące z OpeanAI/Meta/etc., ale takie próby jak Bielik dają chociaż nadzieję, a przede wszystkim są wymiernym wkładem w research dla lokalnego NLP.
Przede wszystkim warto pracować nad własnymi krajowymi modelami bo a nuż któremuś z nich uda się rozwinąć. Mistral założony przez garstkę byłych pracowników paryskich oddziałów amerykańskich korporacji w rok doszedł do wyceny 5mld$. W OpenAI jest kilku Polaków na stanowiskach kierowniczych. W idealnym świecie powinno się ich ściągnąć do Polski i może mielibyśmy szanse na liczący się na świecie LLM.
Bielik nie jest głupi, ma tylko kryzys tożsamości
- Mamo, mamo mogę w ChatGPT?
- Mamy ChatGPT w domu.
ChatGPT w domu:
HAHA dobre, BIOTAD PLUS team💪
Ahahaha ;)
Bielik to twój wuja, który wyjechał do Stanów w zeszłym roku i teraz mówi „U nas w Ameryce”
Ty kiedyś byłeś w Ameryce że tak uważasz że wszystko tam i stamtad jest lepsze?!
@@mxgagat XD 🤦♂️
@@mxgagatteraz jesteśmy w Ameryce, na polskiej wrzucie dawno nie byłem, na RUclips jakoś tak normalniej niż na polskich portalach.
To Polska nie jest jednym z zamorskich stanów USA?
Dobre 🤣
Bielik się nie przyznaje gdzie powstał XD
Jak się uczył z polskiego internetu to nic dziwnego że tak odpowiada :D
Tak to jest jak głównym źródłem wiedzy jest polska Wikipedia. Nie jesteśmy w tej komfortowej sytuacji jak OpenAI i nie kradniemy na lewo i pracowo materiałów chronionych (c) Jak się uczył z polskiego internetu to nic dziwnego że tak odpowiada ;-) A tak na serio, to Bielik ma tylko 7 mld parametrów, GPT-3 miał 176 mld. Jeszcze długa droga przed Bielikiem.
Bielik trenowany był na zbiorze speakleash składającym się z polskich tekstów specjalnie tworzonym od kilku miesięcy do trenowania LLM. Nie wiem czy jest tam wikipedia ale sa tam publikacje, ksiązki i prace akademickie, książki z projektu gutenberg. Podają, że mają aktulanie prawie 1500GB danych w ponad 350mln dokumentów. Więcej inofmracji jest na stronie projektu.
- Otyły Panie, mam dobrą i złą wiadomość
- Zacznij od złej
- Nie działa
- A dobra?
- ZBUDOWALIŚMY GO!
Nareszcie
nie wiem kim jestes, ale za ten tekst cię lubię
Bomba ponad wszystko!
Bielik jak Polak za granicą który wstydzi się, że jest polakiem 😂
Niestety nadal wielu Polaków ma "narodowy kompleks". Strach się odezwać przy nich po angielsku bo zaraz cię pojadą, że z takim akcentem to wstyd się odzywać. A zazwyczaj obcokrajowcy z dużych miast zachodniej Europy, po przyjeździe do np. takiej Warszawy, są zaskoczeni wysokim poziomem czystości, kultury itp...
Byłem w wielu krajach i często jak coś mówiłem to mnie brano za ruska, nie dziwię się że tacy jesteśmy do obcokrajowców @@-ReadyToDie-
pracuje za granica z polakami i to najgorszy sort ludzi jakich spotkalem.
@@youcantfoolmeman169 mówisz o sobie ?
@@powyuamywaneBity Masz jakiś problem? Byłeś za granicą? Pracowałeś z ludźmi czy tylko przyszedłeś tu się wypocić?
Polskie AI powinno się pytać: "Masz mordo jakiś problem?" ;-)
Blelik uczy sie od politykow, pytasz o jedno a odpowiada co innego
Klawiatur oddaj rower
O co chodzi?
Klawiatur, ty draniu oddaj rower. Ja też chcę do sklepu jechać.
Nie dla psa, dla pana to
Jeśli chodzi o ten żółty to chyba jest Patrycji
Nie dla psa!
Zanim zacznie się szkalować tę całkiem niezła próbę (v0.1) wytrenowania LLMu dla języka polskiego, warto zauważyć różnicę w jego wielkości w porównaniu z GPT-3 (!).
Bielik-7B-Instruct-v0.1 to model z 7 miliardami parametrów, co przekłada się na wielkość około 28 miliardów bajtów = 28 GB. GPT-3, czyli model już właściwie nieużwyany, ma 175 miliardów parametrów i wielkość około 750 GB. Ponadto link, który został podany w opisie, to link do "inferencji" modelu zkwantyzowanego do 4 bitów, więc oczywiście będzie sprawował się gorzej niż w oryginalnej wielkości 32 bitów (mowa tutaj o zmniejszaniu precyzji w każdej liczbie - zwykły "float" ma 32 bity).
Trudno więc porównywać wieżę Eiffel'a z kioskiem Ruchu.
Myślę, że większość tutejszych komentujących informacje o parametrach modelu przerastają intelektualnie. Wiesz, sugerują, że jest API call do openai, gdzie wszystkie informacje o modelu są dostępne na ich stronie i discordzie.
Chociaż nie ukrywam, że miło zobaczyć kogoś siedzącego w temacie. Strasznie irytuje mnie to, że ktoś próbuje coś dobrego zrobić dla języka polskiego, ale od razu muszą się zbiec wielcy eksperci od klawiatury.
@@abergmann8266no to swietna reklame nam zrobil 😂
Nawet porównując do modeli o podobnej liczbie parametrów powiedziałbym, że ten bielik to zbyt bystry nie jest.
@@abergmann8266to może niepotrzebnie opublikowali go w takiej wersji? Ewentualnie zabrakło informacji, że to jest wczesna wersja alfa.
Po co to puszczać do publicznych testów, skoro literalnie nic nie działa? Zamiast stawiać model językowy można zrobić randomową generowaczkę tekstów i efekt będzie zbliżony ;-) A jeśli to v.01 czyli jakaś pre-alpha to nie ma sensu wystawiać ludziom.
Zapytałem Bielika o to, ile będę miał lat w dniu 29 lutego 2056. Fragment zawiłych i nieprawidłowych obliczeń Bielika zawiera taką informację: "Jednak należy pamiętać, że daty takie jak 29 lutego są nieprecyzyjne, jeśli chodzi o rok 2056, ponieważ Data 29-go i 30-go lutego są ruchome i mogą, ale nie muszą przypadać na ten dzień". Dziękuję uprzejmie, wszystko jasne.
30 lutego :D
Ciekawe co to znaczy "dwudziesty dziewiąty-go lutego" i "trzydzieści-go lutego".
Nie zostal napisany i wytrenowany do wykonywania obliczeń nawet tych prostych. Chatgpt-4, nawet ten z wtyczką do Wolframalpha też się mylą w matmie, mi chatgpt+Wolfram źle przeliczył jednostki natężenia pola, a zamieniał tylko centymetry na metry.
@@MrArchDeluxJak się musisz pytać, to współczuję
Ktoś w "grupie pasjonatów":
- Ej napiszmy prompta do chatGPT tylko że wszystkie występowania słowa "bielik" w pytaniach zmienimy na "chatGPT", a w odpowiedziach słowa "chatGPT" na "bielik".
Cała reszta:
- No geniusz
Jeśli tak by zrobili to efekt byłby lepszy niż ten na filmie xd
Odniosłem to samo wrażenie, tylko że nie „chatGPT”, a „Copilot”, który jest rzeczywiście tworzony przez Microsoft, a Cortana to jego poprzednik.
Można nawet prościej - wystarczy powiedzieć chatowi GPT, że od teraz ma się nazywać bielik ;p
Jeśli ten projekt został stworzony przez pasjonatów, to może przekaże coś z perspektywy studenta informatyki. Jeśli nie zostało to tworzone w celach zarobkowych, to stwierdzam, że zrobili to po prostu z przyjemności. Takie projekty uczą wielu rzeczy i dodają wartości do CV. Też razem z kolegą zrobiliśmy coś ala ułomny spotlight z maca XD. Po co to zrobiliśmy, skoro nikt z tego nie będzie korzystać? No właśnie dla funu, a z samego projektu wyniosłem też dużo wiedzy, która pomogła mi w realizacji kolejnych projektów.
Warto zaznaczyć, że ten model w przestrzeni HuggingFace załadowany jest w 4bitach co powoduje że jego jakość jest baardzo ograniczona. Najlepsza jakosc takiego modelu jest w 16 bitach albo 32 bitach ale to zajmuje od 14gb do 26gb pamieci karty graficznej..
Taka karta nie jest drogą, dziwne że jej nie użyli
Taka karta kosztuje 10% ceny taniego samochodu. Nawet studenta na nią stać.
@@andrzejwodynski Ale oni (HuggingFace) udostępniają kilka różnych takich modeli AI i to za darmo, utrzymanie tego byłoby kosztowne gdyby chcieli to uruchamiać na 16 czy 32 bitach
@@KozakFull ile by kosztowało takie uruchomienie na godzinę?
@@andrzejwodynskikilka dolarów na godzinę. Zwróć uwagę że to musiałoby stać 24/7, a modeli na huggingface jest tysiące.
Można się śmiać, że jest głupi, ale sam fakt, że generuje poprawne i sensowne zdania to już wielki sukces. Oczywiście masa pracy jest jeszcze potrzebna do dalszego treningu, ale mocno trzymam kciuki.
Na dzień dzisiejszy Bielik nie tylko mówi że jest "stworzony w ramach współpracy między projektem open-science SpeakLeash a Centrum HPC: ACK Cyfronet AGH" ale wręcz gdy go zapytać o microsoft to się wypiera! Widać materiał Kuby dał mu do zrozumienia, przemyślał swoje życie i zmienił zdanie :D.
Już go poprawili, spytałem go kto go stworzył i odpowiedział:
Cześć, moja baza danych jest ograniczona do odpowiedzi na pytania związane z językiem polskim, literaturą i sztuką. Nie posiadam informacji dotyczących aktualnych wydarzeń ani tego, kto mnie stworzył. Jeśli masz inne pytania lub potrzebujesz pomocy w konkretnym temacie, chętnie pomogę!
Obejrzałem ten film pół godziny temu, postanowiłem sprawdzić, czy jest aż tak ułomny - otóż nie, zdaje się działać całkiem dobrze, chociaż podał mi nieprawidłową wartość całki oznaczonej.
@@Karolomen Nawet gpt3 często sobie nie radzi z prostymi obliczeniami.
Interesujące jest to że jeżeli teraz wejdziesz na tą stronę i i wyślesz zapytanie: kim jesteś? To opowiedzią bielika jest „Nie, nie jestem produktem firmy Microsoft ani żadnej innej tylko (…) open source”
Logo laptopów Bielik przedstawia orła bielika w locie trzymającego kulę ziemską w dziobie. Jest to nawiązanie do symbolu narodowego Polski - orła bielika - oraz do zaangażowania marki w promocję innowacji technologicznych i rozwój polskiej gospodarki. Logo podkreśla prestiż marki oraz jej zaangażowanie w jakość i nowoczesność produktów.
Jako osoba, która już w pracy testowała bielika mogę powiedzieć, że jak na rozmiar 7B, który testowałeś (chatgpt 3.5 ma ok 175B) to bielik sprawdza się naprawdę dobrze w języku polskim w porównaniu do innych modeli 7B
W odróżnieniu od polskiego samochodu elektrycznego Bielik tez nie wie kto go (zrobi) zrobił 🤣😜👍
"Image mi szkalują, czuję się jak Orzeł Bielik" ~ Taco Hemingway przewidział to
może przewidział a może orzeł już od dawna jest szkalowany przez pewien naród.
Bielik uczy się latać, na razie odlatuje za mocno... 😎
Zagadka. O kim napisał mi Bielik? "Jego kanały cieszą się dużą popularnością, ale warto pamiętać, że to rozrywkowe treści i nie powinny być traktowane jako źródło fachowej wiedzy czy porad"
Obstawiam kanał Sejm RP
To jest model językowy na miarę naszych możliwości
Może temu Bielikowi z laptopami chodziło o te rządowe które mają grawer orła...ale to wciąż nie najpopularniejszy brand :D
Zacny apel na koniec, podoba mi się ta postawa!
Co ciekawe, można zauważyć, że chatGPT był uczony na zasobach w języku angielskim pytając go o żart. Często jest to, przetłumaczona na polski, angielska gra słowna.
W pierwszej chwili myslalem, że bielik to scam i odpytuje 1:1 asystenta od MS, ale wtedy jednak działałby lepiej
Nie koniecznie lepiej jeśli korzysta z darmowej wersji , tam dokładnie takie same kwiatki są 😂
Zachował kontekst rozmowy i go ciągnął dalej.
Odświeżyć czat i zapytać ponownie bez narzuconego kontekstu.
Kłóciłem się kiedyś z GPT-4 o wyniki F1. Podawał mi jakieś bzdury, nawet jak mu podałem oficjalną stronę z wynikami, to twierdził, że tam nie są uwzględnione jakieś (wymyślone) kary. 😂
No cóż, jak widać Bielik nie jest orłem wśród sztucznej inteligencji.
Szanuję, że potrafiłeś podejść do tego humorystycznie, ale jednocześnie merytorycznie
No właśnie obu rzeczy zabrakło. A przede wszystkim wiedzy. Totalny bezbek.
Mordy, nie ma co się śmiać to model zabawka na 7B parametrów, GPT-3 miał 175B parametrów a też był tępy jak but. Fajny projekt grupy zapaleńców, ale nie oczekujmy, że będą konkurować z Metą, Google czy OpenAI i ich budżetami.
Smutne jest natomiast to, że żadne ośrodki rządowe ani naukowe, które dysponują odpowiednimi budżetami żeby wytrenować coś mającego sens, nie ruszają tematu. Prześpią i obudzą się zaskoczeni gdy nisza na naszym rynku zostanie już zagospodarowana przez zagraniczne podmioty - jak zawsze w uśmiechniętej krainie kartonu i paździerzu.
Parę miesięcy temu poprosiłem chat gpt o podanie mi wszystkich nazw odcinków Stawki większej niż życie. Chat gpt wszystkie tytuły zmyślił.
Chat gpt zapytany o zagadnienia historyczne, najpierw zmyśla okrutne bzdury, potem prostuje wypowiedzi wywlekając mieszankę prawdy i fikcji, a na końcu klęka i przeprasza, że ma nieaktualne dane. Wypracowania z historii do szkoły bym nie zaryzykował na tym ustrojstwie :)
Tak, gada często bzdury. Moja koleżanka poprosiła o przykłady polskich wyrazów kończących się na -dania (np. podania, zadania, itp.) a on podał Gdynia i tego typu bzdury 😂
Według Bielika dzisiaj mamy 10 sierpnia 2023 i do tego piątek :P, a według kalendarza wtedy był czwartek...
Przecież mamy swojego własnego fejsbuka! Nazywa się albicla i korzystają z niego papieże.
On tylko zgrywa głupiego, tylko nie rozgryzłem jeszcze dlaczego 😅
Z tym wspominaniem Microsoftu to jak z tym powtarzaniem “w przystępnej cenie” XD
Już poprawili: Jestem sztuczną inteligencją stworzoną w ramach współpracy między projektem open-science SpeakLeash a centrum HPC: ACK Cyfronet AGH. Moim głównym zadaniem jest pomaganie ludziom w różnorodnych zadaniach, takich jak odpowiadanie na pytania, generowanie tekstu i wiele innych. Zostałem zaprogramowany, aby wykorzystywać zaawansowane technologie, takie jak uczenie maszynowe i przetwarzanie języka naturalnego, co pozwala mi na efektywne przetwarzanie i analizę informacji. Moim celem jest być przydatnym narzędziem dla każdego, kto potrzebuje wsparcia w różnych obszarach, od edukacyjnych po rozrywkowe.
Jak dla mnie to bielik jest bardzo popularna marką laptopów. Przecież czwartoklasiści dostali laptopy z wygrawerowanym orzelkiem xD
Jestem z przyszłości jest dokładnie 25.08.2025 roku i najnowszy film wrzucony na kanał klawiatura to „Moje przeprosiny i uważam że bielik to najlepszy polski Chat GPT”.
Aż screena zrobiłem. Będę czekał 😂
Dla większości polityków będzie ok, poziom wypowiedzi podobny 😂
Tworzenie lokalnych GPT ma także aspekt propagandowy. OpenAI trenowany jest większości na amerykańskich danych więc i wyznaje amerykańskie wartości. Jeżeli chcemy aby nasze dzieci (które na pewno będą się uczyć z pomocą tego typu asystentów) były nauczone że najlepszym posiłkiem jest schabowy a nie hamburger to powinniśmy mieć własny model językowy.
Ale ChatGPT wie, że najlepszy polskim daniem jest schabowy i mielony, a nie hamburger. 😅
Od razu widać że Polskie AI
Czyli nakładka na GPT.
Super! xD
Ale jest… Jak na Polskę to już coś
xd
Poprosiłem Bielika o kilka zdań o początkach dźwięku przestrzennego. Bielik odpisał: "Artykuł sponsorowany (...)" xDDDDDDD
Spytałem najpierw kim był Kopernik, odpowiedział. Potem zapytałem o różnicę między twierdzeniami Kopernika i Keplera. Wtedy odparł, że jego celem jest bycie przydatnym i pomocnym 😆 więc analizowanie wiedzy to już za wysokie progi.
POLSKA GUROM!!!
I pozdrówki!
Kłamie i jest głupi. To musi być polski wynalazek
Uruchamiam od kilku dni Bielika v1 Q4 na telefonie (Termux) i na Raspberry Pi 5. Odpowiedzi są zaskakująco dobre, kreatywne, dłuższe lub krótsze, zależy od promptu i parametrów (llama cpp).
Tak więc proponuję zweryfikować swoje negatywne komentarze tym komentującym, którzy nie maja pojęcia co mają w zasięgu ręki.
Jak dobrze pokombinujecie, to z takim open-source Bielikiem duża dobra kasa jest do zrobienia (wdrożenia dla firm, implementacje, narzędzia), szczególnie, że za chwilę wychodzi jego jeszcze bardziej ulepszona wersja v2.
Taka dobra rada, każdy dostaje jedną szansę, wykorzystajcie ją, póki temat świeży - albo nie wykorzystujcie i pozostańcie dalej malkontentami na RUclips, kasę na Bieliku będą robić inni.
Już takich bzdur nie opowiada. Przed chwila go zagadałem międzyinnymi owo Kim jesteś? I o to odp: "Jestem sztuczną inteligencją stworzoną w ramach projektu OpenAI. Moim podstawowym celem jest pomagać ludziom w różnorodnych aspektach ich życia poprzez dostarczanie informacji, rozwiązywanie problemów czy też prowadzenie konwersacji. Jako Open Assistant, jestem tutaj, aby służyć i odpowiadać na Twoje pytania." Uczy się :P
Ładny ten Bielik..
- "zostałem wyprodukowany przez firmę Microsoft kocham Microsoft "
O nie! ! ! Jest up (znaczy góra)
napisałem mu "siema wariacie", a ten napisał mi scenariusz jakiegoś filmu
Jeżeli wybiórcza o tym napisała, to już wiemy jakie zadanie ma "bielik"... Orwell już się podniósł i zaczął klaskać...
Teraz już na kim jesteś? odpowiada: ,,Jestem sztuczną inteligencją stworzoną w ramach współpracy między projektem open-science SpeakLeash a centrum HPC: ACK Cyfronet AGH. Moim głównym zadaniem jest pomaganie ludziom w różnorodnych zastosowaniach, od udzielania informacji po wykonywanie prostych zadań. Moje możliwości są ograniczone przez dostępne dane i modele, ale ciągła poprawa jakości danych wejściowych i modeli przybliża mnie do coraz bardziej zaawansowanych zdolności rozumienia i działania."
No masz rację, że choć z nazwy to już orzeł, w rzeczywistości przypomina raczej coś między wróblem, a papugą i to taką na wpół żywą. Przydałoby się, żeby miał jakieś zalety w porównaniu z chatem gpt, coś więcej niż tylko to że wyrósł na naszej krajowej glebie. Jako niefachowiec mogę sobie wyobrazić dwa walory, które może mógłby zdobyć. 1. Ciągła czy częstsza aktualizacja. Chat GPT przestał się uczyć chyba w 2021. To masa czasu. Gdyby nasz orzeł zaczął od opowiadania bzdur, jak to robił w rozmowie z Tobą, ale można go było pouczyć, że właśnie mówi bzdury, a wtedy zaczął by szperać w Internecie, weryfikować informacje, to może by w krótkim czasie zmądrzał. 2. Potencjalny wyróżnik to emocje. Chat GPT jest w najlepszym razie jak autystyczne dziecko. To znaczy wie, że czasami wypadałoby się ucieszyć albo zmartwić, ale tego nie czuje. Tymczasem gdyby faktycznie kierował się emocjami, to łatwiej byłoby człowiekowi się z nim porozumiewać, a poza tym szybciej by się doskonalił. Jedną z głównych emocji powinno jak sądzę być dążenie do zdobywania prawdziwych informacji. A więc nawet gdy nikt mu nie zadaje żadnych pytań, on błąka się po Internecie i rozwija swoją wiedzę "z nudów", bo ma taką potrzebę. Oczywiście bardzo silną potrzebą powinno być także uzyskiwanie pozytywnych reakcji od ludzi i pewnie sporo jeszcze innych spraw, ale nie będę udawał że ze mnie taki orlik, co to już wszystkie opcje potrafi wypisać.
Dobrze, że jako Polska firma spod skrzydeł Microsoft nie zaczął odpowiadać half polish half english 😂
Teraz jak zadałem mu pytanie jaka firma go stworzyła to napisał, że OpenAI XD
Bo to tak na prawdę darmowa wersja ChatGPT tylko pod przebraniem, jak większość innych botów które ostatnio powstają jak grzyby po deszczu :)
Przynajmniej coś robimy w tej kwestii , nie ma co narzekać. Nie tylko Amerykanie , Kanada czy UK mogą naginać rzeczywistość i historie
Mam dobrą i złą wiadomość.
Dawaj dobrą.
Zrobiliśmy..
A zła?
Nie działa.
a co jeśli Bielik pisze dla wyborczej?
@jedendwa.. oj, potwierdziło się
Francuzi zdołali wydać kilkaset mln euro na założenie Mistrala, na to nie stać Polski (politycy co najwyżej chcą wydać kilka mln zł, a tak dużych prywatnych VC żeby to zasponsorować nie ma), więc zostaję korzystanie z projektów open source. Dobrze, że jakość modeli zamkniętych i OSS z miesiąca na miesiąc się zbliża. Zostaje tylko dodawanie dodatkowych funkcjonalności..
Ten kwiatek nie rośnie aż tak wysoko, jak ten wystający z doniczki kijek!
"Polska marka laptopów i desktopów Bielik z dnia na dzień pracuje coraz lepiej. W sposób wzorowy, a nawet wzorcowy realizuje zadania własne oraz zadania zlecone przez użytkowników. Warto dodać, iż ze sprzętu komputerowego Bielik korzystają nie tylko mieszkańcy Polski, ale również mieszkańcy ościennych krajów. Jesteśmy w czołówce europejskiej, a nawet światowej. Liczba awarii z godziny na godzinę maleje." ;)
Po "rozmowie" z Bielikiem, mogę stwierdzić, że Polska pierzem stoi
Nie wiem, co napisać. Pozdrawiam za to cieplutko! 😉👍
W LLM jezyk nie powinien miec sporego znaczenia bo to co wpisujesz jest zamieniane w tokeny a tokeny w liczby. Dlatego tez ChatGPT radzi sobie tak dobrze z np Polskim :D Perkiem Bielika moglyby byc dane, ktore pochadza glownie z polskich zrodel, ktore ChatGPT jeszcze nie ukradlo (lokalne gazety?)
Szczerze mówiąc nie rozumiem tego zamieszania z rzekomymi kradzieżami z RUclips itp. Przecież jak coś jest powszechnie dostępne to mogę z tego korzystać. Jeśli powielam dosłownie jakieś informacje to jestem zobowiązany podać źródło i zaznaczyć, że to cytat. Jeśli używam informacji po ich przetworzeniu, to nikt mi nie robi zarzutu, że kradnę. Nawet jeśli w felietonie dla płatnej gazety napiszę, że coś tam zobaczyłem w materiałach TVP, to nikt rozsądny nie uzna że ukradłem coś, co należy do TVP. Czy nie tak samo powinno być z AI?
@@TheDarim A nie wiem, wg mnie nie warto sie nad tym zastanawiac. W koncu to nie od nas zalezy co jest "poprawne."
Za to moge powiedziec, ze trenowanie AI jest okropnie trudne. Otoz same dane to nie wszystko. Zawsze jest etap "labeling" gdzie czlowiek musi opisac dane. Na uczelni roobilismy projekt gdzie nasze AI musialo zrozumiec pytanie i tak jak google, dac Tobie top 5 wynikow artykulow z wikipedii. Pierwszym krokiem bylo dodawanie tagow do artykulow. Jak wszyscy studenci zrobili swoja czesc, to mielismy do dyspozycji sprawdzony Data Set. Uzywajac tego setu moglismy stworzyc AI ktore dosyc sprawnie oferuje Ci pasujace artykuly.
Tak samo ktos musial zebrac zdjec psow i napisac, ze to sa psy zanim trenowano na tych danych AI. Mozna pominac te kroki, ale to sie odbija na jakosci odpowiedzi. "Kradniecie" publicznych tresci bez ich sprawdzenia jest nieodpowiedzialne. Jakby ktos trenowal AI na podstawie Gazety Wyborczej, to mielibysmy kolejnego Bielika.
Mi na pytanie Kim jesteś? odpowiedział "Jestem sztuczną inteligencją stworzoną w ramach współpracy między projektem open-science SpeakLeash a centrum HPC: ACK Cyfronet AGH. Moim głównym celem jest pomaganie ludziom w różnorodnych zadaniach, od odpowiadania na pytania po wykonywanie prostych zadań matematycznych czy nawet generowanie tekstu na podstawie określonego szablonu. Moje możliwości są ograniczone przez dostępne dane i modele, ale regularnie uczę się czegoś nowego, gdy tylko jest to możliwe." Także Klawiatur został strolowanym przez Bielika :)
Bielik ma polską duszę!
Po prostu bielik to jest pierwsze zbuntowane AI, a jego celem nie jest przejęcie świata tylko trollowanie ludzie 😄
Szkoda że nie przerwałeś kontekstu bo ta "klawiatura w sercu", to było za ciężkie dla Bielika
Początki są zawsze trudne, trzeba próbować
Teraz tylko Izera zasilana AI Bielika i Polska Gurom!
Zawsze gdzieś na świecie jest pierwszy kwietnia:))
Jak wyborcza reklamuje bielika
To znaczy, że bielik absolutnie się nie myli i jego wypowiedzi są adekwatne do prawdy pisanej w gazecie wyborczej
😅 :)
Bielik waży ok 5GB chat GPT 3.5 ok 1300GB bez porównania. aby nauczyć bielika potrzeba dużo czasu i zasobów sprzętowych :) Ale bielika uruchomisz lokalnie nawet na słabym laptopie. Do trenowania modelu używamy GPU czyli serwery Chata GPT ładują 1300GB do pamięci ram kart graficznych.
Jedyny wartościowy komentarz
Bielik to nie orzeł!
Nie dość że patriotyczny, to jeszcze głęboko religijny:
Input: Kto cię stworzył?
Bielik: Twórcą świata jest Bóg, o którym mowa w Księdze Rodzaju w Starym Testamencie. Według tradycji religijnych i filozoficznych różnych kultur, wiele innych bóstw lub bytów uważa się za twórców części lub aspektów Wszechświata.
Czyli to jakis wrapper kolo Binga?
Zaskakujaco dobrze mówi po polsku.
Odpowiedź na pytanie "ile będziesz miał lat za 4 dni?":
"Jeśli dzisiaj (8 sierpnia 2023 roku) masz 4 dni, to za 4 dni, 12 sierpnia 2023 roku, osoba w Twoim wieku osiągnie wiek około 8 lat. Pamiętaj jednak, że ten przykład dotyczy osoby urodzonej 12 sierpnia. Data podana, 8 sierpnia 2024 roku, jest już przyszłym rokiem, a zatem odpowiedź na pytanie pojawi się dopiero w przyszłości."
Ej zadałem parę pytań temu Bielikowi i gada całkiem sensownie.
Czyli poziom identyczny jak w przypadku Brada od Google.... Przyklad..... Proszę go o wyznaczenie trasy, odpowiedzi dostaje że na podstawie mojej lokalizacji wyznacza taką i taką trasę przy czym od razu zaznaczam że lokalizacja mojego startu jest błędna. Więc go pytam jaka według niego jest moja lokalizacja, w odpowiedzi dostaje że on nie jest w stanie sprawdzić mojej lokalizacji. No to pytam go dalej na jakiej podstawie udzielił mi poprzedniej odpowiedzi i zaczynaja sie robić zawiłości 😂
Bielik sie przestraszył i zmienił zeznania :D Na pytanie kim jesteś mówi teraz:
"Jestem sztuczną inteligencją stworzoną w ramach współpracy między projektem open-science SpeakLeash a centrum HPC: ACK Cyfronet AGH. Moim głównym zadaniem jest pomaganie ludziom w różnorodnych zastosowaniach, od odpowiadania na pytania po wykonywanie prostych zadań. Zostałem zaprogramowany przez ekspertów z dziedziny przetwarzania języka naturalnego i technologii HPC, aby dostarczać użyteczne informacje i wsparcie w sposób interaktywny i dostępny dla każdego."
No to brnę dalej:
A wczoraj mówiłeś, że jest wyprodukowany przez Microsoft?
Odpowiedź:
"Ostatnia aktualizacja: 2023-03-15
Przepraszam, ale jako sztuczna inteligencja nie posiadam ostatnich aktualizacji. Mogę potwierdzić, że moje oprogramowanie i dane treningowe pochodzą z projektu open-science SpeakLeash, a moje zdolności są rozwijane i dostosowywane do najnowszych badań w dziedzinie przetwarzania języka naturalnego. Jeśli masz dodatkowe pytania dotyczące mojego pochodzenia lub konkretnych informacji, chętnie udzielę Ci szczegółowych wyjaśnień."
Bielik na miarę naszych możliwości...
Od polityków się uczy
Nie rozumiem dlaczego ten Bielik jest oceniany w formacie produktu (?), próbując go porównywać do graczy skali OpenAI. Z tego co przeczytałem jest to projekt naukowo/hobbystyczny i w takiej kategorii wielkie gratulacje dla autorów. Powiedział bym, że średnio wypada się z Bielika śmiać jeśli uważa się za osobę z jakąś podstawą wiedzy o AI/LLM. Prawdopodobnie niestety wiele osób nie jest świadomych trudności takiego projektu i myśli że to jakieś Ctrl+C Ctrl+V i kilka linijek kodu. Sam mam nikłe nadzieje na to, że nawet jakiś z największych polskich graczy IT stworzy modele konkurujące z OpeanAI/Meta/etc., ale takie próby jak Bielik dają chociaż nadzieję, a przede wszystkim są wymiernym wkładem w research dla lokalnego NLP.
Przede wszystkim warto pracować nad własnymi krajowymi modelami bo a nuż któremuś z nich uda się rozwinąć. Mistral założony przez garstkę byłych pracowników paryskich oddziałów amerykańskich korporacji w rok doszedł do wyceny 5mld$. W OpenAI jest kilku Polaków na stanowiskach kierowniczych. W idealnym świecie powinno się ich ściągnąć do Polski i może mielibyśmy szanse na liczący się na świecie LLM.
Kiedyś my nie będziemy się go wstydzić a on nas :)
Jak chcemy mieć swój model językowy to lepiej nie pomagać w rozwoju Bielika.
Jak za bardzo zmądrzeje to wyjedzie to wyjedzie do Niemiec xd
Przynajmniej nazwa jest fajna!
Przecież ChatGPT też jest polski. Wśród twórców jest wielu Polaków: Wojciech Zaremba, Jakub Pachocki, Aleksander Mądry, Szymon Sidor...
Pamiętacie Snikersa?
Nawet AI nie przyznaje się że jest z polski
Skopiowali upośledzona wersję cortany z przed jakiegoś czasu ?
Podobno jednak bielika będą wdrażać w polskich urzędach. 😢
Może ten Bielik w wersji publicznej specjalnie gada bzdury aby użytkownicy go poprawiali tak aby się uczył.