Jak serwować LLM Bielik-11B 🦅 - Tutorial #17

Поделиться
HTML-код
  • Опубликовано: 14 дек 2024

Комментарии • 23

  • @szczeles
    @szczeles 10 дней назад +7

    Wow, Panowie, przepięknie zrealizowany tutorial. Nie dość, że "od zera do bohatera", to jeszcze nie zapomnieliście o zabezpieczeniu endpointu. I nawet cenowo ten g5.xlarge w AWS wychodzi całkiem znośnie, piątak za godzinę to uczciwa cena 🙂

  •  10 дней назад +4

    Film o polskim LLMie? Nie muszę włączać a już klikam like. POLSKA GUROM

  • @seitaishogun
    @seitaishogun 4 дня назад

    Kibicuję! Pomyślności panowie !

  • @sxsxryn
    @sxsxryn 11 дней назад +3

    Super przedstawione, mega ciekawy materiał. Fajnie, że jednak coś jest w naszym ojczystym języku. Bielik!

  • @tiaamat
    @tiaamat 5 дней назад +1

    🎉bielik!

  • @mpfmorawski
    @mpfmorawski 11 дней назад +2

    Ale idealnie trafiliście! Sam planowałem postawić Bielika w chmurze, żeby się nim pobawić (i przy okazji poduczyć, jak z technicznego punktu widzenia najlepiej to zrobić). A z Waszym filmem i materiałami będzie to o wiele prostsze! Dzięki, że robicie takie materiały :D
    PS: Bielik 🦅

    • @ml-workout
      @ml-workout  11 дней назад

      Dzięki, bardzo nam miło!

    • @asqu
      @asqu 11 дней назад

      Po co się męczyć, masz przecież LM Studio lub Jan i model skwantyzowany w formacie GGUF, uruchomisz zapewne na swoim kompie.

    • @ml-workout
      @ml-workout  10 дней назад +1

      @@asqu Do zabawy lokalnie jak najbardziej. My pokazujemy wdrożenie serwerowe.

  • @trimaz77
    @trimaz77 6 дней назад +1

    Bielik. 👍👍

  • @inout3394
    @inout3394 8 дней назад +1

    Mi by się przydała wersja small Q4 np. 1B/1.5B/2B/2.5B/3B by uruchomić ją na telefonie np. w aplikacji ChatterUI

  • @polishmotorfan
    @polishmotorfan 4 дня назад

    Czy da się to uruchomić na rtx 3060 na laptopie?

  • @grzesiekzysk
    @grzesiekzysk 11 дней назад +1

    Czy Bielika można wcześniej nakarmić danymi aby był czymś w rodzaju "bazy wiedzy"?

    • @ml-workout
      @ml-workout  11 дней назад +5

      Masz na myśli fine tuning z własnymi danymi? Raczej w tym przypadku sugerowałbym podejście typu RAG (Retrieval Augmented Generation) - czyli używasz model instruct, a swoje dane umieszczasz jako część prompta. Dane muszą być wcześniej zwektoryzowane, a ich znalezienie odbywa się przez porównanie podobieństwa wektora "zapytania" do wektora "dokumentu". Opowiadamy o tym podejściu w naszym filmiku "Zbuduj z nami Chatbota QA z LLM"

    • @grzesiekzysk
      @grzesiekzysk 11 дней назад +1

      @@ml-workout Tak, dzięki. Juz odpalam film!

  • @emiliabunko4518
    @emiliabunko4518 6 дней назад +1

    bielik

  • @madrag
    @madrag 10 дней назад

    Da sie to "obsluzyc" poprzez ollame?

    • @ml-workout
      @ml-workout  10 дней назад

      Da się, pamiętając o tym, że Ollama jest nastawiona bardziej na uruchomianie modeli do potrzeb lokalnych, a nie serwerowych, tak jak wykorzystany przez nas vLLM.

  • @sylwekkaluza7873
    @sylwekkaluza7873 10 дней назад

    Bielik

  • @zbigniews497
    @zbigniews497 7 дней назад +1

    Bielik