LM Studio | Запускаем Open Source LLM как локальный сервер! Нам больше не нужен openai.api_key!

Поделиться
HTML-код
  • Опубликовано: 26 окт 2023
  • Приглашаю в Телеграм общаться по это теме: t.me/AiExp01

Комментарии • 6

  • @kvoloshenko
    @kvoloshenko  6 месяцев назад +1

    Все ссылки здесь: t.me/AiExp01/46

  • @romanmed9035
    @romanmed9035 4 месяца назад +1

    можете ли осветить тему моделей для програмного кода? можно ли как-то узнать какая модель наиболее актуальна для javascript и его фреймворков и где это искать?

  • @Deepneuron
    @Deepneuron 5 месяцев назад +1

    Побольше видео

  • @loperock4909
    @loperock4909 6 месяцев назад +1

    Значит и проект с «базой знаний» выйдет запустить локально, интересно

    • @kvoloshenko
      @kvoloshenko  6 месяцев назад

      см. заготоку кода t.me/AiExp01/47

  • @kvoloshenko
    @kvoloshenko  6 месяцев назад

    Чуть больше инфы про LM Studio здесь: t.me/AiExp01/57