LM Studio | Запускаем Open Source LLM как локальный сервер! Нам больше не нужен openai.api_key!

Поделиться
HTML-код
  • Опубликовано: 21 сен 2024
  • ✨Внимание:
    1.Если вы испытываете проблемы с просмотром ранее опубликованного видео в связи с замедлением RUclips, пишите в кометы под нужным постом в Телеграм - и я залью туда это видео.
    2.Приглашаю в Телеграм общаться по этой теме: t.me/AiExp01
    3.Чат находится здесь: t.me/AiExp02

Комментарии • 8

  • @kvoloshenko
    @kvoloshenko  11 месяцев назад +1

    Все ссылки здесь: t.me/AiExp01/46

  • @romanmed9035
    @romanmed9035 8 месяцев назад +1

    можете ли осветить тему моделей для програмного кода? можно ли как-то узнать какая модель наиболее актуальна для javascript и его фреймворков и где это искать?

  • @kvoloshenko
    @kvoloshenko  Месяц назад

    Файл requirements.txt можно взчть отсюда: t.me/AiExp02/2565

  • @loperock4909
    @loperock4909 10 месяцев назад +1

    Значит и проект с «базой знаний» выйдет запустить локально, интересно

    • @kvoloshenko
      @kvoloshenko  10 месяцев назад

      см. заготоку кода t.me/AiExp01/47

  • @Deepneuron
    @Deepneuron 9 месяцев назад +1

    Побольше видео

  • @krio_gen
    @krio_gen 2 месяца назад

    А где у неё Api key?
    Вот мне нужно вставить Api key в другом месте, чтобы подключить к нему LM Studio.

  • @kvoloshenko
    @kvoloshenko  10 месяцев назад

    Чуть больше инфы про LM Studio здесь: t.me/AiExp01/57