LM Studio | Запускаем Open Source LLM как локальный сервер! Нам больше не нужен openai.api_key!
HTML-код
- Опубликовано: 21 сен 2024
- ✨Внимание:
1.Если вы испытываете проблемы с просмотром ранее опубликованного видео в связи с замедлением RUclips, пишите в кометы под нужным постом в Телеграм - и я залью туда это видео.
2.Приглашаю в Телеграм общаться по этой теме: t.me/AiExp01
3.Чат находится здесь: t.me/AiExp02
Все ссылки здесь: t.me/AiExp01/46
можете ли осветить тему моделей для програмного кода? можно ли как-то узнать какая модель наиболее актуальна для javascript и его фреймворков и где это искать?
Файл requirements.txt можно взчть отсюда: t.me/AiExp02/2565
Значит и проект с «базой знаний» выйдет запустить локально, интересно
см. заготоку кода t.me/AiExp01/47
Побольше видео
А где у неё Api key?
Вот мне нужно вставить Api key в другом месте, чтобы подключить к нему LM Studio.
Чуть больше инфы про LM Studio здесь: t.me/AiExp01/57