если я правильно понимаю и оно использует RAG для поиска по загруженному документу , то проще llama-index установить, одна команда в терминале и 4 строки кода. никаких танцев с бубном не надо
после pnpm dev ----> выдает ошибку service "redis-ui" can't be used with `extends` as it declare `depends_on` ELIFECYCLE Command failed with exit code 15. WARN Local package.json exists, but node_modules missing, did you mean to install?
спасибо тебе. наконец то установил. еще нужна база куда прописывается пользователь которого мы зарегили. нужен продукт который мы ему "продали" и новый уровень доступа для него чтобы стать энтерпрайзом со 100 агентами
Проще поставить gpt4all и RAG и локальные модели и gpt4, 3.5 по api, если локалки апи поддерживают там же есть сервер для подключения к локальной модели через апи и многое другое. Никаких танцев с бубном, запустил ехе все установится и впуть
А это действительно экономит токены (или я на api openai разорюсь, если у меня 5 проектов, а в одном из них 1,5 Гб PDF файлов)? Просто в Assistant OpenAi уже есть инструмент Retrival - он вроде как для этого и создан, и действительно экономит деньги, в отличии от нарезок на Чанки и Веторные базы... Но я пока не дошёл о него.
Установил на VPS, в проекте несколько докер контейнеров и несколько приложений Node.js рабатают параллельно. На 4 ГБ ОЗУ не работает, на 8 кое-как, лучше 16 и больше. Проц, диск по желанию.
Вроде прикольно с одной стороны, с другой у Open AI есть GPTs и возможность настроить загрузку кастомных данных прямо в интерфейсе Open AI, и уже обращаться к этим данным сразу в Open AI минуя костыли с векторными бд Flowise и прочими радостями жизни... Расходы на api не меняются в такой истории... Тогда зачем нужен такой сервак?
Свобода действий. Автоматизация сбора данных, хранение чатов с пользователями и дальнейшее обучение на них же. Хотя бы это. Ну а основная причина - насколько я помню - у GPTS то ли порезаный API, то ли его вообще нет.
API у gpts вроде как функция есть, но пока не работает. Если нужен gpts через api, то плиз старыми методами. Но и там можно файлы грузить. По поводу хранения чатов, хм... надо поюзать, но по моему опыту, все saas решения не стремятся хранить данные больше 1-6 месяцев. Спасибо за ответ и видео (=
На виндовсе. Тема отличная три месяца тому вертел эту программу.. все установил снял ограничения все работало КРОМЕ ведерка для данных не подгружало мою б/д😅
А-а-а-! Всё пропало! Репозиторий databerry на гите пустой! Скиньте плиз ссылку на zip. Или чего делать теперь? П.С. куда-то пропал мой предыдущий комент. Наверное потому что он был с ссылкой. Хоть и ссылка была на репозиторий databerry
@@thelookin8237 Я не очень шарю в гите. Правильно ли я понимаю, что в форках народ свои изменения вносит и это может быть не айс? И если я нашёл форк, который «Created last month», «Never updated» то это скорее всего самый свежий и в оригинальном виде?
я попробовал развернуть на сервере ubuntu 22 tls, и на этапе регистрации при нажатии кнопки sign in меня редиректит на https и запрос не уходит на mail сервер, сталкивался кто с такой проблемой?
Да, в том месте по IP адресу не получается войти. Нужно или домен прикрутить и к нему обращаться или у себя локально в hosts добавить IP сервера localhost, и по нему заходить. Если использовать Visual Ctudio Code как в видео, и подключиться к серверу по SSH, то студия сама порт 300 пробрасывает на localhost:3000
нашел где в коде это можно исправить /apps/lp/app/api/auth/[...nextauth]/route.ts const protocol = !req.headers.host?.includes('localhost') && (req.headers['x-forwarded-proto'] || (req?.connection as any)?.encrypted) ? 'https' // тут можно временно заменить на http : 'http';
Автор признайся, сценарий к ролику написал для тебя AI? Объективно, не все зрители программисты, есть варианты работы с АИ без потребности залезать в код, 2. 15:31 "у меня создано, вы можете сами создать" лень родилась вперед человека, если ты учишь людей учи всему, 3. Докер помимо скачки еще и нужно настраивать, в курсе же да? А где скачивать, что настроить так, чтобы работало именно как у тебя, неясно Вердикт, видео было сделано либо для галочки, либо для себя чтоб не забыть, но никак не для людей
что бы не делал, пишет нет файла cannot read docker-compose.app.yml хотя и правда его в папке docker нету качал версию с гита как у вас на видео, все равно не запустилось
Привет ! Спасибо за видео. БЫло бы неплохо показать как подключить это к локальной ЛЛМ типо олама или LMStudio . Если будет такое видео будет круто!
если я правильно понимаю и оно использует RAG для поиска по загруженному документу , то проще llama-index установить, одна команда в терминале и 4 строки кода. никаких танцев с бубном не надо
100% какой офер инжиниринг
Это круто, подписался, лайк поставил , но пошел искать дальше, как развернуть полностью локальную систему. Спасибо!
после pnpm dev ----> выдает ошибку
service "redis-ui" can't be used with `extends` as it declare `depends_on`
ELIFECYCLE Command failed with exit code 15.
WARN Local package.json exists, but node_modules missing, did you mean to install?
мега крутое видео, все четко и понятно, но кто делал деплой на сервере? выдает 404 при запуске, при чем мейл и прочие сервисы работают исправно
спасибо тебе. наконец то установил.
еще нужна база куда прописывается пользователь которого мы зарегили. нужен продукт который мы ему "продали" и новый уровень доступа для него чтобы стать энтерпрайзом со 100 агентами
это уже скорее какая-то веб часть, она с самой нейронкой и прочим никак не связана...
Спасиьбо! Какого размера БД можно грузить ? И кажется репозиторий куда-то пропал, там смайлик - ракета.
А с локальной llama его можно?
Ухххх,это было хорошо
Ну и зачем мне нужно обучать чужую нейронку? Мне за это платить будут?
Молодец! А смоешь так же установить openAI на свой комп?, его код открыт и есть в GIT.
Проще поставить gpt4all и RAG и локальные модели и gpt4, 3.5 по api, если локалки апи поддерживают там же есть сервер для подключения к локальной модели через апи и многое другое. Никаких танцев с бубном, запустил ехе все установится и впуть
Круто, а есть ли возможность подгрузить данные и общаться через api, или только интерфейс?
А это действительно экономит токены (или я на api openai разорюсь, если у меня 5 проектов, а в одном из них 1,5 Гб PDF файлов)? Просто в Assistant OpenAi уже есть инструмент Retrival - он вроде как для этого и создан, и действительно экономит деньги, в отличии от нарезок на Чанки и Веторные базы... Но я пока не дошёл о него.
Ребятушки, у кого получилось можете отписаться? А то есть проблемы.
И чем он от обычного асистента chatGPT отличается? Там так же можно подгружать свою базу данных.
Вы правы. С выходом ChatGPT 4o данное видео резко утратило свою актуальность )
@@thelookin8237 Автор, а вы можете поделиться своим репозиторием для данной штуки?
Retrival в Ассистентах OpenAI - тарифицируется за мегабайты, а не токены. Должно быть дешевле чем чанки и векторы. Кто проверял?
Если оплачивать chatgpt, то проще подключать свои данные прямо из кода =)
Объясните, пожалуйста, что вы имеете в виду?
Интересно! А на VPS это можно установить? Какой нужен конфиг сервера?
Установил на VPS, в проекте несколько докер контейнеров и несколько приложений Node.js рабатают параллельно. На 4 ГБ ОЗУ не работает, на 8 кое-как, лучше 16 и больше. Проц, диск по желанию.
@@ОлегБарамыков Олег, поделись как ты развернул проект на VPS
Вроде прикольно с одной стороны, с другой у Open AI есть GPTs и возможность настроить загрузку кастомных данных прямо в интерфейсе Open AI, и уже обращаться к этим данным сразу в Open AI минуя костыли с векторными бд Flowise и прочими радостями жизни...
Расходы на api не меняются в такой истории... Тогда зачем нужен такой сервак?
Свобода действий. Автоматизация сбора данных, хранение чатов с пользователями и дальнейшее обучение на них же. Хотя бы это. Ну а основная причина - насколько я помню - у GPTS то ли порезаный API, то ли его вообще нет.
@@thelookin8237вот бы полноценную версию сервера сделать на локальном компьютере, вообще пушка была бы.
API у gpts вроде как функция есть, но пока не работает. Если нужен gpts через api, то плиз старыми методами. Но и там можно файлы грузить. По поводу хранения чатов, хм... надо поюзать, но по моему опыту, все saas решения не стремятся хранить данные больше 1-6 месяцев. Спасибо за ответ и видео (=
привет. на github нет файлов, может быть, что их удалили?
есть копии
А это не взлом ? Почему репозиторий в открытом доступе ?
Зачем если есть функции
Что только на мак, для винды не?
К сожалению только для мака. Если не получается установить на Windows - лайк этому сообщению - попытаюсь разобраться и записать видео.
На Винде еще не сделали гайд?@@thelookin8237
а на ubuntu можно?@@thelookin8237
@@thelookin8237на линукс убунту можно?
На виндовсе.
Тема отличная три месяца тому вертел эту программу.. все установил снял ограничения все работало КРОМЕ ведерка для данных не подгружало мою б/д😅
А-а-а-! Всё пропало! Репозиторий databerry на гите пустой! Скиньте плиз ссылку на zip. Или чего делать теперь?
П.С. куда-то пропал мой предыдущий комент. Наверное потому что он был с ссылкой. Хоть и ссылка была на репозиторий databerry
Действительно. Можете попробовать один из форков этого проекта - там их аж 400. Ссылку оставил в описании. Отпишитесь как пройдет :)
@@thelookin8237 Я не очень шарю в гите. Правильно ли я понимаю, что в форках народ свои изменения вносит и это может быть не айс?
И если я нашёл форк, который «Created last month», «Never updated» то это скорее всего самый свежий и в оригинальном виде?
я попробовал развернуть на сервере ubuntu 22 tls, и на этапе регистрации при нажатии кнопки sign in меня редиректит на https и запрос не уходит на mail сервер, сталкивался кто с такой проблемой?
получилось в итоге развернуть?
Да, в том месте по IP адресу не получается войти. Нужно или домен прикрутить и к нему обращаться или у себя локально в hosts добавить IP сервера localhost, и по нему заходить. Если использовать Visual Ctudio Code как в видео, и подключиться к серверу по SSH, то студия сама порт 300 пробрасывает на localhost:3000
нашел где в коде это можно исправить /apps/lp/app/api/auth/[...nextauth]/route.ts
const protocol =
!req.headers.host?.includes('localhost') &&
(req.headers['x-forwarded-proto'] || (req?.connection as any)?.encrypted)
? 'https' // тут можно временно заменить на http
: 'http';
Автор признайся, сценарий к ролику написал для тебя AI? Объективно, не все зрители программисты, есть варианты работы с АИ без потребности залезать в код, 2. 15:31 "у меня создано, вы можете сами создать" лень родилась вперед человека, если ты учишь людей учи всему, 3. Докер помимо скачки еще и нужно настраивать, в курсе же да? А где скачивать, что настроить так, чтобы работало именно как у тебя, неясно
Вердикт, видео было сделано либо для галочки, либо для себя чтоб не забыть, но никак не для людей
что бы не делал, пишет нет файла
cannot read docker-compose.app.yml
хотя и правда его в папке docker нету
качал версию с гита как у вас на видео, все равно не запустилось
то же самая ошибка уже 4 день с ней мучаюсь
не могу одолеть!
Была такая же ошибка, помогло обновление версии Docker на последнюю из самого приложения докера