100% ЛОКАЛЬНЫЙ и ПРИВАТНЫЙ GPT - PrivateGPT

Поделиться
HTML-код
  • Опубликовано: 11 сен 2024

Комментарии • 296

  • @ATtiny13a-PU
    @ATtiny13a-PU 8 месяцев назад +77

    Подписался и поставил лайк хотябы просто потому что без музыки на фоне с хорошо поставленной речью и заготовленной структурой видео человек смог рассказать всё что требовалось по данной теме.

  • @WikiModels
    @WikiModels 8 месяцев назад +13

    Приятно видеть образованного человека, говорящего по теме! Пожалуйста, продолжайте в том же духе! Отличный обзор!

  • @innerjoinr
    @innerjoinr 8 месяцев назад +7

    Спасибо за столь подробный гайд по установке! Столкнулся в проблемой по работе с qdrant, но быстро нашёл решение поменять на chroma. Всё остальное прошло без проблем. И да, запускал на Ubuntu 22.03 под WSL2. Лайк и подписка!

  • @LYT101
    @LYT101 8 месяцев назад +16

    Всё получилось, ждём дальнейшего развития.
    Я, хотел бы к этой модели присоединить заметки из Obsidian они в формате md маркдаун, и хотел бы чтоб я делал заметки так же в Обсидиане, а запросы в этом локальном чате. Было бы круто.

    • @adultart
      @adultart 8 месяцев назад +1

      Тоже сразу об этом подумал =)

    • @ph08nyx
      @ph08nyx 8 месяцев назад

      А вдруг gpt+obsidian=сильный ИИ... куды тогда бечь? Шутка.

    • @Ardbot
      @Ardbot 8 месяцев назад

      Странно, но как только я начал изучать obsidian, то попалось это видео.думаю, это не совпадение

    • @dmitryd6268
      @dmitryd6268 4 месяца назад

      Не совпадение ИИ уже подсказывает человеку как и что делать, чтобы полностью заменить собой человечество. (Сарказм, если что)

  • @urmatallatra
    @urmatallatra 9 месяцев назад +16

    Видео класс. Можешь показать как обучать на своих данных, допустим базу подключить офисную

  • @user-iz9sj1nn5q
    @user-iz9sj1nn5q 8 месяцев назад +6

    4:43 Для MacOS (пришлось искать самому):
    1. Предварительно нужно выйти в корневую попку пользователя: cd ~
    2. Установка и создание виртуального окружения: python3 -m venv localGPT
    3. Активация виртуального окружения: source localGPT/bin/activate
    В дальнейшем вместо "py" использовать "python3"

    • @user-gw2bb8br2u
      @user-gw2bb8br2u 4 дня назад

      Windows и mac можно выбросить, винда сосет оперативки и валит процессор, у маков железо слабее чем у х86 систем.

  • @ZloyRus
    @ZloyRus 9 месяцев назад +4

    Друг! Спасибо тебе! Я написал Prompt и PrivateGPT уже во всю помогает мне с моими задачами в коде. Спасибо!

    • @ibadoffs
      @ibadoffs 6 месяцев назад

      Можно поподробнее, как писать этот промт, что бы помогал с кодом. Спасибо

  • @intrigazTV
    @intrigazTV 9 месяцев назад +7

    Ничего себе размах. Крутые планы. Будет интересно посмотреть что из этого получится. Удачи!

  • @Jonnie_Rich
    @Jonnie_Rich 9 месяцев назад +4

    Thank you! The other strategies with other youtuber's had not worked previously until I followed yours.

  • @LuaNaZakaz
    @LuaNaZakaz 9 месяцев назад +50

    Ждём видео с тестами скармливания файлов и работы с ними

  • @sergoorg1040
    @sergoorg1040 9 месяцев назад +13

    Человечище, отдельный респект за цу по работе с репозиторием!

  • @user-sh1ro8bg5l
    @user-sh1ro8bg5l 8 месяцев назад +7

    Очень информативное и хорошее видео! Большое спасибо автору. Очень интересно, что будет дальше

  • @Trizhek
    @Trizhek Месяц назад +1

    Спасибо, было круто. Очень интересно про обучение модели на своих данных

  • @YokoSakh
    @YokoSakh 8 месяцев назад +6

    Это LLAMA и Mistral, обе по 7B параметров. Попробуй Phi-2 от Микрософт, она выигрывает по бенчмаркам. У маленьких моделей размер контекста не очень тоже. Это надо будет учитывать при разработке.

  • @denismarchall8673
    @denismarchall8673 8 месяцев назад +1

    С таким интересом я видос еще не смотрел) спасибо, взял на вооружение

  • @muzh83
    @muzh83 8 месяцев назад +2

    очень интересно! надеюсь все получится! удачи!

  • @ui3er
    @ui3er 8 месяцев назад +10

    Привет, а можешь сделать урок, как свою нейронку обучать, именно в этом пакете? К примеру после обучения свою модель подгрузить и т.д. Спасибо

    • @user-rv2ri2qu1x
      @user-rv2ri2qu1x 8 месяцев назад +1

      кишка тонка у твоего компа для обучения, только максимум на gpt2.

  • @The_Dream_Person
    @The_Dream_Person 8 месяцев назад +1

    Круто! Ждем продолжения.

  • @bairshirapov3449
    @bairshirapov3449 9 месяцев назад +3

    Спасибо! Ждем след. вид. как загрузили свою базу знаний и каковы результаты.

  • @testcloud3404
    @testcloud3404 7 месяцев назад +2

    Неплохое руководство
    Есть путь проще - LM Studio

  • @РатиборКа
    @РатиборКа 5 месяцев назад

    Интересно, тоже полный ноль в программирование учусь на коленке, спасибо за инструкцию и "легкость языка". А Вы не пробывали сделать что-то подобное но уже на сервере в облаке, чтобы можно было зайти в "свой gpt" с любого устройства ?

  • @_profe_games3306
    @_profe_games3306 8 месяцев назад +4

    Сколько информации она способна принять для дообучения? Сколько токенов способна принять и сколько вернуть? И какого года у нее база данных?

  • @egorius
    @egorius 5 месяцев назад +1

    Сделал всё как написано, но на этапе poetry install --with ui возникает ошибка “Group(s) not found: ui (via --with)". Подскажите пожалуйста с чем это может быть связано. Спасибо

  • @TopsyPlay
    @TopsyPlay 6 месяцев назад +2

    poetry install --with ui не сработало до установки именно pip install poetry (без pipx)

  • @mylenefarmer8155
    @mylenefarmer8155 2 месяца назад +1

    Очень приятная грамотная речь.

  • @tacowilco7515
    @tacowilco7515 8 месяцев назад +3

    супер, спасибо
    можно завернуть всё в докер (если еще нет нет готового имиджа), что систему не мучать

  • @rrrreetreereerrerrrr
    @rrrreetreereerrerrrr 7 месяцев назад +2

    Целый день провозился с ошибкой No CUDA toolset found
    Solution:
    I copied the four files from C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.1\extras\visual_studio_integration\MSBuildExtensions
    And pasted into C:\Program Files\Microsoft Visual Studio\2022\Community\MSBuild\Microsoft\VC\v170\BuildCustomizations

  • @B00TC0RE
    @B00TC0RE 9 месяцев назад +4

    Искал что-то подобное. Надо попробовать.

    • @takethejunioroutofthelamp
      @takethejunioroutofthelamp  9 месяцев назад +1

      Вперед и успехов, расскажите о своем опыте тоже ради интереса)

  • @yllkk_936
    @yllkk_936 8 месяцев назад +4

    Спасибо за видео! хотелось бы узнать характеристики вашего ноутбука, в частности cpu, gpu

  • @Full-master
    @Full-master 8 месяцев назад +2

    Оно контекст быстро упускает из вида?

  • @intrigazTV
    @intrigazTV 9 месяцев назад +5

    А реально ли её дообучить на каких-то собственных доках? Например, скормить документацию по толком непроиндексированному в паблике движку.

  • @mixr00tka
    @mixr00tka 9 месяцев назад +6

    Русский язык оно поддерживает? Было бы интересно послушать как скармливали свои данные для обучения и что в итоге получилось.

    • @takethejunioroutofthelamp
      @takethejunioroutofthelamp  9 месяцев назад +5

      Он мультиязычный. Может даже переводить с английского на русский, грамматика немного хромает, но в целом годная штука)

  • @user-td5ux3cj6s
    @user-td5ux3cj6s 8 месяцев назад +1

    Огромное спасибо то что искал.

  • @airlow6784
    @airlow6784 6 месяцев назад

    Очень близко к тому что я ищу, спасибо, буду пробывать!

  • @vrdgtfurdiotrfhdd
    @vrdgtfurdiotrfhdd 7 месяцев назад

    Большое уважение за видос👍👍👍👍👍👍

  • @mylenefarmer8155
    @mylenefarmer8155 2 месяца назад +1

    Подписался. Спасибо!

  • @raphaelnevmyanov4757
    @raphaelnevmyanov4757 6 месяцев назад

    Спасибо Киану Ривз. Очень хорошее видео

  • @VladimirNerby
    @VladimirNerby 8 месяцев назад +4

    12:51 Ребят, это LLAMA

  • @Free-pp8mr
    @Free-pp8mr 8 месяцев назад +1

    Спасибо ! Очень ценная информация! Потому что немного напрягает эта вся хрень с маркетингом глобальных GPT и всей этой байды про генерацию картинок и аватарок, которые имеют негативную полезность.

  • @pashahous
    @pashahous 9 месяцев назад +7

    А какой минимальный объем памяти на GPU нужно? Какая у вас модель GPU?

  • @user-hm9in3dl8x
    @user-hm9in3dl8x 9 месяцев назад +1

    А не подписаться ли мне (подумал я)? И...подписался!😊Дело за малым: продолжайте!

  • @MaxB4
    @MaxB4 8 месяцев назад +2

    Под WSL2 не пробовали установить? Такие линуксовые вещи ставить под windows - много лишних телодвижений (powershell, vs минус build tools,..).

    • @takethejunioroutofthelamp
      @takethejunioroutofthelamp  8 месяцев назад

      На мак ставил другу, там довольно быстро встало, на линукс еще не пробовал

  • @samezarus
    @samezarus 9 месяцев назад +3

    Спасибо !

  • @Petr1978
    @Petr1978 9 месяцев назад +2

    Спасибо за труд!

  • @tikserziku
    @tikserziku 8 месяцев назад +1

    Ждем других видео. Тоже работаю над этой темой.

  • @mqst
    @mqst 8 месяцев назад +1

    Полезно, жду добавление своих файлов

  • @user-wb9tg6wj5y
    @user-wb9tg6wj5y 8 месяцев назад +2

    Здравствуйте. Никак не хочет устанавливаться llama-cpp-python. Пробовал и разные версии ставить. Ошибка.
    Тем не менее, подписался. С наступающим Новым Годом!
    P.S. Нашёл решение - нужно доустановить пакер C++ в Visual Studio 2022
    Но возникла ситуация, когда GPT работает лучше на процессоре ( i7-12650H), чем на видеокарте (MX 550) и я не знаю как вернуться к использованию CPU.

    • @alexanderselifonov119
      @alexanderselifonov119 8 месяцев назад +1

      MX550 слишком старая и бесполезна для ML задач. Минимальная видюха, насколько помню, Geforce 20-ой серии, и памяти на карте как можно больше, не менее 8ГБ (многие пишут, что кол-во памяти даже важнее свежести процессора, т.е. GF 3060 с 16ГБ лучше чем 4060 с 8ГБ. Откатиться на режим CPU в крайнем случае можно удалением и переустановкой с нуля, но скорее всего надо где-то один ключик в строке запуска поменять (найти нужный запускаемый файл с конфигом).

    • @АльбертИванов-ц4х
      @АльбертИванов-ц4х 8 месяцев назад

      @user-wb9tg6wj5y
      powershell
      $env:CMAKE_ARGS='-DLLAMA_CUBLAS=off'
      poetry run python -m pip install --force-reinstall --no-cache-dir llama-cpp-python
      exit

  • @haarc3125
    @haarc3125 8 месяцев назад +1

    В свое время купил видеокарту от AMD, давльно производительную, но как вижу сейчас в основом все локальные нейросети работают с CUDA, поддерки ROCm нет. Хотел бы узнать может ты знаешь похожую модель с поддержкой ROCm на Linux? Естсетвенно приходится использовать Linux, так как у WIndows нет поддрежи ROCm.

  • @diversitynone431
    @diversitynone431 8 месяцев назад +1

    Её можно натравить для обучения на форум в интернете и потом спрашивать по его материалам?

  • @Lucerbius
    @Lucerbius 9 месяцев назад +4

    Очень интересно. Давно думал о безинтернетном чат GPT. Непонятно только насколько старая версия чата.
    Громкость звука на видео иногда сильно возрастает. Ну и было бы неплохо акать поменьше, раз в сто.

    • @takethejunioroutofthelamp
      @takethejunioroutofthelamp  9 месяцев назад +4

      ахах, спасибо за ценные советы) Учту обязательно!

    • @Justas-jf9hk
      @Justas-jf9hk 8 месяцев назад

      А ведь уже должны существовать нейросети, которые убирают дефекты речи, например аканье или картавость

  • @worldlab9813
    @worldlab9813 8 месяцев назад +1

    Круть! Тоже хочу дома своего Джарвеса...

    • @takethejunioroutofthelamp
      @takethejunioroutofthelamp  8 месяцев назад

      Ахаха)) Да, это прям реально Джарвис на минималках

  • @user-sq7ky5bm1o
    @user-sq7ky5bm1o 3 месяца назад

    Как раз искал куда можно скормить внутренню документацию, чтобы потом через нейросеть делать поиск нужного

  • @sergiytvelectro5664
    @sergiytvelectro5664 9 месяцев назад +4

    Подробнее пожалуйста о данной модели, есть Русский язык, как она с документами работает и так далее.
    Благодарен за откровенность о трудностях с которыми вы сталкивались и ответами на эти трудности.
    С сам пытался локально установить несколько моделей но заработала только одна (из шести) это Alpaca electron а модель конкретно не скажу нет сейчас такой возможности. иесли заинтересовао то напишу точно модель. 😊

    • @takethejunioroutofthelamp
      @takethejunioroutofthelamp  9 месяцев назад +1

      Да, есть русский язык, но в приоритете английский конечно де

    • @user-bs4yb6me3k
      @user-bs4yb6me3k 8 месяцев назад

      @@takethejunioroutofthelamp а можно работать через обычный браузер на запросах?

    • @АльбертИванов-ц4х
      @АльбертИванов-ц4х 8 месяцев назад

      @@user-bs4yb6me3k
      вопрос:
      что написано в документе х ?
      ответ:
      Hello! I'm an assistant designed to help answer questions in English. If you have a question or topic you'd like assistance with, please feel free to ask in English and I will
      так что с русским она не работает.

  • @adelesabr
    @adelesabr 8 месяцев назад +2

    познавательно😊

  • @Noble_Don_master
    @Noble_Don_master 7 месяцев назад

    Спасибо было интересно.

  • @govkillplay6929
    @govkillplay6929 7 месяцев назад +1

    Делал всё как на видео но столкнулся с ошибкой. Как её исправить?
    (localGPT) C:\Users\Serega\privateGPT>poetry install --with ui
    "poetry" не является внутренней или внешней
    командой, исполняемой программой или пакетным файлом.

    • @user-on4th5vf4y
      @user-on4th5vf4y 7 месяцев назад

      попробуйте удалить весь python и anaconda на компьютере и переустановите. У меня сработало

  • @NeBomj
    @NeBomj 8 месяцев назад +2

    Вопрос - как эта LLM в сравнении с другими LLM с открытым кодом?
    stableLM, h2oGPT, Open Assistant, RWKV, еще есть LLAMA и alpaca

  • @LYT101
    @LYT101 8 месяцев назад +1

    Не могу выполнить команду poetry install --with ui пишет: poetry : Имя "poetry" не распознано как имя командлета, функции, файла сценария или выполняемой программы. Проверьте пр
    авильность написания имени, а также наличие и правильность пути, после чего повторите попытку.
    строка:1 знак:1
    + poetry install --with ui
    + ~~~~~~
    + CategoryInfo : ObjectNotFound: (poetry:String) [], CommandNotFoundException
    + FullyQualifiedErrorId : CommandNotFoundException

    • @ImQugurun
      @ImQugurun 8 месяцев назад +2

      если память не изменяет нужно выполнить pipx ensurepath чтобы poetry стало доступно, перезапустить окно командной строки и выполнять уже дальше. Или как ниже посоветовали установить так python -m pip install poetry

  • @url4573
    @url4573 8 месяцев назад +1

    То есть это считай свой чат гпт без использования платного апи которого ты сам обучаешь? А можно его обучить и поставить на сервер без 5 гб и чтобы он отвечал людям по определнной теме?

  • @Calico_Calicos
    @Calico_Calicos 8 месяцев назад +2

    FreedomGPT работает на кпу так же быстро.

  • @MrQuazar
    @MrQuazar 8 месяцев назад +1

    из всех замечаний - очень тихий звук, но периодически он прыгает на очень высокий уровень, к примеру среднее значение звукового индикатора 20% достаточно для 99% видео на вашем пришлось выкрутить на 80!

  • @sai_404_1
    @sai_404_1 8 месяцев назад +1

    Здравствуйте, как можно заменить используемую модель для общения на свою? Хотел бы использовать свою модель для экспериментов

  • @localixdots9698
    @localixdots9698 8 месяцев назад +1

    Скажите, а зачем столько приседаний когда спокойно можно скачать LM Studio скачать нужную модель и просто пользоваться без лишних телодвижений?

    • @takethejunioroutofthelamp
      @takethejunioroutofthelamp  8 месяцев назад +1

      Это первое, что мне попалось из того, чему можно было скормить какой нибудь свой документ и опрашивать вновь обученную модель

    • @localixdots9698
      @localixdots9698 8 месяцев назад

      @@takethejunioroutofthelamp в лм я правда не разбирался как свою модель сделать но она поддерживает много разных форматов. Так что собрать свою модель и просто указать файлик я думаю не проблема. Кажется больше сложностей обучить нейронку. Будет видео по этой теме?

  • @Karpenko-ed4xl
    @Karpenko-ed4xl 8 месяцев назад

    Здравствуйте. Спасибо, полезно 🙂🙂 Можно узнать ваши характеристики пк: процессор, видеокарта?

  • @cashriser
    @cashriser 7 месяцев назад +1

    Это не GPT, а как я понял лама это. А хорошие вещи ламой или ланью не назовут
    😀

  • @StanislavEremeev
    @StanislavEremeev 8 месяцев назад +1

    Если у кого-то не запускается, то проверьте, что бы физическое имя папки совпадало с именем в скрипте. У меня папка называлась PrivateGPT, но в скрипте папка вызывалась privategpt, я 3 часа никак не мог понять. Оказывается скрипт чувствителен к регистру!!
    Если gpt скормить файл на русском языке то он его не обработает( модель обрабатывает только английский

  • @homuchoghoma6789
    @homuchoghoma6789 8 месяцев назад +2

    Что , уже ? А я от очень компетентного дядьки вчера слышал что он обещает полноценный автономный джипити чат на смартфоне без интернета к концу года . Там речь шла о том что это ужмется до 2 гигабайт.
    Вот этот уважаемый человек ruclips.net/video/xOr80pCpd0k/видео.htmlsi=bxkMUFYFFqBf3ZSf

  • @ctf59
    @ctf59 28 дней назад

    Молодец, но мало примеров его работы, как он кодит в целом?

  • @user-uo9xm3vn1w
    @user-uo9xm3vn1w 7 месяцев назад

    Здравствуйте. Подскажите чисто теоритически с помощью нейросетей возможно создать предположим простой стриминговый сервис на блокчейне ?

  • @ph08nyx
    @ph08nyx 8 месяцев назад +2

    Давно мечтаю установить для личного использования.. Типа собственный ИИ - ассистент. Но чёт заморочено слишком.. Как всегда с этими линуксоидными проектами.. 100500 зависимостей, 100500 пакетов, 100500 конфликтов... А на какой конкретно видеокарте запускался gpt в этом видео?

    • @camelCased
      @camelCased 8 месяцев назад +1

      RTX 3070 8Gb

  • @nizkoorbitalnaya_pushka
    @nizkoorbitalnaya_pushka 5 месяцев назад

    На Windows поставьте Windows Studio Build tools. Без них llama_cpp_python не собирался, возможно и др пакеты

  • @user-bf8ip1yx6j
    @user-bf8ip1yx6j 8 месяцев назад +1

    А как установить все это на Linux? Мне кажется, было бы очень круто, если бы вы записали такой обзор, наверняка очень многих эта тема заинтересует)

    • @holy_moleys
      @holy_moleys 7 месяцев назад

      в чем разница то

  • @oldexe7035
    @oldexe7035 8 месяцев назад +1

    жду продолжения с добучением.

  • @vladoman29
    @vladoman29 7 месяцев назад

    Спасибо, еще хотелось бы что-то вроде топа моделей увидеть, какие локальные модели ближе всего к гпт4 можно использовать? Я бы хотел максимально нагрузить свое железо (64gb ddr5, gpu: 7800xt с 16гб видеопамяти)

    • @user-yg5xm3ct7p
      @user-yg5xm3ct7p 2 месяца назад

      Llama3 8b instruct вам нужна. 16гб видеопамяти позволит использовать модель в исходном качестве, это хорошо, так как сжатие сильно шакалит способности модели в русском языке.

  • @dagaric2
    @dagaric2 7 месяцев назад

    ясен пень тяжеленькие штуки надо на питоне е#енить, это же прекрасно

  • @Itgeekpro
    @Itgeekpro 9 месяцев назад +2

    Спасибо интересно, а какая конкретно модель используется? LLama?

  • @streamsnipe-404
    @streamsnipe-404 10 дней назад

    а почему вы просто не используете LM Studio?

  • @BobiBobObana
    @BobiBobObana 8 месяцев назад

    Есть модель для С++? Просто хочу понять есть ли смысл его качать. Например он может написать сортировку с помощью итераторов?

  • @ARKIsaa
    @ARKIsaa 8 месяцев назад +2

    Кто эту нейросетку создал и насколько она хуже gpt от openai?

    • @psiterror999
      @psiterror999 7 месяцев назад

      ru.m.wikipedia.org/wiki/LLaMA

  • @romanmed9035
    @romanmed9035 8 месяцев назад +1

    пробую за автором повторять. установлен вин10-64. возможно у автора что-то еще было установлено. у меня ошибка на этапе установки библиотек Installing llama-cpp-python (0.2.23): Failed. даже отдельно устанавливать пробовал но все равно ошибка CMake build failed. и даже vc2017 установил.

    • @commandergdi9795
      @commandergdi9795 7 месяцев назад

      PrivateGPT пункт Troubleshooting: C++ Compiler. Автор поленился для простых пользователей, сделав так если у тебя были все эти программы.

    • @romanmed9035
      @romanmed9035 7 месяцев назад

      @@commandergdi9795 спасибо, но я доустановил все и ничего не помогло. возможно все же не все, но что автор упоминал и что оно потом само предлагало, включая распространяемый пакет вижуал си.

  • @LapshinLAB
    @LapshinLAB 8 месяцев назад +1

    Всё ставится там где есть git poetry, pipx и так далее, а куда их ставить, в какие папки хз. И потом ничего не работает

  • @chak5chukcha245
    @chak5chukcha245 7 месяцев назад +2

    Здравствуйте! При использовании команды "poetry install --with local" у меня возникает вот такая ошибка : at C:\AiWork\localGPT\Lib\site-packages\poetry\installation\chef.py:164 in _prepare
    160│
    161│ error = ChefBuildError("

    ".join(message_parts))
    162│
    163│ if error is not None:
    → 164│ raise error from None
    165│
    166│ return path
    167│
    168│ def _prepare_sdist(self, archive: Path, destination: Path | None = None) -> Path:
    Note: This error originates from the build backend, and is likely not a problem with poetry but with llama-cpp-python (0.2.23) not supporting PEP 517 builds. You can verify this by running 'pip wheel --no-cache-dir --use-pep517 "llama-cpp-python (==0.2.23)"'.
    А как решить не заю, помогите пожалуйста!

  • @AHToHK
    @AHToHK 9 месяцев назад +1

    Фрагмент ок. 11:00, где GPT на _Hey_ отвечает _Hello_ - это, похоже, работает "заглушка", а не реальная LLM.
    В документации по этому поводу сказано: _You should see a Gradio UI configured with a mock LLM that will echo back the input_

  • @pianoman1558
    @pianoman1558 7 месяцев назад

    расскажите , плиз, об установке на локальную машину AUTOGPT. Можно его замкнуть не на API ChatGPT, а на данную модель, установленную локально? Так чтобы получился полностью автономный агент.

  • @Danekzaryazhennyy
    @Danekzaryazhennyy 8 месяцев назад +1

    У меня poetry в командой строке после всех действий пишет, что не является внутренней или внешней командой, исполняемой программой или пакетным файлом.

    • @takethejunioroutofthelamp
      @takethejunioroutofthelamp  8 месяцев назад

      Такая ошибка говорит о том, что poetry не добавлен в path. Решения два: первое обращаться к poetry полным путем, второе - загуглить как можно добавить poetry в path

    • @Danekzaryazhennyy
      @Danekzaryazhennyy 8 месяцев назад +2

      @@takethejunioroutofthelamp я добавлял сразу в path потом самостоятельно ибо знаю эту ошибку, но это не помогло, помогла команда python -m pip install poetry

    • @ford_one
      @ford_one 8 месяцев назад

      @@Danekzaryazhennyyкрасава, пол часа протыркался, ладно хоть в комменты решил залезть, спасибо

  • @romanmed9035
    @romanmed9035 8 месяцев назад +1

    а не отправляет ли оно разработчикам что-то или контролируемая разработчиками?

  • @avatarcybertronics2584
    @avatarcybertronics2584 5 месяцев назад

    Вам нужно посмотреть в сторону FractalGPT, потому что обычный RAG порождает неустранимые галлюцинации при ответах на вопросы в рандомных местах, особенно это непредсказуемо на больших объемах, сложных структурах текста, законах, документации, и пр

  • @darksun9133
    @darksun9133 8 месяцев назад

    Автор видео :
    Всем привет , подписчики канала
    Я , открывший канал впервые , не понимая ещё стоит ли подписываться :
    Ну ок , пошёл я нахрен , зачем меня приветствовать , какого-то ноунейма .
    (Душнилово ON)

  • @farmpk8214
    @farmpk8214 8 месяцев назад +1

    ну ты бы изначально с хаггин фэйс бы дал модель... а так интересно было вроде.. палец вверх

    • @farmpk8214
      @farmpk8214 8 месяцев назад

      если будет разбор на разных LLM с их требовательностью дам ещё))

  • @1984tourist
    @1984tourist 8 месяцев назад

    Боюсь, что главный вопрос тут - а зачем вообще повышать частоты? Задач, где не хватает текущих частот не просто мало, а очень-очень мало. Попробуй найди еще такую. Оверклокинг потому и потерял популярность, что публика перестала понимать, зачем это нужно. Вот то ли дело было во времена FX...
    Сейчас же у меня вон проц по бумагам может до 4,7ГГц, но работает на 3,8ГГц. А потому что я залочил частоты ему - 25% мощности не такая и большая потеря, а вот нагрев, шум охлаждения и износ железа - куда критичнее.

    • @1984tourist
      @1984tourist 8 месяцев назад

      @@HackingPrograms
      Погоди лет 50, тогда посмотрим.

    • @fcockroach
      @fcockroach 8 месяцев назад

      @@HackingPrograms какие 5 лет? 11900k вышел в марте 2021 года, трех лет еще не прошло.🙂

  • @KurskikhA
    @KurskikhA 8 месяцев назад +1

    Привет! Какую версию CUDA вы ставили? У меня работает только на CPU, команда переключения на gpu заканчивается ошибкой что llamacpp не может найти путь к cuda

    • @takethejunioroutofthelamp
      @takethejunioroutofthelamp  8 месяцев назад +2

      Жаль, заметно медленнее работает?
      В видео было показано как я устанавливал CUDA, найдите и посмотрите пожалуйста
      Если поделитесь текстом ошибки или скрином, было бы легче вам помочь

    • @user-oi3vx2ul1f
      @user-oi3vx2ul1f 4 месяца назад

      Та програмируй на процесоре, не исполняй 😂😂😂

  • @user-vg6pj8gy4p
    @user-vg6pj8gy4p 9 месяцев назад +2

    Те кто шарят, скачайте репозиторий, скормите архитектуру АРМ нейронке, у меня есть идея но реализовать я еë не могу, не реализованная идея - мертвая идея.

  • @tokosotomimo14
    @tokosotomimo14 6 месяцев назад

    не работает.
    ошибка
    note: This error originates from a subprocess, and is likely not a problem with pip.
    ERROR: Failed building wheel for llama-cpp-python
    Failed to build llama-cpp-python
    ERROR: Could not build wheels for llama-cpp-python, which is required to install pyproject.toml-based projects

  • @dead-maxim
    @dead-maxim 8 месяцев назад +1

    Так а чем это лучше text-generation-webui так и не понял. Чем то же он должен быть лучше, раз ты на него обратил внимание.

    • @takethejunioroutofthelamp
      @takethejunioroutofthelamp  8 месяцев назад

      Я не сравнивал честно говоря, просто взял первое что понравилось и выдал.
      Если есть желание сравнить, был бы рад увидеть результаты)

  • @tokosotomimo14
    @tokosotomimo14 6 месяцев назад

    не работает. скачал все библиотеки все зависимости cuda и тд.
    и на самой последеней команде ошибка
    note: This error originates from a subprocess, and is likely not a problem with pip.
    ERROR: Failed building wheel for llama-cpp-python
    Failed to build llama-cpp-python
    ERROR: Could not build wheels for llama-cpp-python, which is required to install pyproject.toml-based projects
    потратил кучу времени, переутснавливал 2 раза но эта ошибка так и не решилась

  • @Fillmore634b
    @Fillmore634b 8 месяцев назад +1

    давно мучает вопрос, хочу узнать - сгорит ли видеокарта или компьютер если много пользоваться таким локальным чат гпт? Мне кажется это огромная нагрузка на комп, в железе не разбираюсь.

    • @ISinicyn
      @ISinicyn 8 месяцев назад

      Люди майнили годами 24/7 на видео картах, а тут она вообще ничего не почувствует.

    • @Fillmore634b
      @Fillmore634b 8 месяцев назад

      @@ISinicyn да нифига, читал после майнинга карта убитая в хлам (раньше такие продавали на авито после майнинга)

    • @ISinicyn
      @ISinicyn 8 месяцев назад

      @@Fillmore634b еще раз майнили 24/7 годами, тут же нагрузка грубо 10 минут в сутки

  • @Danekzaryazhennyy
    @Danekzaryazhennyy 9 месяцев назад +1

    При отправки сообщения чату jpt по ссылке localhosta у меня выдаёт след. проблему: error
    Collection make_this_parameterizable_per_api_call not found Всё делал строго по инструкции и ошибок выполняя команды не было

    • @takethejunioroutofthelamp
      @takethejunioroutofthelamp  9 месяцев назад

      Удалось исправить? Или все еще так же?

    • @Danekzaryazhennyy
      @Danekzaryazhennyy 9 месяцев назад

      @@takethejunioroutofthelamp не удалось

    • @arterium2564
      @arterium2564 8 месяцев назад

      @@Danekzaryazhennyy Не нашли решения? Ошибка та же

    • @Danekzaryazhennyy
      @Danekzaryazhennyy 8 месяцев назад

      @@arterium2564 нет(

    • @arterium2564
      @arterium2564 8 месяцев назад +1

      @@Danekzaryazhennyy Ошибка возникает если выбрать модель анализа документа (самую левую или центральную) не подгрузив ни одного документа

  • @rusorder7191
    @rusorder7191 9 месяцев назад +1

    Установил, с плясками с бубном.. остановился на том что выдает ошибку если дать ему файл doc : 'charmap' codec can't decode byte 0x98 in position 790: character maps to не понимает кодировку .

    • @takethejunioroutofthelamp
      @takethejunioroutofthelamp  9 месяцев назад

      Тоже наткнулся на такое, когда собрал текст в интернете и закинул в текстовый файл. А вот pdf съел, также съел текстовый файл с кодовой базой

    • @rusorder7191
      @rusorder7191 9 месяцев назад

      @@takethejunioroutofthelamp да пдф открылся, но я так и не понял как он этот файл обрабатывает ?

    • @user-ll3mn2li7i
      @user-ll3mn2li7i 9 месяцев назад

      ​@@rusorder7191если ты зайдешь в файл settings.yaml увидишь что у тебя помимо LLM модели, также подключена модель embeddings, твой текст делится на чанки, оцифровуется и добавляется в векторную базу chroma (или какая там стоит по дефолту) и потом когда ты задаешь вопрос LLM модели алгоритм +- повторяется и находится максимально релевантный ответ по твоему вопросу.
      Если в файле 1.txt было написано что Ване 15 лет и он учится в 9 классе. После запроса в LLM - "Что ты знаешь о Ване", модель ответит тебе информацию из файла.
      В двух словах происходит вот так

  • @rrrreetreereerrerrrr
    @rrrreetreereerrerrrr 7 месяцев назад

    BLAS = 1 у меня показал но вот я вообще не ощутил прироста производительность карта 3050 - может какие то настройки еще нужны? у меня еще есть gpu на cpu - может он не тот юзает я хз

  • @user-on4th5vf4y
    @user-on4th5vf4y 7 месяцев назад

    Все делаю, по инструкции. Не получается, можете подсказать, в чем может быть проблема?