Создавай ИИ-агентов при помощи n8n локально: Llama 3.1, Gemma, Phi 3,5

Поделиться
HTML-код
  • Опубликовано: 21 ноя 2024

Комментарии • 113

  • @ProdAdvice
    @ProdAdvice  2 месяца назад +4

    ⭐⭐⭐ ПОЛЕЗНЫЕ ССЫЛКИ ИЗ РОЛИКА - mnlp.cc/mini?domain=how2ai&id=8

    • @tsusima
      @tsusima Месяц назад

      ссылка не рабочая ((

  • @dolotube
    @dolotube 2 месяца назад +73

    Если приходится задействовать гугл-консоль, Pinecone или еще кого-то на сороне, то это уже как бы выходит за рамки локального решения.

  • @Вячеслав-б8е9щ
    @Вячеслав-б8е9щ 2 месяца назад +17

    Ничего не понятно, но очень интересно....

  • @Kurchaviy-sz5uw
    @Kurchaviy-sz5uw 2 месяца назад +6

    Только что хотел найти подобное видео, и мне в реках выдало этот видос, видимо ютуб прочитал мои мысли, спасибо за видео!

  • @RUSSIAZOV-1
    @RUSSIAZOV-1 2 месяца назад +4

    Он просто скипает в гайде самые важные аспекты при настройки платформы, просто на кайфе чел

  • @valeryreshalkyn7041
    @valeryreshalkyn7041 2 месяца назад +2

    Круто, Начал смотреть второе твоё вдиео, очень рад что у нас появился новый техноблогер про ноукод. Благодарен за то что ты делаешь. Контент пушка! продолжай пилить =) Кому непонятно смотрите повторно =)

  • @МаксимМедведев-ф9м
    @МаксимМедведев-ф9м Месяц назад

    перспективное решение. особенно для малого бизнеса работающего с большой товарной номенклатурой или иными вариантами больших массивов инфы

  • @360millimetr
    @360millimetr 2 месяца назад +1

    Ничего не понятно, но очень интересно😊

  • @n.rzhevskii5246
    @n.rzhevskii5246 2 месяца назад +4

    Зашёл посмотреть локальное решение всё-таки. Было бы интересно посмотреть про всю локальную обвязку

  • @Manipulyator_33
    @Manipulyator_33 Месяц назад +1

    Бро, по больше видео о n8n

  • @Роберт628
    @Роберт628 2 месяца назад +45

    ЛУЧШЕ скачать LM Studio. Выглядит красивее. Есть встроенный поиск и установка моделей(в поиске есть функция поиска моделий подходящих под пк). Всё сразу из коробки. Никаких команд для установки не нужно надо только скачать с официального сайта установщик, а он в свою очередь всё сам сделает. Можно прикреплять файлы и изображения. Даже русский язык интерфейса есть. Просто зачем эта куча заморочки которая показана в видео?

    • @romanbolgar
      @romanbolgar 2 месяца назад +8

      Спасибо за наводку поищу. С критикой полностью согласен. Жаль не нашёл на Ютубе Пока нормальных видео. В трендах выдаёт вот такой бред. Такие люди наверное хотят показать какие они крутые программисты. Напоминает операцию на глазах через анус. Открываем консоль терминал и чтобы было ещё круче машинный код.

    • @irvicon
      @irvicon 2 месяца назад +3

      на 100% согласен с вами. Единственное ограничение у локальных LLM - мощность железа / пробовал за последние полгода несколько раз на своем задохлике 4-х ядерном 5 летнем без видеокарты = жалкое зрелище 😄 / особенно после супер реактивного и бесплатного GROQ / кстати они добавили модель для распознавания изображения LLAVA

    • @Роберт628
      @Роберт628 2 месяца назад

      @@romanbolgar Ещё есть GPT4ALL. Программа по проще, но всё равно удобная. Есть встроенный поиск моделей, но без автоматического подбора под пк, но при этом около каждой модели написаны рекомендуемые системные требования. Пока нет русского языка интерфейса. А так в целом тоже хорошая программа.

    • @airlow6784
      @airlow6784 2 месяца назад +1

      Абсолютно согласен + бонусом получается гавно, которое либо хреново говорит на русском и не даёт те ответы, которые ты хочешь или вообще не говорит на русском...... Зачем такая заморочь ?

    • @Deepneuron
      @Deepneuron 2 месяца назад +4

      Владельцы мака легких решений не ищут 😂

  • @vasil_mullin
    @vasil_mullin 19 дней назад

    Спасибо, интересно!

  • @Mrandis777
    @Mrandis777 26 дней назад +1

    прекрасТно - лайк подписка бро

  • @imhandsome7339
    @imhandsome7339 2 месяца назад +1

    Три недели назад был ролик про установку ламмы локально через докер и прочие приложения
    Ролик классный, но покажите, пожалуйста, как установить ламму через vs code

  • @timurgaranin
    @timurgaranin 2 месяца назад

    Спасибо. Интересно. Пользоваться я этим, конечно же, не буду. Ибо так заморачиваться, когда есть тот же make, смысла нет.

  • @rollerkolya
    @rollerkolya 2 месяца назад +6

    Локалочки - будущее )

    • @dazzline7800
      @dazzline7800 25 дней назад

      ЛоКалОчки вот такие

    • @dazzline7800
      @dazzline7800 25 дней назад

      ЛоКалОчки вот такие

  • @marialanti
    @marialanti 2 месяца назад

    Класс, надо будет на выходных поиграться )

  • @DInfinity3
    @DInfinity3 2 месяца назад

    Мега полезно!

  • @jsonslim
    @jsonslim 2 месяца назад +2

    n8n вообще не локальный, у него бесплатный период около недели. Но n8n конечно бомбический, это лучшее что я пробовал за долгое время

    • @jsonslim
      @jsonslim 2 месяца назад +1

      подождите..... его локально можно юзать?! Щиеееет

  • @АлександрР-щ4ь
    @АлександрР-щ4ь 2 месяца назад

    спасибо

  • @AlexanderLetetski
    @AlexanderLetetski 24 дня назад +2

    почему так мало подписчиков у этих усов? дельное дело говоришь

  • @iteleportation
    @iteleportation 2 месяца назад +1

    Спасибо, это конечно все здорово, но ванклик интереснее, то есть чтобы установить локально ИИ, просто скачав и установив один файл, если такие сервисы есть, пожалуйста дайте знать))❤

    • @IvanKoman-gd7jl
      @IvanKoman-gd7jl 2 месяца назад +3

      LMStudio

    • @iteleportation
      @iteleportation 2 месяца назад

      @@IvanKoman-gd7jl почитал комменты, принял-понял! Спасибо

    • @ДенисДавыдов-д8ц
      @ДенисДавыдов-д8ц 5 дней назад

      У меня с трудом загрузилась LM , потом сразу предложило обновление и на этом все , ни каких моделей мне не даёт, может из за скорости энтернета это может быть такое

  • @havemoney
    @havemoney 2 месяца назад

    А есть идейка, делай 2-й канал, Лайв канал, туда стримы и вот Игоряша может на тестах что то залить, или когда что то информативное, долгое.
    Отсюда кто то прийдет туда и тот канал тебе подкинет сюда людей.
    Извини если оставил тебя без отпуска )

    • @havemoney
      @havemoney 2 месяца назад

      Поиграть на укулеле тоже можно )

  • @ibrakigno9314
    @ibrakigno9314 2 месяца назад +1

    Правильно ди я понимаю, что можно таким образом создать агента, который будет оперировать только пуллом информации, которую вы в него загрузите. К примеру, отвечаит на вопросы по конкретной книге, дейсвительно черпая содержание ответов из материала, а не с потолка?

    • @ProdAdvice
      @ProdAdvice  2 месяца назад

      Все так. Это можно и в любом сервисе от опенаи до перплексити сделать

    • @vifvrTtb0vmFtbyrM_Q
      @vifvrTtb0vmFtbyrM_Q 2 месяца назад

      Это так называемое rag-система. проще всего это ollama + gpt4all. полностью локальные системы. все делается через интерфейс мышкой. gpt4all умеет читать pdf и другие типы текстовых файлов. встроенная векторная бд.
      В общем намного проще. А в видео показана система для создания ии агентов. Пример простой но суть ии агентов в том что их может быть много. Они общаются между собой, у каждого агента своя роль. Кто то ищет, кто-то отвечает, кто-то проверяет, кто-то оформляет. Короче для вашего запроса n8n оверкилл. Начните с gpt4all.

  • @sgruzdev
    @sgruzdev 2 месяца назад +3

    А чем такое решение лучше LM studio? Я пока в нем вижу кучу минусов и ни одного плюса. Зависимость от внешних сервисов с регистрацией, необходимость в докере, который сожрет дополнительные ресурсы компа, излишняя замороченность в установке и настройке.

  • @Arrrr-gj6kk
    @Arrrr-gj6kk 25 дней назад +2

    14:38 хахах типичный мак юзер, которому 8гб оперативки хватает на всё: своп там задыхается аж на еще 8гб строчкой ниже, тем временем типичный мак юзер: ну израсходовано у меня всего лишь 7.4гб из 8, значит все отлично еще дофига оперативки свободной 😀

    • @dgvgfg
      @dgvgfg 21 день назад

      Хрень если честно. Даже мне скучно стало, Я 95% роликов на ютуб просматриваю ДО КОНЦА. У меня своего рода есть лайфхак. Я смотрю в ускорении 2.5х, ну или 2.75х... и даже тут не захотел всё смотрел скипнул на середине... ну из ролика видно что тут разные клауды (облака), БД в облаке это нефига не локалка. С таким успехом можно сказать что чатГПТ локально работает =))) И ещё нагружаем 8 Гб оперативки. Не поймите меня неправильно у меня 64 Гб. 8 ядер - 16 потоков мне нравятся нейронки, но то что показано нефига не локальная фигня

  • @Samed21
    @Samed21 Месяц назад

    Сними пожалуйста видео с Маке, как это делать

  • @isevrujka8325
    @isevrujka8325 2 месяца назад +1

    А не с гуглом работать будет? И какие аналоги есть ( гугл дока(?

  • @AndrewQuardex
    @AndrewQuardex 2 месяца назад

    принцип чтения из бд понятен, а как обновлять в базе информацию?

  • @demianaqus
    @demianaqus Месяц назад

    Заместо Pinecone что то локальное можно использовать?

    • @ProdAdvice
      @ProdAdvice  Месяц назад

      quadrant

    • @demianaqus
      @demianaqus Месяц назад

      @@ProdAdvice спасибо!🤝
      Вчера после того как задал вопрос заплексил сам и тоже остановился на нем😄

  • @RedpaX
    @RedpaX 2 месяца назад

    в N8N я так понял нельзя привязать синтез речи по API. чисто агенты текстовые.

    • @ProdAdvice
      @ProdAdvice  2 месяца назад +1

      Можно запросто

  • @MrTASGER
    @MrTASGER 2 месяца назад

    Опа, "зiбров" в молодости

  • @geekok
    @geekok Месяц назад

    А для людей с пейсами можно снять видео, в котором будет инструкция как все необходимые сервисы AI развернуть на своём локальном сервере, чтобы ни кому и ни за какие API не платить?😁

  • @Viktor_eto
    @Viktor_eto 2 месяца назад

    Топ ❤

  • @Mr_x_One
    @Mr_x_One Месяц назад +2

    Может ли кто то подсказать тут. Поставил на локальный сервак Ollama с phi3. С консоли задавая вопросы текущей модели или через API получаю довольно быстро ответы. Но как можно дообучть уже поставленную модель, кто подскажет с помощью файлов DOC или PDF (именно локальную базу так как документы могут хранить конф. информацию) ? Я например поставил AnythingLLM но это не то, что нужно. Так как надо обращаться через AnythingLLM а не напрямую к Ollama

    • @daniilsinitca1031
      @daniilsinitca1031 24 дня назад

      Нашел ответ на вопрос?

    • @Mr_x_One
      @Mr_x_One 24 дня назад

      @daniilsinitca1031 к сожалению пока не удалось

  • @aktansteam
    @aktansteam 2 месяца назад

    Я нашел сходство, ваше имя и фамилия очень схожи с таким ютубером Quantum games, его зовут Даниил Гаврилов😅

  • @ilyastar9166
    @ilyastar9166 2 месяца назад +1

    У меня при установке через терминал была ошибка:
    " npm error enoent ENOENT: no such file or directory, lstat 'C:\Users\user_name\AppData\Roaming
    pm' "
    Решение: перешёл по пути 'C:\Users\user_name\AppData\Roaming' и создал там папку npm
    Затем снова ввёл команду и всё установилось
    Нужно, чтобы показывались скрытые файлы и папки, иначе не найдёте эту директорию

  • @nto-i7h
    @nto-i7h 2 месяца назад +6

    Всё это в любой момент посыпется, как карточный домик из-за сложной технологической цепочки внешних API сервисов.
    Жаль, а я думал и правда локальная будет реализация, а оказалось просто кликбейт

    • @niyazleushkin
      @niyazleushkin 2 месяца назад +1

      Можно все развернуть локально, но увы, автор не потрудился этим заняться.
      Гугл драйв нужен лишь, чтобы внешние сервисы могли векторизировать данные, а это в целом делается довольно просто и локально, при помощи отдельных запущенных моделей. Так же и с эмбедингами.
      Как мы это сделали, мы получили векторную базу, можно при помощи эластика или других инструментов обращаться к нашей базе.
      А дальше это промпт инженеринг и actions. Все.
      Делается сложнее и больнее. Сразу скажу, в таком случае и при большом объеме данных, вы сильно потеряете в производительности и минимум 16GB VRAM будет съедено, от чего требуется от 32GB VRAM.
      Модель туповата, а более требовательные запустить будет трудно, разве у вас не мак c 128GB unified memory.
      Сейчас в процессе обучения llama3.1 8b, в целом это хорошо, если вам нужно впихнуть конкретные знания, что не меняются со временем, ибо это процесс не легкий и крайне затратный по ресурсам. Ну и не для новичков конечно же.
      Если уж вам будет очень интересно всем, могу написать статью на хабр или же снять ролик, но ничего не обещаю

  • @ЕвгенийФедулов-с6р
    @ЕвгенийФедулов-с6р 2 месяца назад +2

    А можно подключить SSD и использовать его как файл подкачки, чтобы запускать гораздо более мощные модели!🎉🎉🎉

    • @yarmindev
      @yarmindev 2 месяца назад +1

      Как это сделать?

    • @vifvrTtb0vmFtbyrM_Q
      @vifvrTtb0vmFtbyrM_Q 2 месяца назад +2

      только вот скорость инференса снизится в десятки раз. готовы ждать очередное слово около минуты ?

    • @ЕвгенийФедулов-с6р
      @ЕвгенийФедулов-с6р 2 месяца назад +2

      @@vifvrTtb0vmFtbyrM_Q посмотри видео по этому вопросу: всё нормально работает

    • @DmitryRomanov
      @DmitryRomanov 2 месяца назад +1

      @user-mt7jb8kx8u ссылка видео обрадует много людей 😁🙏

    • @vifvrTtb0vmFtbyrM_Q
      @vifvrTtb0vmFtbyrM_Q 2 месяца назад

      ​@@ЕвгенийФедулов-с6р
      1. Инференс производится ядрами GPU.
      2. Ядра GPU могут работать только с VRAM (доступ 10 - 100 нс, на скорости 200 - 1000 ГБ/сек)
      3. Данные в VRAM попадают из RAM (доступ 50 -200 нс, на скорости 20-100 ГБ/сек).
      4. Данные из SWAP попадают в RAM, только тогда, когда CPU обращается к странице памяти, а она помечена как выгруженная (доступ 100 000 нс, на скорости 16ГБ/сек для NVME PCIe Gen4).
      Грубо говоря, чтобы произошел инференс когда часть модели находится в файле подкачки, то вместо 10 нс может потребоваться подождать каких-то 110 000 нс.
      Разница на 4 порядка. И даже не важно будет использоваться Resizable BAR, Unified Memory в CUDA, DirectStorage, Memory Paging в Vulkan/OpenGL или AMD Smart Access Memory. Все эти методы ограничены самими технологиями доступа к памяти.

  • @nicivanov5135
    @nicivanov5135 2 месяца назад +1

    Просто опишу как это должно быть в идальном мире.
    1) Скачал архивы.
    2 ) выключил интернет.
    3) Запустил инсталер.
    4) После установки отрывается чат на русском языке (опция выбрать язык).
    5) Если надо включил интернет, дал любую ссылку парсер сам сделал токены. Внес в предварительную базу.
    Почему не сразу в свою базу потому, что мусора в сети много.
    6) Если комуто нужен конструтор для подключения сервисов API и.т.д. оплатили скачали архив все оно дальше само спросит нужно это подключить ок. 😊

  • @Hank-k9w
    @Hank-k9w 2 месяца назад +6

    круто классно Но "научим работать с файлами" 0:10 эм где ?

    • @---Nikita--
      @---Nikita-- Месяц назад

      Пролистал видео и комменты. Твой коммент всё объяснил видео закрываем.
      Спасибо.

  • @СергейДобров-п8ц
    @СергейДобров-п8ц Месяц назад

    Привет,я хочу создать ассистента но не уверен что он сможет делать то что я от него хочу можно консультацию ?

  • @5t4rb0y
    @5t4rb0y 2 месяца назад

    Есть ии где по референсам рисует?

  • @YuriyLvov
    @YuriyLvov 2 месяца назад

    Anthropic так и не смог подтянуть. У кого вышло?

  • @topodin
    @topodin 2 месяца назад +2

    Посмотрел целиком. Сам пример общения с пдф файлом через такие костыли выглядит как открыванте пива жопой и совсем не понятно, какие преимущества такой способ дает.. в каком месте это лучше и более фкнкционально чем использовать для этого иное любое готовое решение.

  • @btcpapa
    @btcpapa 2 месяца назад +2

    Оаусф 😂

  • @АлексейТарасов-д6д

    у тебя вечно, "тут" не получается но там, вот только делал час/вчера делал было все удачно ) может тут и есть ньюансы? осталось написать автоматизацию приема ответов на собственные коментарии в других каналах

  • @MrKips-wg2gr
    @MrKips-wg2gr 2 месяца назад +2

    А можно было ссылки и тут в закрепе оставить ... и вроде ребята писали уже, себя можно по меньше сделать? пол экрана лицо...

  • @dmgl-n4s
    @dmgl-n4s 2 месяца назад

    Google Cloud работает из России?

  • @mykola2024
    @mykola2024 2 месяца назад

    а зкчем всё это ???

  • @luckybeard9159
    @luckybeard9159 2 месяца назад +1

    а для чего это все? не очень понимаю, типо настраиваешь своего ии бота, а кто его использовать будет и дальше что? я просто все пытаюсь понять как на этом всем можно какойто бизнес построить и пока что вижу видос а в голове шипящий телик :DDD

    • @DmitryPesegov
      @DmitryPesegov 2 месяца назад

      Настрой локально, оберни в докер, залей в облако как сервис. Если ты про то как свою игрушку превратить в сервис в инете конечно. Еще можешь сделать агентов чисто локальных в заведениях там всяких.

    • @luckybeard9159
      @luckybeard9159 2 месяца назад

      @@DmitryPesegov и с этого можно както денежку лутать?)

    • @DmitryPesegov
      @DmitryPesegov 2 месяца назад

      ​@@luckybeard9159это уже предпринимательский вопрос. Кому-то дано кому-то не очень😅

    • @yyanncedra
      @yyanncedra Месяц назад

      @@luckybeard9159 Мы делали бота по базе знаний для SaaS проекта. База знаний былы у них раньше в Zen теперь еще и бот отвечает на вопросы

  • @AndrewQuardex
    @AndrewQuardex 2 месяца назад

    17:28 он показывает 3.8 B

  • @ivangrunev
    @ivangrunev Месяц назад

    Локально - означает, что решение не требует доступа в интернет.

  • @mynextchapters
    @mynextchapters Месяц назад

    у кого засада с подключением гугл аутентификации на канале н8н есть более внятный мануал

  • @Elsag_GeliNakh
    @Elsag_GeliNakh 2 месяца назад +4

    Ебень не мог просто в описани выложить ссылку на гитхаб, без ебучего телеграмм)

  • @RUSSIAZOV-1
    @RUSSIAZOV-1 2 месяца назад +2

    Зачем ты вообще свое лицо в гайды вставляешь, просили же убрать

  • @romanbolgar
    @romanbolgar 2 месяца назад +7

    Боже как всё просто. Чем дальше тем проще. Это какой-то квест. Это не установка. Наверное дядя не застал в те времена когда были старые добрые экзешники. Там достаточно было одного клика чтобы программа установить. А здесь зайти туда зайти на Google Диск там включить там подключить Там взять ключ... Я думаю 20 минут не предел. Дальше наверное установку ещё больше упростят до часа. Мир Идиократии во всей красе. Не устану повторять сапожники без сапог. Собрать в экзешник программисты не могут. Вот уж действительно ловкот

    • @Artem_Cel
      @Artem_Cel Месяц назад

      Так вам дали кучу сервисов готовых, ботов в тг и приложениях типа ноушена, пользуйтесь))

    • @malloquin
      @malloquin Месяц назад

      Удали этот кринж

    • @romanbolgar
      @romanbolgar Месяц назад

      ​@@Artem_Cel не надо мне такую кучу. Ещё и квест найти это в телеграме. Раньше давали просто ссылку на скачивание экзешника. И всё! Программа могла нормально работать при запуске без всяких танцев с бубнами

    • @romanbolgar
      @romanbolgar Месяц назад

      @@malloquin В смысле?

  • @andreyzhuravlev7861
    @andreyzhuravlev7861 Месяц назад

    А без этого ссаного телеграмма никак??????????

  • @МаксимСергиенко-г2э
    @МаксимСергиенко-г2э 2 месяца назад

    создавай ИИ агентом и просирай бабки на API запросы