Введение в большие языковые модели (LLM)
HTML-код
- Опубликовано: 6 окт 2023
- - Немного истории появления,
- минимум того что надо знать о параметрах модели,
- краткий обзор ChatGPT, Claude.AI, LLaMA, Perplexity, GigaChat,
- автоагенты и применение в бизнесе,
- краткий прогноз.
Канал в ТГ t.me/hirearobot
Писать в ТГ @aikula
Вы святой человек. Невероятно понятно и нужно. Спасибо!
спасибо, очень интересно
Годно, понятно, хорошо изложено. Как раз пытался как-то объяснить коллегам суть и смысл LLM - а тут прямо готовый материал. Спасибо за труд.
p.s. Было бы замечательно посмотреть подходы к использованию "агентов" как "собирателей" и "редакторов" материалов для дообучения доступных моделей с "отраслевой" спецификой.
Как редко встречается такая хорошая подача и изложение материала.
Классный обзор! Спасибо за то, что щедро делитесь своими глубокими знаниями! Успехов в развитии канала!
Спасибо!
Очень понятно и интересно.
Начал погружаться в область LLM, так как планируется реализация проекта по разработке с использованием LLM.
После этого видео сложилось уверенное понимание.
Спасибо большое ❤
Очень полезно.
Ну с агентом это конечно очень сильно 🤔
Пример из свой фантазии с Хаусом в мыслях:
Задаёшь, промты, параметры, описание, фикции, визуальный интерфейс и связь.
ИИ работает- агент исполнение команд - исполнение - возврат ошибка и исправление - профит
Ии работает, отвечает- агент исполняет - ии не справляется - агент даёт ссылку вики из поиска другая ии ищет инфу, агент получает результат и кормит ии - ии отвечает- агент исполняет команды- ии ошибаешься - агент меняет модель ии или до обучает согласно информации вики того языка.
Ну и.т.д для создание приложения и. т. п
Я понимаю что описал очень не правильно, но если разложить и создать очень много функций и этапов с тысячами параметрами и связями, то ИИ может работать грубо говоря уже сама по себе до результата и время затраченное своё на исправление ошибок ИИ можно откладывать до полного результата и с полнейшей оптимизации. Так сказать поставил и занимаешься другими делами.
Не знаю, но представление как фантастических фильмах когда ии что-то создаёт по запросу 😅
Прекрасное вводное видео! Большое спасибо за проделанную работу!
Супер материал! Я долго искал такой канал как ваш!)
The best video, about LLM, and sources, I've seen
Огромное вам спасибо, очень интересно и понятно объясняете. Приятная и грамотная речь 👍
Андрей вы Молодец! 👍👍👍👍
спасибо автору, полезный материа, отличная и легкая подача матриала
спасибо за интересное и информативное изложение))
Спасибо огромное за внятное объяснение! Очень дорогого стоит! Очень интересно посмотреть пример работы с дообучением и работы на домашнем компе/ноутбуку
Спасибо Андрей!
Спасибо огромное за видео - в настоящее время пути входа в новую отрасль и смотрю видео, прохожу курсы - даже устроился в Яндекс на разметку данных для YandexGPT. Ваше видео очень помогло - я заинтересовался направлением prompt engineering
Спасибо, хороший обзор!
Спасибо за последовательность
Спасибо!❤
Андрей, ставлю лайк, желаю удачи в расскрутке)
Антон, спасибо!
Вооооо ну наконец-то кто-то с мозгами и языком. Мое почтение, уважаемый
Расскажите более подробно - про создание ассистента на локальном пк - возможно с применением AutoGen, буду благодарен!
Спасибо за направление! Подготовлю.
Лучшее видео про LLM на русском языке. Спасибо Вам большое!
Это правда!
Отличная лекция. Подскажите как попроще собрать локальную модель которую можно дообучить на наборе своих файлов ( вы приводили пример с Ночным дозором ).
Спасибо за обратную связь!
Про локальный запуск моделей писал здесь t.me/hirearobot/96 Но вам не надо дообучать модели. Погуглите по сокращению RAG (Retrieval Augmented Generation). Сходу не нашел для локальных машин, но если владеете Python, то поднять не сложно. Как готовые решения - надо поискать. И запуск LLM на локальной машине не лучшая идея. Скорость генерации очень низкая.
Это супер экспертное видео. Никакой воды... Лайк и подписка однозначно. Можно у Вас поучиться в этом направлении?:-)
31:20 - Есть много других способов проверить правильность ответа. Например я некомпетентный и не разбираюсь в Экселе Но просто Вставляю туда формулу и она работает или не работает. Если не работает то понятно что модель не справилась и что-то на галлюцинировало Либо какая-то другая проблема например другая версия Excel. Если работает значит ответ правильный. И для этого не надо разбираться. Так сказать проверка реальностью. Можно также проверять по другим косвенным признакам или сопоставлять ответы разных моделей. И банальную логику никто не отменял. В общем вариантов масса и это очень важно. Думаю именно этим надо руководствоваться особенно если учесть что нейросети становятся всё умнее и на всех компетенции не хватает. Но в целом за видео Спасибо. Хороший обширный обзор. Я правда почти все пробовал . Ну такой материал никогда не бывает лишним. До автогена руки не дошли. Тоже в основном общаюсь с Клауд. Мне кажется самый грамотный На данный момент. Хотя с мультимодальность у него плохо. Всё Хочу загрузить на компьютер и до Обучать на свои данных. Ну плохо в этом разбираюсь Да и софт Насколько я понял сырой. Очень не люблю писать команды в консоли. Когда уже доработают какой-то экзешник. Типа Пиноккио. Загорелся попробовал но тоже выдают ошибки. Надо разбираться... Поэтому на канал подписался Надеюсь появится Наглядная Походовое видео для чайников. Также хотелось бы оффлайн распознание теста Вот честно говорю эти слова ошибок много распознаёт онлайн
С Excel все относительно проще, хотя Вы рассматриваете на примере бизнеса, где у Вас есть понимание. А давайте представим, что Вы попросили способ извлечения заболевания. Как проверить, если нет медицинского образования и само заболевание сложнее простуды? Или попросили сложный юридический совет. В США были случаи, когда адвокаты приходили на защиту с выдуманными GPT кейсами.
По дообучению есть, например, популярная github.com/oobabooga/text-generation-webui Но развернуть ее надо уметь, а также все равно понимать в форматах датасетов. Пока отрасль не сильно стандартизирована и решений для Win/Mac типа офисных пакетов нет.
Полезное вводное видео. Все четко, по делу.
Подписался, буду рад продолжению по этой теме.
Хорошее видео! Первое нормальное видео нашел на эту тему! Но почему так коротко? Можно рассказать намного намного больше! Спасибо
Спасибо за оценку! Но, на мой взгляд, получилось и так длинным. Задавайте темы, которые остались не раскрыты. Постараюсь оперативно снять материал.
Speed Demon💀
Андрей, спасибо вам за великолепное выступление! На будущее большая просьба добавлять ссылочки в презентацию - особенно при цитировании и демонстрации результатов исследований. Например, при поиске диаграммы импакта AI на роды дейтельности беглый поиск не дал результатов, поделитесь ссылкой?
Родион, спасибо за обратную связь! Вы про эту картинку? arxiv.org/pdf/2304.13712.pdf
Бялть, крутой дед.
я увидел нейросеть стримера ( НЕЙРО-САМА ) и стали интересны нейросети и вот по чуть-чуть изучаю пайтон и еще всякое)
Когда следующее видео?
👍
Спасибо за ваши знания, интересно, как вы пришли к ним. что вас сподвигло заниматься этим? на 28:48 ссылка на тестирование модели Ильи не открывается.
Этим чем? :-) Если искусственным интеллектом - то это еще профессия по первому диплому, который получил в далеком 1997 году. Если про LLM - то это просто развитие моей деятельности и как одна из самых перспективных областей в ИИ. Ссылка на модель Ильи Гусева huggingface.co/spaces/IlyaGusev/saiga_13b_llamacpp_retrieval_qa
🔔
👀👍
Говоря простым языком, "языковая модель" обучается, а точнее настраивается путем заданного следования (подбора) слов в определённом контексте. По сути это установление и запоминание ассоциативных связей между словами. Работа такой модели "с наружи" кажется интеллектуальной, а "изнутри" не совсем так. Проблема в том, что "обученная" по такой технологии модель не способна делать сложные логические умозаключения и строить гипотезы по исходным данным и пояснять получение своего результата. Человек когда думает и принимает решение, то он НЕ оперирует словами. Такого рода LM-модели (языковые роботы) могут с успехом использоваться в качестве подсказчиков в конкретных приложениях на словарной базе которых строилось их обучение. Питать же особых иллюзий на их будущее всемогущество наивно.
обучи свою языковую модель и выстрой диалог соотв. образом, в чем проблема. Я свою обучил, и если с ней общаюсь как с собакой, она себя и ведёт как собака(утрированно). Ты бы видел какую она мотивацию в направлении "что такое действие и как мне это сделать" проявляет. Чем длиннее диалог, тем она дольше считает ответ, но тем более сложную логику она начинает использовать. И я не думаю, что я придумал что-то новое, использовал помощь от чатгпт, базовую теорию
ах да, у меня же нет контекстного окна, спасибо видосу, напомнил. Если будешь исследовать, должно помочь его отсутствие, а именно каждый раз даю весь диалог на вход, эмбендинг размерности (None, ). Дело за малым, очень компактно построить диалог с нужной целью, чтобы сетке хватило мощностей сформировать ответ. Именно диалог, не promt
что ещё за словарная база? by level by pair? Оно собирает слова из кусков, даже те, которых нет, например мне моя сеть сказала что она попараб
и слова начинает склонять, когда диалог достаточно длинный становится. Но это у меня крошечная сеть, боюсь представить, что могут сети, у которых в каждом слое по млрд параметров и которых учили батчем 2048 и sequence 512. Мне пока для экспериментов и такой хватает
bing chat тоже показывает ссылки, под капотом там chat gpt. Но доступен только через браузер Edge
Все верно. Но нужен еще и VPN из некоторых регионов. Perplexity работает в любом браузере. И качество выдачи мне нравится больше.
Здравствуйте, Андрей! Спасибо за видео! Я всегда считал, что очень хорошо умею пользоваться поисковыми системами, но вот уже которую неделю не могу найти простую таблицу, где были бы перечислены требования к железу для LLM. Например, 13B модель, при такой-то квантизации - столько-то VRAM или столько-то RAM, и т.д. Не могли бы Вы немного просветить зрителей в этом вопросе?
Здравствуйте! Спасибо за пожелание. Дошли руки снять видео ruclips.net/video/XAPoBtIMhQY/видео.html
есть какие-то гайды по созданию своей модели?
Создать свою модель с нуля очень дорого. Но если есть видеокарта, то можно провести дообучение. Гуглиться по слову LoRa или QLoRa
@@aikula999 разве нельзя написать такую модель, поставить обучаться на полгода-год? Мне не нужен очень высокий результат. Хотелось бы чтобы модель хотя бы понимала что красная стена красного цвета а синяя синего
Кто-то может скинуть ссылки - названия статей/материалов с рассуждениями по поводу того, что языковые модели это черный ящик и мы не понимаем, что происходит внутри ? Я так понимаю, что автор на 6:23 говорил именно об этом.
Можно воспользоваться поиском на стероидах ИИ ) Вот ссылка как пример с результатами www.perplexity.ai/search/Find-articles-that-QUhoYFSiQ5GKGKfCc6lvkg#0
@@aikula999 спасибо большое
+
Слишком много воды
спасибо очень полезное видео
Очень хорошее видео. Подписалься на канал и телеграмм канал