Обучение нейронной сети на Python

Поделиться
HTML-код
  • Опубликовано: 24 ноя 2024

Комментарии • 146

  • @ДмитрийКоробченко-л2й

    Рекомендуемый порядок просмотра:
    1. Нейронные сети за 10 минут: ruclips.net/video/GT6imQDxqko/видео.html
    2. Как обучить нейронную сеть: ruclips.net/video/uWd9nyn0ql8/видео.html
    3. Нейронная сеть на Python с нуля: ruclips.net/video/xMz7XSaqdRA/видео.html
    4. Обратное распространение ошибки: ruclips.net/video/bW4dKxtUFpg/видео.html
    5. Обучение нейронной сети на Python: ruclips.net/video/bXGBeRzM87g/видео.html

    • @sosun4lena453
      @sosun4lena453 2 года назад

      @Алан Ав залей на пастебин)

    • @yiyi52031
      @yiyi52031 5 месяцев назад

      Благополучие приходит, герой vpn, с нетерпением ждем сотрудничества с вами!
      Программа сотрудничества:
      Подарите своим поклонникам бесплатно на месяц дольше, и если поклонники довольны, и начиная с февраля, есть принадлежащие вам пополнения фан - взносов, мы вернем их вам из расчета 100 рублей на человека в месяц с единым расчетом 5 - го числа месяца.
      2.Все поклонники платят напрямую, точно так же мы будем возвращать вам по 100 рублей на человека в месяц с единым расчетом 5 числа месяца.
      3.Искренне сотрудничать, вы приходите, чтобы установить программу.

  • @МаргаритаСтепанова-к6ь

    Отличная работа! И очень жаль, что автор забросил канал.. Очень хотелось бы послушать про выбор гиперпараметров.

  • @vlad4338
    @vlad4338 2 года назад +17

    Содержание, визуализация, оформление -- всё просто огонь. Удачи каналу.

  • @EdRostkov
    @EdRostkov Год назад +12

    Большое спасибо, Дмитрий. На одном дыхании просмотрел весь плейлист и разобрался в теме. Такой потрясающей подачи я нигде не видел.

  • @Moroz39
    @Moroz39 3 года назад +5

    Много роликов смотрел про нейронные сети, поверьте на градиенте мозг закипел у меня. Но когда переложили на код, все стало на столько понятно, что элементарнее некуда.
    Спасибо за доходчивое объяснение!!!

  • @chorny6632
    @chorny6632 Месяц назад

    Спасибо Вам большое, Дмитрий, за ваш труд. Очень помогает начинающим в этой сфере и мотивирует обучать людей чему-то так же доступно и изящно, как вы. Жаль, что забросили канал.

  • @alw-3052
    @alw-3052 10 месяцев назад

    Спасибо за такое подробное и понятное объяснение по обучению и созданию нейронной сети. Потратил больше 2х недель на то, чтобы разобраться с этой задачей, пересмотрел кучу видеолекций и книг, но только благодаря вашим коротким роликам смог собрать всю информацию в целостную картину. Успехов вам.

  • @reewos6943
    @reewos6943 2 года назад +1

    это невообразимо круто. теория, практическое применение, качественная картинка и даже сквозной сюжет между роликами. поражён, рад, что открыл этот канал для себя

  • @prognoz2007
    @prognoz2007 Год назад +1

    Все круто!!!!Мне этот ролик помог за один вечер разобраться с нейронными сетями. До этого ролика я просил мне объяснить, что это такое и никто не смог. Причем я обращался к людям которые уже работали с нейронными сетями (как то работали).

  • @ryDBu
    @ryDBu 3 года назад +16

    Спасибо за видео! С линалом всё более или менее ясно, но надо самому написать, что бы точно разобраться. Было бы интересно узнать об алгоритмах конвертации изображений во входные параметры нейросети

    • @HaleraVirus
      @HaleraVirus Год назад

      можно же в тупую представить изображение как значения цветов(RGB) и подавать их, конечно у такой нейросетки будет миллион входных нейронов, но можно использовать сверточную и будет всё не так плохо

  • @belov_dev
    @belov_dev Год назад +2

    Какой же фантастический материал... Спасибо большое!

  • @МаксимЛузин-н6щ
    @МаксимЛузин-н6щ 4 месяца назад

    Отличная серия видео, в ру сегменте найти чтото похожего качества нетривиальное занятие. Очень рад что объясняете с математикой, есть примеры реализации, которые пишете с нуля и которые опираются на теор материал, качественная картинка, звук и подача, все на высшем уровне, огромное спасиьо за труд

  • @vladoman29
    @vladoman29 2 года назад

    как же он хорош.
    Наткнулся на канал, за раз всё посмотрел, что-то потом пересмотрю). Жаль, что год видосов не было, но наверняка эта вкуснота продолжит появляться

  • @SorokinAU
    @SorokinAU 10 месяцев назад +1

    Спасибо вас за ваш труд, у вас очень талантливо и наглядно получается!

  • @t0shiik244
    @t0shiik244 Год назад +10

    Благодаря вашим видеороликам, я написал свою нейронную сеть в качестве дипломного проекта и окончил университет
    Очень вам благодарен ❤

    • @t0shiik244
      @t0shiik244 Год назад

      @@aligatorpe классифицировал предметы одежды 5 категорий к различным поголным условиям. На вход подавались:
      1) температура в градусах Цельсия
      2) скорость ветра в м/с
      3) погодные условия (ясно, облачно, дождь, снег, туман)
      4) пол человека
      На выходе определнный предмет одежды
      Было 5 отдельных моделей:
      1)головные уборы
      2) обувь
      3) аксессуары (шарфы и перчатки)
      4) торс
      5) ноги
      Данные о погоде брались с опреденного источника
      На выходе моделей были идентификаторы одежды из базы данных
      Точность для разных моделей разная
      Для головных уборов, обуви и аксессуаров точность была близка к 100%, так как было немного вариантов одежды
      Для торса и ног точность была в пределах 80-90% из-за большого количества вариантов одежды

    • @t0shiik244
      @t0shiik244 Год назад

      @@aligatorpe да
      По итогу эти 5 моделей были включены в модуль рекомендаций телеграм бота. Пользователь бота при регистрации указывает свой пол и город. По кнопке Получить рекомендацию от Нейросети пользователь получает 2 сообщения
      В первом указаны погодные условия в его городе, во втором - предлагаемая одежда

  • @rmatveev
    @rmatveev Год назад

    Дмитрий, обалденный курс!!!
    Наверно, лучший из существующих.
    И уж точно лучший из тех, что я видел

  • @tsmokuday
    @tsmokuday 3 года назад +5

    Ураа, новое видео. Ожидание того стоило)

  • @ГеоргийОлиниченко
    @ГеоргийОлиниченко 3 года назад +1

    Хоспаде, Дмитрий спасибо. Разбирался по вашим видео и нескольким статьям 1.5 недели, чтобы не в тупую повторить , а прям разобраться и адаптировать под свою задачу. Получилось. Моя сеть вместо ирисов считает логическое И

  • @АнтонФилимонцев-ь1ф
    @АнтонФилимонцев-ь1ф 3 года назад +15

    Отличное видео, буду рекомендовать всем родственникам и соседям =). А еще очень интересно Ваше мнение по поводу литературы для начинающих data scientist-ов, хотелось бы видео с разбором книг по нейронным сетям (плюсы и минусы) и собственными рекомендациями. Ну а если снимать подобный контент нет желания, напишите пожалуйста комментарием, заранее спасибо!)

  • @pal181
    @pal181 3 года назад +2

    Будь первым на ру сегменте (как минимум) , кто расскажет популярно, о гиперпараметрах больше, чем "метод тыка"!

  • @AmadeoAnonymous
    @AmadeoAnonymous Месяц назад

    Требую такой же урок про написанию и обучению языковой модели, которая бужет учиться переводить с одного ящыка на другой или исправление ошибок в тексте

  • @samsung-zk2tb
    @samsung-zk2tb Год назад +4

    Если дунуть уроки заходят на ура) Крутая подача, спасибо за объяснение) Стало более понятно 🎉🎉🎉

  • @New-vk6ks
    @New-vk6ks 3 года назад +2

    очень подробно и грамотно все объясняете. правда иногда нужно по 2-3 раза переслушать. лайк и ждем новых роликов. От себя прошу разобрать сверточные сети с 0. также как и этот пример

  • @mrx8312
    @mrx8312 3 года назад +1

    Дмитрий! Очень хорошо и доступно объясняете!

    Хотелось бы увидеть видео с построением отдельного def, с помощью которого можно задавать отдельные слои с указанием количество нейронов и определенной функции активации, а также использовать функцию активации RELU c утечкой.

  • @rinzewear
    @rinzewear 3 года назад +4

    спасибо братишка, отличный видос, не пропадайте)

  • @victorb7578
    @victorb7578 Год назад

    Офигенно, не забрасывай канал плиз!

  • @zix2421
    @zix2421 9 месяцев назад +2

    9:03 жесть, это было неожиданно. Вы куда пропали, ребята, отличный потенциальный канал, вроде

  • @vadimklimahin9744
    @vadimklimahin9744 2 года назад +2

    Нужно про магию питона отдельное видео )

  • @BurmeseBlueRose
    @BurmeseBlueRose 2 года назад +4

    Хотелось бы урок по zip и магии питона! Очень хорошо обьясняете, давно не видел таких классных уроков на ютуб)

    • @taraatonealy
      @taraatonealy Год назад +4

      a = ["mama", "papa"]
      b = [33,45]
      zip(a, b) == [("mama",33), ("papa",45)] магия 🙂
      ну и или в обратную сторону работает.

  • @timurotube
    @timurotube 6 месяцев назад +1

    Дмитрий, жаль что вы перестали новые видео делать(((

  • @ГеоргийОлиниченко
    @ГеоргийОлиниченко 3 года назад +3

    Дмитрий кое-что не рассказал. Ребята , для тех кто пытается повторить или сделать свою сеть, ловите мои грабли, чтобы самим не наступать: мы обучаем нейросеть не давать сам правильный ответ, а лишь выдать 100%ю вероятность того, что правильный ответ лежит в той или иной ячейке массива правильных ответов. Объясню на примере:
    Я учил свою сеть логическому И.
    a&b=c
    1) 0&0=0
    2) 1&0=0
    3) 0&1=0
    4) 1&1=1
    И во время обучения я делал сначала неправильно:
    При подаче например двух нулей на вход говорил сети , что нужно получить 0.
    Для остальных комбинаций так же.
    Но на самом деле сесть должна выдать не результат 0 или 1 , а НОМЕР результата.
    То есть если подать на вход например 1ю комбинацию на вход из списка выше : 0 и 0, то сеть должна выдать номер ответа -1. Тогда вектор правильных ответов будет выглядеть как [1 0 0 0] .
    Индекс этой единственной в векторе ответов единице 1. Значит мы будем смотреть правильной ответ в 1й ячейке столбца ответов.
    Если подать вторую комбинацию 1&0 на вход , то вектор ответов сети будет выглядеть [ 0 1 0 0] , индекс этой единицы - 2. Следовательно правильный ответ лежит в ячейке 2 в векторе наших готовых правильных ответов. Для 1&1 - [ 0 0 0 1] -ячейка 4. То есть сеть не считает сам ответ, а только указывает индекс правильного ответа среди наших заготовленных. Собственно функция np.argmax(z) и выдаёт номер ячейки , в которой лежит максимальное значение из всей таблицы. Я неделю доходил до этого. Надеюсь кому-то поможет. Удачи.

    • @JohnWickMovie
      @JohnWickMovie Год назад

      Зачем тебе так сложно? Для твоего кейса достаточно одного перцептрона. И достаточно одного выхода, используй другую фунцию ошибки и активации

    • @ГеоргийОлиниченко
      @ГеоргийОлиниченко Год назад

      @@JohnWickMovie да это вообще неважно в данном случае. Даже если персептрон будет один, мой совет будет актуальным. А этот кейс я использовал для примера.

  • @TopCelebrities1
    @TopCelebrities1 22 дня назад

    спасибо вам огромное за видео, мою бессоницу вчера как рукой сняло, так за клавиатурой и уснул)

  • @andrejv____5051
    @andrejv____5051 2 года назад

    Браво👍👍👍всё разложил по полочкам 👍👍👍

  • @АкимПавликов-и9г
    @АкимПавликов-и9г 3 года назад +1

    Отдельное видео про вычисление количества нейронов в скрытых слоях определённо нужно!

  • @ЗахарНовик-ц6х
    @ЗахарНовик-ц6х 3 года назад +5

    Здравствуйте, Дмитрий. Буду очень рад, если Вы снимете видео по магии питона.

  • @makspuzankov0057
    @makspuzankov0057 5 месяцев назад

    Спасибо большое! Что у вас за тема в visual studio?

  • @РавшанДжалилов-и3о
    @РавшанДжалилов-и3о 3 года назад

    Очень интересный материал. Спасибо вам за работу. Ждем ваших новых работ!!! Научите научить нейросеть восполнять пробелы в картинках...

  • @tensorfly4508
    @tensorfly4508 Год назад

    Ну ладно, на батче я всё же поплыл )
    На такой скорости и с такой плотностью информации ролик нужно пересматривать несколько раз, причём конспектируя.
    Но видео очень полезно, хотя бы как видеоконспект. Если вдруг возникнет необходимость погрузиться в кроличью нору, чтобы понять и запомнить всю математику под капотом работы с батчами - то всегда можно разобрать данный видос с литком и ручкой.

  • @АнтонСибгатулин-ч7ф

    Добрый день ,Дмитрий,а можете записать серию видеороликов по созданию нейронной сети с предсказанием данных а не классификацией!

    • @bigsiege7684
      @bigsiege7684 Год назад

      Последний видос год назад, канал мертв

  • @ligix101
    @ligix101 2 года назад

    хорошая подача информации. куда пропал? ждем продолжения

  • @vova-s
    @vova-s 2 года назад

    Классная и понятная подача материала

  • @hardmath9340
    @hardmath9340 3 года назад +2

    Круто!)

  • @alexandersmirnov4274
    @alexandersmirnov4274 3 года назад +2

    Хотим видео про магию python!!!

  • @rc-hunter9428
    @rc-hunter9428 3 года назад +2

    Спасибо! Продолжай в том же духе!! Как тебе такая идея, рассказать на пальцах про обучение с подкреплением? Должно быть не менее интересно, а если ещё и простой пример на основе тенсорфлов, то вообще будет супер!? Удачи и не пропадай!

  • @user-ey2vv1dl3n
    @user-ey2vv1dl3n 2 года назад

    Очень приятная подача, подписался. Есть ли у вас возможность выпускать ролики почаще ?

  • @alexkayful
    @alexkayful 3 года назад

    Дмитрий а будет ли следующий урок? Интересует в деталях как повысить точность нейросети. Проверка модели на адекватность. Про Batch больше рассказать. Да и вообще посмотреть хороший и качественный контент от Вас. Поделитесь Вашими знаниями... Нам полезно - а Вам приятно!

  • @АртурЗарипов-ю9п

    Огромное спасибо!

  • @bjj1423
    @bjj1423 Год назад +1

    Спасибо. Попробую переписать и посмотреть как будет работать в отладчике. Просто вобще не понимаю математику((

  • @SuleimanVatrushkin
    @SuleimanVatrushkin 4 месяца назад

    Клёвое видео, но для гуманитария сложновато) Поищу другие, потом, когда немного вникну, вернусь)

  • @СергейБелоногов-ж8ж

    Редкий "Информационный брилиант!"

  • @depositfan
    @depositfan 2 года назад +1

    Бро, ты куда пропал на 9 месяцев? Не забрасывай ютуб. Твой монтаж топовый, продолжай в том же духе и ты станешь популярным как Onigiri, Vectozavr, foo52ru

  • @alexCompany
    @alexCompany 11 месяцев назад

    Класс, когда будет продолжение? Сейчас самое актуальное время продолжить развивать канал :)

  • @kerty5622
    @kerty5622 2 года назад

    Блин, чел, круто получалось! Жаль забросил(

  • @Механизмы-д8ц
    @Механизмы-д8ц 3 года назад

    Как всегда все на высоте

  • @misha11081998
    @misha11081998 3 года назад +1

    Спасибо за видео

  • @siersh6934
    @siersh6934 3 года назад +1

    Можно пожалуйста видео про дпльнейшее изменение гиперпараметров

  • @wojiaoruiu
    @wojiaoruiu 3 года назад

    Видео просто супер!

  • @_Jet_X_
    @_Jet_X_ Год назад

    16:00 не самое очевидное равенство. Автор опустил такие рассуждения: dE_dt_j = dsum(E_j)_dt_j = dE_j_dt_j, так как E_k при k !=j не зависит от t_j, следовательно все слагаемые, кроме i-го равны нулю. Остаётся только одно слагаемое

  • @ivangaltsev1837
    @ivangaltsev1837 3 года назад

    Топ, очень доходчиво, жду еще видео)

  • @magomeda.4576
    @magomeda.4576 3 года назад

    Дмитрий,вопрос: как вы относитесь к применению алгоритмов машинного обучения в интерфейсах "мозг-компьютер" наподобие neuralink Илона Маска?

  • @Пользователь-ы7ы
    @Пользователь-ы7ы 3 года назад +2

    Дмитрий, вернитесь на Ютуб, пожалуйста

  • @gdryjkx651
    @gdryjkx651 Год назад +1

    не пойму как соединить код на предсказание и код с обучением))

  • @dezmond8416
    @dezmond8416 Год назад

    круто!

  • @kuaranir2440
    @kuaranir2440 3 года назад

    Теперь тоже самое хорошо бы на Keras или PyTorch)))

  • @ДанилаЧернов-м2й
    @ДанилаЧернов-м2й 2 года назад +2

    а как вытащить веса

  • @angellife2737
    @angellife2737 2 года назад

    Спасибо за видео, но как теперь отправить всё это на видеокарту, чтоб там формировать батчи и вычислять, а не гонять данные из опративы в видеопамять, там считать одну матрицу, а потом гнать резултат обратно из видеопамяти в оперативу при вычисление каждой матрицы отдельно?

  • @gopnikkasarj6797
    @gopnikkasarj6797 19 дней назад

    А разве в батче не вычисляется для каждого нейрона градиент, суммируется по каждому батчу и вычисляется среднее как новые градиенты для каждого нейрона?

  • @zell4724
    @zell4724 2 года назад

    Пожалуйста можно отдельное видео по магии питона

  • @doc7273
    @doc7273 2 года назад

    Я не чего не смыслю в этой теме так как от её далёк, но у меня возник один вопрос, а можно ли прописать получение входных данных с других ресурсов и как это сделать?

  • @TerraNova407
    @TerraNova407 Год назад

    какие программы вы используете чтобы создавать такие красивые анимации?

  • @IceCrek
    @IceCrek Год назад

    Спросил у нейронке, странно что прорывов уже нету.😮
    возможно нейросеть обучить так чтобы она выдавала новые прорывы в науке?
    ChatGPT & Midjourney | AI bot:
    Да, нейросети могут быть обучены для создания новых научных открытий. Например, исследователи могут использовать нейронные сети для анализа больших объемов данных, поиска скрытых закономерностей и предсказания новых тенденций в научных исследованиях. Такие нейросети могут помочь ускорить процесс открытия новых знаний и способствовать развитию науки. Однако важно помнить, что нейросети должны быть обучены на правильных данных и с правильными методами, чтобы избежать искажений или ошибок в результатах исследования.

  • @ИльяТихонов-й9с
    @ИльяТихонов-й9с 2 года назад

    Видео отличное, но я совсем не понял как можно обучить нейросеть при другом датасете. точность обучения во всех случаях на одном значении застревает. Буду очень благодарен помощи

  • @UnholyAndTenea
    @UnholyAndTenea Год назад

    а как записать веса? скажите пожалуйста

  • @Здесьбудетстрим
    @Здесьбудетстрим 3 года назад

    жду разбор сверхточных (и/или) рекуррентных нейронных сетей пролайкате! кто тоже_)

  • @machetteden6667
    @machetteden6667 2 года назад

    Это очень жестко, очень сильно хотел во все это вникнуть, но через минут пять все слова превращаются шум из-за наплыва такого количества инфы

  • @rustamdoc2827
    @rustamdoc2827 Год назад

    А как сделать нейронку, которая картинки делает по запросу ?

  • @Rozalinaag
    @Rozalinaag Год назад

    ого такой классный контент и так мало подписчиков

    • @R4HKN
      @R4HKN Год назад

      Нужно похлопать чтобы автор вернулся. Автор возвращайся.

  • @maximkhvatov3110
    @maximkhvatov3110 2 года назад

    Cool, man

  • @Nimtey-o1q
    @Nimtey-o1q 3 года назад

    Где видео? давно небыло

  • @ВитольдАдамович-м9я

    да вы батенька шутник "если чтото осталось непонятным". я понял,что ничего не понял и одновременно понял все. т.е. каша в голове удалась славная и знатная

  • @МаксимКамерер-е6ш
    @МаксимКамерер-е6ш 2 года назад

    Нужно !!!

  • @АлександрКузнецов-ш4н

    Хорош прожарил мой мозг) Пожалуй буду дальше деградировать в своих c# думая максимум об ООП..

  • @zargerion7399
    @zargerion7399 Год назад

    Мне понравилось

  • @МелодияВкуса-ы8ю
    @МелодияВкуса-ы8ю 3 года назад

    Здравствуйте можете помочь разобраться? в общем я считаю что придумал улучшенную формулу вычисления весов одного нейрона позволяющую найти веса в один такт, я не программист и не математик и формулу по понятным причинам разглашать я не могу, так как же мне разобраться и возможно извлечь из этого пользу? я не знаю. По пробую показать примерный процесс моей работы на эту тему может это даст вам возможность лучше разобраться с чем и кем вы имеете дело:
    Пример обученного нейрона к которому должен прийти мой:
    X1*W1=S1
    + = E1 = Это выход нейрона без смещения и без функции активации просто число
    X2*W2=S2
    После нахождения весов в один такт мой нейрон похож на:
    X1*W3=S3
    + = E1
    X2*W4=S4
    веса НЕ те же но итог совпадает без ошибки, как то так. но если изменить X сы после обучения то будет расхождение в итогах, в общем W3 и W4 превратить в W1 и в W2 у меня так и не вышло конечно если не манипулировать X ми так что один из них превращается в 0 или в огромное число.
    Так было месяц назад, теперь я уже могу найти веса с помощью проверки сразу на двух вариантов X1,2,3,4 и E1,2 где теоретически W1,2 = W3,4 и привести их к таковым.

  • @ПетрКрит-ц8п
    @ПетрКрит-ц8п 2 года назад

    Как настроить чтоб писать нейронве сети

  • @кириллпановицин
    @кириллпановицин 2 года назад

    Все еще жду видео...

  • @Sergei_K.
    @Sergei_K. Год назад

    Жесть какая то. Почему такие люди ни в министерствах и советах директоров сидят. Я 15 лет объясняю руководству что такое среднеквадратичное отклонение и чем оно лучше чем отклонение факта от плана😂
    А это вообще космос. Между реальной экономикой и такими ребятами пропасть в квадрате.
    Когда уже кто нибудь придет и заставит капиталистов и госорганы использовать стохастические методы управления. Наверное никто. Это сделают нейросети.

  • @andrejv____5051
    @andrejv____5051 2 года назад

    👍👍👍

  • @cailen5793
    @cailen5793 3 года назад

    а на с++ будут уроки?

  • @ernisesama1636
    @ernisesama1636 2 года назад +1

    Очень хорошая рвбота. Жаль что закончилась как говоритса на самом интересном месте :(

  • @STALINGRADETS
    @STALINGRADETS 2 года назад

    На х2 - ваще чума))

  • @R4HKN
    @R4HKN Год назад

    Релоцировался ? Не забрасывай канал.

  • @alexandermolchanov2171
    @alexandermolchanov2171 2 года назад +1

    Дмитрий, спасибо за урок! Чтобы лучше понять все нюансы, воспроизвел этот урок на C++: ruclips.net/video/ty6lNZ1mF9Y/видео.html

  • @ivangaltsev1837
    @ivangaltsev1837 3 года назад

    Нужно видео по магии питона

  • @virn_17
    @virn_17 Год назад

    а как веса достать то?

  • @adibmudrec4961
    @adibmudrec4961 Год назад

    И всё-таки не очень понятен хинт с инициацией весов.
    Ну сдвиг (-0.5) и умножение на 2 - ещё как-то понятно, но зачем на корень дроби умножать - не понятно

  • @скриптослав
    @скриптослав Год назад

    чел хорош)
    я должен по хорошему раз 10 посмотреть на x0.25 но мне лень и я просто скопирую код из github

  • @alexkayful
    @alexkayful 3 года назад +1

    batch_x, batch_y = zip(dataset[i * BATCH_SIZE : i * BATCH_SIZE + BATCH_SIZE])
    ValueError: too many values to unpack (expected 2)

    • @alexkayful
      @alexkayful 3 года назад +2

      Разобрался - моя ошибка: batch_x, batch_y = zip(*dataset[i*BATCH_SIZE : i*BATCH_SIZE+BATCH_SIZE])
      Всё работает!!!
      Больщое спасибо за уроки!!!
      Удачи и вдохновения!!!

  • @span4ev
    @span4ev 2 года назад +1

    Конечно я мог бы признаться в том, что я тупой, но легче сказать, что автор генерирует случайные и бессмысленные фразы/формулы, чтобы самоутвердиться на фоне таких, как я ))

  • @raimisbrosroyale3013
    @raimisbrosroyale3013 8 месяцев назад +1

    Автор вернись пожалуйста!!!