@@AndreySozykin Что-то вроде анализа разных моделей для решения спам комментариев в соц сетях, классификация комментов, спам слов и т.д В основном мне нужно расписать BERT модели, но я в них пока что не разобралась, только начинаю изучать нейронные сети Технический университет в Кошицах, но я там сейчас заканчиваю бакалавриат удалённо, а в основном учусь очно в Каталанском техническом в Барселоне😸
Прошу прощения, я не понял структуру сети. У нас есть 800 входных нейронов, на каждый из которых подаётся 784 значения от 0 до 255. Не значит ли это, что у нас 784 входных нейронов и 800 нейронов скрытого слоя?
Мне тоже не понятно что это значит. На 784 из 800 нейронов система подает по одному значению из 784 значений, а на оставшиеся по дефолту 0? Верно? Или на каждый нейрон подается картинка из 784 байт, то есть одна и та же картинка будет загружена в каждый нейрон из 800?
Когда набираю вот это (x_train, y_train), (x_test, y_test) = fashion_mnist.load_data(), начинается подгрузка данных, затем выдаёт "Удалённый хост принудительно разорвал существующее соединение".
Сразу же отвечаю на свой вопрос. Поменял скобки кортежа на квадратные при инициализации переменных и прописал полностью строку x_train /= 255 в x_train = x_train/255. по сути одно и тоже, но помогло
raise EOFError("Compressed file ended before the " EOFError: Compressed file ended before the end-of-stream marker was reached Вот такую ошибку выдает, что делать?
Привет. При запуске выдает ошибку сертификата. Как с ней бороться? ssl.SSLCertVerificationError: [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: unable to get local issuer certificate (_ssl.c:1056)
Андрей, почему тут нет коэффициента learning_rate? Как работает усреднение batch_size=200 (по какой формуле усредняется)? Интересная идея с batch_size сеть быстрее обучается, чем без нее, как я раньше не догадался до этого.
Коэффициент learning_rate, конечно же, используется. Если он явно не указан, то берётся значение по умолчанию 0.001 (keras.io/api/optimizers/adam/). Усреднение зависит от используемой функции ошибки.
@@AndreySozykin Андрей, добрый вечер! Подскажите пожалуйста, правильно ли я понимаю, что если на каждый нейрон подается картинка из 784 пикселей, то есть одна и та же картинка будет загружена в каждый нейрон из 800?
на минуточку раньше было чуть больше 4 миллионов файлов стал скачивать их чуть больше 26 миллионов ужасно долго скачивает скорость интернета на данный момент 40 мб/c если есть у кого-нибудь догадки,как скачать только те файли ,которые у него есть на гитхабе - поделитесь,пожалуйста....
ConnectionResetError: [WinError 10054] An existing connection was forcibly closed by the remote host при запуске функции (x_train, y_train), (x_test, y_test) = fashion_mnist.load_data()
@@AndreySozykin Я выше дал описание проблемы, нас тут в комментариях всего пара человек с такой проблемой, но хотелось бы послушать Ваш комментарий. Спасибо.
Будет ли видео написания сети MobileNetv2 ? или где найти ее код (не готовую предворительно обученную сеть) а именно написание с нуля с кодом ее особенностей свертки (свертка 1х1 для понижения каналов не могу разораться как именно она работает ) видел код этой сетти v1 написанной на чистом тензерфлоу без испльзование керас но писать на чистом я не умею и не могу понять как переписать ее с использованием керас?
Извинаюсь заранее, мой вопрос может быть глупым. Каждый раз для распознаваний данных надо сеть заново обучать? Если нет то как должно быть? Заранее спасибо
Здравствуйте Андрей! А какое непосредственное влияние на предсказательную способность сети оказывает размер мини выборки(batch size)? у меня получается что при размере 1 вероятность 50%, а при мини выборке 10 уже 65-70% не означает ли это, что мне необходимо как то фильтровать базовую выборку?
@@AndreySozykin Но разве количество входных нейронов не должно быть равно количеству входов, то есть 28х28=784? Хотя в видео вы сказали, что на каждый из 800 нейронов поступают все 784 значений пикселей, значит ли это что во входной слой поступает в сумме 784х800=627200 значений?
У меня большие картинки из за чего приходится использовать свёрточную нейронную сеть. Я заметил что когда памяти много и bach_size большой (50) обучается лучше чем когда bach_size = 1. У вас большой опыт есть ли в этом смысл?
Да, смысл есть. В batch_size указывается количество изображений, которые используются для расчета ошибки, градиента и изменения весов в нейронной сети. Одно изображение может сильно отличаться от других, и на его основе можно сильно изменить веса не в лучшую сторону. Если же размер batch_size большой, то пороисходит усреднение функции ошибки и градиента для нескольких изображений, поэтому шанс изменить веса неправильно значительно меньше.
Чтобы нивелировать влияние размера батча нужно использовать алгоритмы либо пакетной нормализации либо инстантной нормализации. Введение данных слоев оказывает на сеть регуляризирующее воздействие и повышает обобщающую способность нейромодели
А что делать когда у нас количество классов вдруг увеличится? Вот обучили хорошо нейросеть на десятках тысяч или миллионах изображений, и вдруг бац - добавился новый класс «Шапки». И что теперь делать с хорошо обученной нейронной сетью? Просто добавляем в последний скрытый слой один нейрон и прогоняем через неё миллион шапок? Как-то сомнительно, ведь каждая ошибка будет перестраивать всю сеть которая была идеально заточена под предыдущие товары, в результате веса везде очень сильно изменятся, что должно негативно сказаться на качестве определения предыдущих видов товаров.
Андрей, спасибо вам за ваши видео. Они нужны как кислород. Вопрос: На примере этой сети, как проставить классы для всех изображений и записать их в новое поле? Я предполагаю, что с помощью циклов, но не пойму синтаксис, можете показать пример кода? Пожалуйста.
Подскажи, а как быть если скачал данные с гитхаба, как мне их сюда присоединить в проект? Ведь зачастую приходится скачивать оттуда, а затем тестить у себя
Спасибо за ваш курс и ваш труд! Мне, как новичку в нейронных сетях, большая удача выпала, что я вас нашла :) У меня вопрос про нормализацию. Я сейчас тестирую натренированные модели основанные на GAN. Может вы будете дальше об этом говорить, но я спрошу здесь. Нужно ли нормализовать тестовые данные для оценки моделей? И обязательно ли чтобы тестовые данные были такого же размера как и тренировочные, например, в вашем случае 28х28. Просто вот что я заметила. Я тестовые данные нормализовала и приводила к такому же размеру. Когда моя модель генерирует синтетическое изображение, то диапазон значений будто смещается: минимальное значение уже не 0, а число близкое к нулю ~ -0.041, а максимальное значение не достигает 1, но близко, ~0.995. Насчет 1 я не переживаю, а насчет отрицательного минимума - немного. Может вы встречались с таким? Нормально ли это? Заранее благодарю!
Андрей, а зачем загружать x_test у_test ведь в этом видео они не используются? Я так понял, что "loss" и "accuracy" отображают значения для x_train и y_train. Как после обучения проверить "loss" и "accuracy" для x_test у_test? А то в моей сети получилось "accuracy" = 98% (x_train) "accuracy" = 48% (x_test).Это я уже через эксель считал, но это долго. Как после обучения быстро проверить "accuracy" = __% (x_test)? С "classes" у меня не запустилась сеть на обучение, пришлось вырезать этот код (ошибка размерности массива).
Нашел ответ в следующем видео model.evaluate(x_test, y_test, verbose=1) и model.fit(.. validation_split=0.2,....). Как learning_rate изменить? А то разные сети упираются в точность 47-49% Может этого предел обобщающей способности сети?
PyTorch очень хорошая библиотека. Но он более низкоуровневый, чем Keras. Для начала работы с нейронками Keras кажется мне наиболее подходящим, т.к. он самый простой. Изучать одновременно нейронные сети и сложный фреймворк очень тяжело. После изучения основ можно и на PyTorch переходить. Он очень хорош, особенно для исследовательских задач. Но после выхода TensorFlow 2, в котором Keras стал официально рекомендуемым API высокого уровня, я почти не вижу причин переходить на PyTorch.
Спасибо, Андрей, отличный курс. Все доступно и понятно. Но у меня возникла проблема. При запуске обучения в colab нейросеть использует только 300 примеров вместо 60000. Не знаю, с чем это связано.
Здравствуйте, Андрей. Запускал несколько раз процесс обучения и каждый раз получал точность в районе 45%. Изменение размера микровыборки и количество эпох кардинально ситуацию не меняют. Вы не подскажете, с чем это может быть связано? Уж больно велика разница между моим и Вашим результатами. Спасибо за познавательное видео и курс в целом!
Подбором гиперпараметров не удалось существенно повысить точность (первая практическая работа). Также проверял на Вашем коде (чтобы исключить влияние возможных ошибок в моем). Результат такой же.
Похоже, причина найдена: при нормализации нужно делить не на 255, а на 255.0! Если делить на целое число, то все пиксели, значение которых отличается от 255, получат нулевое значение
Я так понимаю, что размерность входного слоя должна совпадать с размерностью данных. То есть 784 пиксела, следовательно и 784 нейрона на входном слое. Или не так?
Да, это ожидаемый результат. Для задач распознавания изображений лучше подходят сверточные нейронные сети. Нужно использовать их. Об этом рассказано дальше в курсе. Ещё можно посмотреть обновлённую версию курса на платформе OpenEdu - openedu.ru/course/urfu/PYDNN/. Там есть тесты для самопроверки, домашние задания в Colab и соревнования на Kaggle.
Ссылка на Colab работает, перепроверил - colab.research.google.com/drive/1le7ZWeBnuiufwyN9BVP4QUAZeRg-bTyr?usp=sharing Ссылку на Github удалил. Для денег ссылки были не правильные 😒😒😒
Спасибо, Андрей, за раскладывание по полочкам. Вдохновилась плейлистом, записала свой про TensorFlow, кому еще хочется, заходите! ruclips.net/p/PLfac_zi0WUMxBiCMczdUGMsUCv2-z1MHF
Писать код, на мой взгляд, очень медленно. Есть видео, где я выполняю готовый код в Colab - ruclips.net/video/GquJSJ4KU2E/видео.html Так, на мой взгляд, наглядней и быстрее.
За нейронки спасибо, а по английски старайся не говорить, а то стыдно за твоё произношение. Фэшн, а не фэйшн. И ещё пару косяков было, один с ударением.
День добрый . Когда уже перестанете выкладывать школьные примитивные примеры использования нейронных сетей? Давайте уже нормальные туториалы , типа обучение с подкреплением , состязательные порождающие нейронные модели , хитмапы...
Обновленная версия видео по обучению нейросети в Keras, набор данных MNIST заменен на Fashion MNIST.
Спасибо Андрей, очень хорошо доносишь материал.
Пожалуйста!
Спасибо огроменное, Вы спасаете мой бакаларский проект в Словакии))
Успехов! Что за проект и в каком университете?
@@AndreySozykin Что-то вроде анализа разных моделей для решения спам комментариев в соц сетях, классификация комментов, спам слов и т.д В основном мне нужно расписать BERT модели, но я в них пока что не разобралась, только начинаю изучать нейронные сети
Технический университет в Кошицах, но я там сейчас заканчиваю бакалавриат удалённо, а в основном учусь очно в Каталанском техническом в Барселоне😸
Училась у вас на этом курсе. Большое спасибо вам.
Спасибо! Ждём новые уроки!
Пожалуйста.
Очень хорошая подача, благодарю за труд. Хотелось бы увидеть разбор некоторых задач с кэгл )))))) Рад, что снова взялись за выпуски по этой теме!
Еще уроков по нейросетям. В частности по библиотеке keras)))) лойс
Уроки будут обязательно!
Андрей, спасибо за примере на Гите!)
Меня ленивого они мотивируют)
Пожалуйста!
@@AndreySozykin Не загружается пример(
Не забудьте подключить numpy командой import numpy as np
и в print должно быть predictions, а не prediction :)
Спасибо, всё очень понятно. Надеюсь когда-нибудь вместо Keras будет Pytorch:)
Keras для начального уровня лучше всего. По PyTorch буду делать материалы, но уже для тех, кто знает основы.
Поддерживаю. PyTorch интересен. Особенно в CNN. Спасибо за Ваш труд.
Добрый день! Спасибо за видео!
Хотелось бы еще уроков по нейросети Yolo с примерами обучения на собственном наборе данных.
Да, это интересная тема. Сейчас обновляю вводный курс, после этого буду делать более продвинутые темы. В том числе и Yolo.
Прошу прощения, я не понял структуру сети. У нас есть 800 входных нейронов, на каждый из которых подаётся 784 значения от 0 до 255. Не значит ли это, что у нас 784 входных нейронов и 800 нейронов скрытого слоя?
Мне тоже не понятно что это значит. На 784 из 800 нейронов система подает по одному значению из 784 значений, а на оставшиеся по дефолту 0? Верно? Или на каждый нейрон подается картинка из 784 байт, то есть одна и та же картинка будет загружена в каждый нейрон из 800?
Очень благодарю
Рад, что нравится!
Когда набираю вот это (x_train, y_train), (x_test, y_test) = fashion_mnist.load_data(), начинается подгрузка данных, затем выдаёт "Удалённый хост принудительно разорвал существующее соединение".
Скорее всего, проблемы с сетевым соединением.
Приветствую! напечатал и запустил код. пишет про ошибку переменной "output array is read-only" это он к тому, что нельзя поделить на 255. как быть?)
Сразу же отвечаю на свой вопрос. Поменял скобки кортежа на квадратные при инициализации переменных и прописал полностью строку x_train /= 255 в x_train = x_train/255. по сути одно и тоже, но помогло
@@speekflayder аналогично )
@@speekflayder Спасибо!
raise EOFError("Compressed file ended before the "
EOFError: Compressed file ended before the end-of-stream marker was reached
Вот такую ошибку выдает, что делать?
Скорее всего, файл закачался не полностью.
@@AndreySozykin хорошо, попробую переделать
Андрей, спасибо вам огроменное )))
если использовать adam в качестве optimizer, то accuracy: 0.9919
adam рулит )
Да, adam или rmsprop работают значительно лучше, чем SGD.
@@AndreySozykin Да, rmsprop ещё лучше. Спасибо !!!
спасибо, а то я испугался, что неактуален будет материал с 2016 года))
В ближайшее время обновлю все материалы до TensorFlow 2.
Привет. При запуске выдает ошибку сертификата. Как с ней бороться?
ssl.SSLCertVerificationError: [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: unable to get local issuer certificate (_ssl.c:1056)
При запуске чего? Ноутбука в Colab?
Andrey Sozykin при запуске любого проекта из репозитория на гите.
Но я уже решил проблему, нужно было установить сертификат глобально для питона
Прическу поменял)) - совсем другой человек)
Спасибо ;-)
Андрей, почему тут нет коэффициента learning_rate? Как работает усреднение batch_size=200 (по какой формуле усредняется)? Интересная идея с batch_size сеть быстрее обучается, чем без нее, как я раньше не догадался до этого.
Коэффициент learning_rate, конечно же, используется. Если он явно не указан, то берётся значение по умолчанию 0.001 (keras.io/api/optimizers/adam/).
Усреднение зависит от используемой функции ошибки.
Вопрос: в 15:30 сказано 60000 изображений. Но обучаем мы не на всех, а на части?
Вроде на всех. Просто их делят на группы по 200
Благодарю!
Пожалуйста!
Здравствуйте.Как сделать нейросеть которая при наличии объекта будет выдавать 1, а при его отсутствии выдаёт 0
Эта задача обнаружения объектов. Вот пример - ruclips.net/video/1KzKqxx-s-Q/видео.html
@@AndreySozykin спасибо !
Вопрос. Почему на первом слое мы создали 800 нейронов, а не 28*28. Получается, что оставшаяся часть будет простаивать?
У каждого нейрона 28*28 входов, всего 784. То есть каждый нейрон подключен к каждому пикселю изображения.
@@AndreySozykin спасибо за ответ. Только начал изучение этой темы, поэтому такие вопросы. Теперь стало ясно. Спасибо
@@AndreySozykin Андрей, добрый вечер! Подскажите пожалуйста, правильно ли я понимаю, что если на каждый нейрон подается картинка из 784 пикселей, то есть одна и та же картинка будет загружена в каждый нейрон из 800?
на минуточку
раньше было чуть больше 4 миллионов файлов
стал скачивать их чуть больше 26 миллионов
ужасно долго скачивает
скорость интернета на данный момент 40 мб/c
если есть у кого-нибудь догадки,как скачать только те файли ,которые у него есть на гитхабе - поделитесь,пожалуйста....
Не понял, какие файлы имеются в виду.
ConnectionResetError: [WinError 10054] An existing connection was forcibly closed by the remote host
при запуске функции
(x_train, y_train), (x_test, y_test) = fashion_mnist.load_data()
@@AndreySozykin я не знаю,как работают уведомления а ютубе,но надеюсь,что это дойдет до вас
выше переписал и указал конкретную ошибку
@@AndreySozykin Я выше дал описание проблемы, нас тут в комментариях всего пара человек с такой проблемой, но хотелось бы послушать Ваш комментарий. Спасибо.
Класс!
Спасибо!
А куда дадасеты класть после скачивания? И в каком виде?
Не понял вопрос. Зависит от того, что вы собираетесь делать с датасетами.
Андрей, здравствуйте ! спасибо за Ваши уроки!
подскажите, каким набором знаний нужно обладать для изучения нейронных сетей?
Будет ли видео написания сети MobileNetv2 ? или где найти ее код (не готовую предворительно обученную сеть) а именно написание с нуля с кодом ее особенностей свертки (свертка 1х1 для понижения каналов не могу разораться как именно она работает ) видел код этой сетти v1 написанной на чистом тензерфлоу без испльзование керас но писать на чистом я не умею и не могу понять как переписать ее с использованием керас?
MobileNetv2 интересная сеть. Наверное, когда-нибудь запишу видео про неё, но не в ближайший месяц или два.
спасибо большое!
Извинаюсь заранее, мой вопрос может быть глупым. Каждый раз для распознаваний данных надо сеть заново обучать? Если нет то как должно быть? Заранее спасибо
Нашел ответ на мой в восьмом уроке. Спасибо вам за уроки, Андрей.
Отлично, что удалось разобраться!
verbose = 1
ValueError: Error when checking input: expected dense_input to have shape (784,) but got array with shape (10,)
почему?...
не знаю
Привет, Андрей)
Здравствуйте Андрей! А какое непосредственное влияние на предсказательную способность сети оказывает размер мини выборки(batch size)? у меня получается что при размере 1 вероятность 50%, а при мини выборке 10 уже 65-70% не означает ли это, что мне необходимо как то фильтровать базовую выборку?
здравствуйте! почему в первом слое используете 800 нейронов?
Нет особенной причины. Можно использовать 600, 700, 900 или 1000. Качество будет разное.
@@AndreySozykin Но разве количество входных нейронов не должно быть равно количеству входов, то есть 28х28=784?
Хотя в видео вы сказали, что на каждый из 800 нейронов поступают все 784 значений пикселей, значит ли это что во входной слой поступает в сумме 784х800=627200 значений?
Спасибо
Пожалуйста!
У меня большие картинки из за чего приходится использовать свёрточную нейронную сеть. Я заметил что когда памяти много и bach_size большой (50) обучается лучше чем когда bach_size = 1. У вас большой опыт есть ли в этом смысл?
Да, смысл есть. В batch_size указывается количество изображений, которые используются для расчета ошибки, градиента и изменения весов в нейронной сети. Одно изображение может сильно отличаться от других, и на его основе можно сильно изменить веса не в лучшую сторону. Если же размер batch_size большой, то пороисходит усреднение функции ошибки и градиента для нескольких изображений, поэтому шанс изменить веса неправильно значительно меньше.
@@AndreySozykin Спасибо. буду экспериментировать.
Чтобы нивелировать влияние размера батча нужно использовать алгоритмы либо пакетной нормализации либо инстантной нормализации. Введение данных слоев оказывает на сеть регуляризирующее воздействие и повышает обобщающую способность нейромодели
Это уже более продвинутые темы, не для начального уровня.
А что делать когда у нас количество классов вдруг увеличится? Вот обучили хорошо нейросеть на десятках тысяч или миллионах изображений, и вдруг бац - добавился новый класс «Шапки». И что теперь делать с хорошо обученной нейронной сетью? Просто добавляем в последний скрытый слой один нейрон и прогоняем через неё миллион шапок? Как-то сомнительно, ведь каждая ошибка будет перестраивать всю сеть которая была идеально заточена под предыдущие товары, в результате веса везде очень сильно изменятся, что должно негативно сказаться на качестве определения предыдущих видов товаров.
С оптимайзером SGD loss > 1, accuracy ~ 0.50. Адам показал > 90% В чем может быть причина?
Оптимизатор Адам работает гораздо лучше, чем SGD.
Спасибо. Но вопрос не в этом. Код идентичен с Вашим примером, датасет - тоже. Результат почти в два раза отличается (с SGD).
Что делать если выводит такую ошибку:
x_train /= 255
ValueError: output array is read-only
Версия пайтона 3.7.4
Ах да нашёл как исправить пишем x_train = x_train / 255
Андрей, спасибо вам за ваши видео. Они нужны как кислород. Вопрос: На примере этой сети, как проставить классы для всех изображений и записать их в новое поле? Я предполагаю, что с помощью циклов, но не пойму синтаксис, можете показать пример кода? Пожалуйста.
Подскажи, а как быть если скачал данные с гитхаба, как мне их сюда присоединить в проект? Ведь зачастую приходится скачивать оттуда, а затем тестить у себя
Спасибо за ваш курс и ваш труд! Мне, как новичку в нейронных сетях, большая удача выпала, что я вас нашла :) У меня вопрос про нормализацию. Я сейчас тестирую натренированные модели основанные на GAN. Может вы будете дальше об этом говорить, но я спрошу здесь. Нужно ли нормализовать тестовые данные для оценки моделей? И обязательно ли чтобы тестовые данные были такого же размера как и тренировочные, например, в вашем случае 28х28.
Просто вот что я заметила. Я тестовые данные нормализовала и приводила к такому же размеру. Когда моя модель генерирует синтетическое изображение, то диапазон значений будто смещается: минимальное значение уже не 0, а число близкое к нулю ~ -0.041, а максимальное значение не достигает 1, но близко, ~0.995. Насчет 1 я не переживаю, а насчет отрицательного минимума - немного. Может вы встречались с таким? Нормально ли это?
Заранее благодарю!
Андрей, а зачем загружать x_test у_test ведь в этом видео они не используются? Я так понял, что "loss" и "accuracy" отображают значения для x_train и y_train. Как после обучения проверить "loss" и "accuracy" для x_test у_test? А то в моей сети получилось "accuracy" = 98% (x_train) "accuracy" = 48% (x_test).Это я уже через эксель считал, но это долго. Как после обучения быстро проверить "accuracy" = __% (x_test)? С "classes" у меня не запустилась сеть на обучение, пришлось вырезать этот код (ошибка размерности массива).
Нашел ответ в следующем видео model.evaluate(x_test, y_test, verbose=1) и model.fit(.. validation_split=0.2,....). Как learning_rate изменить? А то разные сети упираются в точность 47-49% Может этого предел обобщающей способности сети?
А как распознавать очки на фотографиях?
Сделать обучающий набор данных с очками и обучить сеть на нем.
Здравствуй, Андрей!) Посоветуй камеру для распознавания объектов. Простая вэбка думаю не для таких задач.
Сильно зависит от того, что и как распознавать. Для одежды и рукописных цифр вебки вполне достаточно.
@@AndreySozykin А какие вообще у вас на практике использовались?
Я сам камеры не использую.
Спасибо за урок.
А что использует для распознавания, если не камеру?
уже готовые наборы изображений. или видео. сам я не снимаю.
Добрый день, а как автор относится к PyTorch ? Хотелось бы узнать мнение на счет данного фрейма.
PyTorch очень хорошая библиотека. Но он более низкоуровневый, чем Keras. Для начала работы с нейронками Keras кажется мне наиболее подходящим, т.к. он самый простой. Изучать одновременно нейронные сети и сложный фреймворк очень тяжело. После изучения основ можно и на PyTorch переходить. Он очень хорош, особенно для исследовательских задач. Но после выхода TensorFlow 2, в котором Keras стал официально рекомендуемым API высокого уровня, я почти не вижу причин переходить на PyTorch.
Очень здорово, но про сети когда будет новый видос?
В ближайшее время планирую серьезно обновить курс по нейронкам. По сетям будет в лучшем случае через месяц.
Спасибо, Андрей, отличный курс. Все доступно и понятно. Но у меня возникла проблема. При запуске обучения в colab нейросеть использует только 300 примеров вместо 60000. Не знаю, с чем это связано.
Разобрался
@@Рома-ф4й6м Как решили?
@@vakulavakula8247 с batch_size=200, одна эпоха проходится за 300 итераций, т е 200*300 получается 60000 одна эпоха.
использую колобуратин гугл нотебук с ХПУ. Все ок
Андрей, как с Вами связаться?
17:18, не prediction[0], а скорее всего - predictions[0]
Здравствуйте, Андрей. Запускал несколько раз процесс обучения и каждый раз получал точность в районе 45%. Изменение размера микровыборки и количество эпох кардинально ситуацию не меняют. Вы не подскажете, с чем это может быть связано? Уж больно велика разница между моим и Вашим результатами. Спасибо за познавательное видео и курс в целом!
При этом на последних эпохах заметны признаки переобучения (точность на обучающей выборке растет, а на проверочной падает)
Подбором гиперпараметров не удалось существенно повысить точность (первая практическая работа). Также проверял на Вашем коде (чтобы исключить влияние возможных ошибок в моем). Результат такой же.
Похоже, причина найдена: при нормализации нужно делить не на 255, а на 255.0! Если делить на целое число, то все пиксели, значение которых отличается от 255, получат нулевое значение
Используете Python 2? В третьей версии не должно быть таких проблем.
@@AndreySozykin Да, так и есть. Версия 2.7. В третьей версии действительно не округляет. Спасибо
Почему входной слой должен быть 800?!!
Особых причин нет. Можно использовать 700, 900 или другое подходящее количество нейронов.
Я так понимаю, что размерность входного слоя должна совпадать с размерностью данных. То есть 784 пиксела, следовательно и 784 нейрона на входном слое. Или не так?
Может есть Аккаунт в Инстаграмме?
Да, есть - instagram.com/sozykin_andr/
Норм стрижка кста
Спасибо ;-)
Gao Gun из всего делает конфетку😆
а есть такая же база с человеческими лицами?
Сейчас их достаточно много. Вот один из примеров - vis-www.cs.umass.edu/lfw/
Больше val_accuracy: 0.9007, при разных структурах сети не растёт.
Да, это ожидаемый результат. Для задач распознавания изображений лучше подходят сверточные нейронные сети. Нужно использовать их. Об этом рассказано дальше в курсе. Ещё можно посмотреть обновлённую версию курса на платформе OpenEdu - openedu.ru/course/urfu/PYDNN/. Там есть тесты для самопроверки, домашние задания в Colab и соревнования на Kaggle.
@@AndreySozykin Спасибо, Андрей, зарегистрировался и приступил к изучению. Мне нравится подача материала, новые концепции.
Понравилось, но ссылки не работают, а работают только для денег
Ссылка на Colab работает, перепроверил - colab.research.google.com/drive/1le7ZWeBnuiufwyN9BVP4QUAZeRg-bTyr?usp=sharing
Ссылку на Github удалил. Для денег ссылки были не правильные 😒😒😒
@@AndreySozykinСпасибо за ответ
ВЫ привлекательны, но смотреть видео НУДНО.
Спасибо, Андрей, за раскладывание по полочкам. Вдохновилась плейлистом, записала свой про TensorFlow, кому еще хочется, заходите!
ruclips.net/p/PLfac_zi0WUMxBiCMczdUGMsUCv2-z1MHF
Вау! Обязательно посмотрю
👍
Спасибо!
Эм, а почему ты в процессе не пишешь код? Так было бы нагляднее
Писать код, на мой взгляд, очень медленно. Есть видео, где я выполняю готовый код в Colab - ruclips.net/video/GquJSJ4KU2E/видео.html
Так, на мой взгляд, наглядней и быстрее.
За нейронки спасибо, а по английски старайся не говорить, а то стыдно за твоё произношение. Фэшн, а не фэйшн. И ещё пару косяков было, один с ударением.
Если не говорить по английски, то никогда ошибки не исправлю ;-)
День добрый . Когда уже перестанете выкладывать школьные примитивные примеры использования нейронных сетей? Давайте уже нормальные туториалы , типа обучение с подкреплением , состязательные порождающие нейронные модели , хитмапы...
Сейчас обновляю курс начального уровня. После него будут продвинутые темы.
И еще, по моему опыту, в русскоязычном youtube популярны только самые простые темы. Сложные видео почти никто не смотрит.
@@AndreySozykin так до них доходят самые прожженые)
Огромное спасибо
Пожалуйста!