самое лучшее обьяснение за всю мою жизнь, а я с нейронками с 2014 года, обьясни людям в следующем видео как продолжить обучение не начиная с нуля, этого матерьяла мало в нете
Отличное Видео. С пояснением всего что сделано. Автору большое спасибо. Если такое же видео будет сделано и для других типов сетей или например PyTorch, было бы очень круто! Автору большое уважение.
Я конечно не понимаю в нейронках вообще ничего, но думаю что на начальном этапе нейронке нужно определить свойства, все характеристики объекта. К примеру сначала определяется формат изображения, его разрешение, итд. Нужно просканировать весь файл на наличие свойств, исходя из этих свойств определять дальнейший алгоритм действий с файлом. То есть я хочу сказать что объект для анализа должен иметь максимально полную информацию о себе. Эпохи как я понял это своего рода определение координат для фокуса внимания. Чем меньше эпох тем умнее алгоритм сети. Исправлять дефекты так себе идея, это ведь не фотошоп, сеть должна это делать без ошибок автоматически. Материал демонстративно хорош, речь в ролике это самое лучшее.
Разжевал до атомов. Хотелось бы увидеть урок, как на базе 100 (условно) разных изображений научить нейросеть находить определенный предмет. Так же желательно через Google Cloud Platform.
когда пытаюсь вставить свои изображения вылезает такая ошибка: TypeError: Input 'filename' of 'ReadFile' Op has type float32 that does not match expected type of string. что мне делать?
Спасибо за видео! А можете подсказать, в какую сторону копать если нужно найти бинарную маску блоков текста на картинке? (в идеале так вырезать текст и восстановить фон)
Здравствуйте, у меня вопрос, чем кардинально будет отличаться данный метод от метода локализации? Суть же останется той же, только объект будет всего лишь один или есть различия?
@@КонстантинБабаян Sypervisely. не предлагает экспорт в таком формате. На выбор дано 6 вариантов: Sypervisely, YOLO8, просто images (видимо без аннотаций), DOTA, COCO Keypoints, image links to CSV. Какой из этих форматов можно использовать в коде по Вашему видео?
Здравствуйте, а куда сохраняются уже обработанные кадры? По коду они должны сохранятся в репозиторий videos/processed, я повторил, но у меня ничего в этой папке не появляется. Помогите, пожалуйста!
Как сделать чтобы нейронка распознавала нужные изображения в браузере, например листаешь вкладку с фотографиями, и она как то распознает нужное, по стокам
Кстати. А вот если задача стоит так, чтобы модель к цвету не привязывалась, а к форме - перевод в градации серого решит задачу? Например, изменение освещенности это сможет решить?
Подскажи. Допустим есть картинка, на ней один объект и снизу рядом текст, надо сделать рамку вокруг объекта с текстом. Сделать обводку не пойдет, т.к. повторяет форму объекта, надо чтоб линия плавно обводила объект с текстом, например как у стикеров. Сможет ли это сделать нейронка?
На мой взгляд, применять нейросеть для решения такой задачи, не самое оптимальное решение. Думаю, что проще воспользоваться классическими методами, например, выделение контуров текста и применение морфологических операций с последующей обработкой.
Добрый день , Павел .Как с вами связаться ? Я хочу попросить вас обучить Аи под мою модель , я заплачу. И если интересно в дальнейшем мне нужна будет помощь для добавления разных объектов в мою библиотеку . В целом возможно долгосрочное сотрудничество в этом направлении
Здравствуйте. Имею следующую ошибку во время первой эпохи обучения: ValueError: Dimensions must be equal, but are 400 and 8 for '{{node dice_bce_mc_loss/mul}} = Mul[T=DT_FLOAT](dice_bce_mc_loss/unstack, dice_bce_mc_loss/unstack_1)' with input shapes: [?,400,500], [?,8,8]. В коде изменил лишь размер изображения (на 400x500), количество классов-цветов (с 8 на 2) и добавил указание количества каналов для png (mask = tf.io.decode_png(mask, channels=3)), а также небольшое изменение в Skip Connections - downsample_skips = reversed(downsample_skips[:0]). На какую часть программы порекомендуете взглянуть? Спасибо.
Здравствуйте! Изменение разрешения изображения тянет за собой все остальное. Нужно разобраться в размере данных, которые проходят через нейросеть и через все функции. А порекомендую взглянуть на связку YOLO + Roboflow: blog.roboflow.com/train-yolov7-instance-segmentation-on-custom-data/
г_спади видос на 11 из 10 по объяснению и демонстрации как вся это нейронная хня работает!!!!111. Есть ли возможность связаться с автором видео для общения по разработке решения распознавания объектов на видео?
Очень интересно, но почти ничего не понятно. Не в сторону автора выпад, а в сторону недостаточности моих знаний для полного понимания разжеваного до атомов материала 😂
File "C:\1111\1111\1111\main.py", line 12, in load_images * image = tf.io.image.convert_image_dtype(image, tf.float32) AttributeError: module 'tensorflow._api.v2.io' has no attribute 'image'
кто нибудь сталкивался с проблемой, что именно маски не читаются с ошибкой: InvalidArgumentError: Matrix size-incompatible: In[0]: [189888,1], In[1]: [3,1] [[{{node rgb_to_grayscale/Tensordot/MatMul}}]] [Op:IteratorGetNext]
самое лучшее обьяснение за всю мою жизнь, а я с нейронками с 2014 года, обьясни людям в следующем видео как продолжить обучение не начиная с нуля, этого матерьяла мало в нете
Отличное Видео. С пояснением всего что сделано. Автору большое спасибо. Если такое же видео будет сделано и для других типов сетей или например PyTorch, было бы очень круто! Автору большое уважение.
Наверное самое понятное обяснение на RUclips. Продолжай пожалуста
Я конечно не понимаю в нейронках вообще ничего, но думаю что на начальном этапе нейронке нужно определить свойства, все характеристики объекта. К примеру сначала определяется формат изображения, его разрешение, итд. Нужно просканировать весь файл на наличие свойств, исходя из этих свойств определять дальнейший алгоритм действий с файлом. То есть я хочу сказать что объект для анализа должен иметь максимально полную информацию о себе. Эпохи как я понял это своего рода определение координат для фокуса внимания. Чем меньше эпох тем умнее алгоритм сети. Исправлять дефекты так себе идея, это ведь не фотошоп, сеть должна это делать без ошибок автоматически. Материал демонстративно хорош, речь в ролике это самое лучшее.
Качественно и доступно, а главное реально интересно и полезно! Автору желаю 100500 подписчиков))
Великолепный подход. Жаль, что мало тем. Вы очень многим помогли. Спасибо.
Павел, очень доступно. Огромное спасибо. Ждём продолжения! Привет из Азербайджана.
Теперь я знаю, про что будет моя дипломная работа! Спасибо!
ну что? получилось с дипломной?
@@Dima日本 Нет, заставили писать что-то более прикладное. Пришлось CRM на Django бахнуть.
Отличное видео! Спасибо автору за работу!
Разжевал до атомов. Хотелось бы увидеть урок, как на базе 100 (условно) разных изображений научить нейросеть находить определенный предмет. Так же желательно через Google Cloud Platform.
Классное видео, все понятно объяснил, ещё попробую на этой недели протестить, если получится, напишу в PS(если не забуду).👍
Отличное видео, спасибо, очень интересно! С нетерпением жду продолжения !
Надо же как интересно . Класс! Здорово придумано.
Спасибо за ролик!
Спасибо! Отличное видео! Все настолько хорошо объяснили!
Спасибо, очень чисто и понятно.
Очень полезное видео ! Спасибо большое !
когда пытаюсь вставить свои изображения вылезает такая ошибка:
TypeError: Input 'filename' of 'ReadFile' Op has type float32 that does not match expected type of string.
что мне делать?
Очень круто, спасибо большое
Годнота
Спасибо за видео! А можете подсказать, в какую сторону копать если нужно найти бинарную маску блоков текста на картинке? (в идеале так вырезать текст и восстановить фон)
красота) лайк от СЕООНЛИ!
Здравствуйте, у меня вопрос, чем кардинально будет отличаться данный метод от метода локализации? Суть же останется той же, только объект будет всего лишь один или есть различия?
Очень полезное дело 👍
А есть какой нибудь готовый датасет для лис, котов итд?
Жду следующие видео, когда будет ???
Отличное видео! Подскажите, как можно распечатывать карты признаков по мере обучения?
А для чего применяется подряд tf.image.convert_image_dtype и следом нормализация image/255? Разве это не одно и тоже?
Отличное видео. Подскажите, а что за среда разработки используется на видео?
Юзай Google collab, офигенная штука
круть
Спасибо)
Добрый день! Отличное видео, спасибо. Подскажите пожалуйста, в каком формате вы экспортировали данные из supervisely?
Здравствуйте! Sypervisely обновился, наверное сейчас это называется "Export to masks".
@@lyftzeigen большое спасибо!
@@КонстантинБабаян Sypervisely. не предлагает экспорт в таком формате. На выбор дано 6 вариантов: Sypervisely, YOLO8, просто images (видимо без аннотаций), DOTA, COCO Keypoints, image links to CSV. Какой из этих форматов можно использовать в коде по Вашему видео?
Здравствуйте, а куда сохраняются уже обработанные кадры? По коду они должны сохранятся в репозиторий videos/processed, я повторил, но у меня ничего в этой папке не появляется. Помогите, пожалуйста!
ПОМОГИТЕ ПОЖАЛУЙСТА
Как сделать чтобы нейронка распознавала нужные изображения в браузере, например листаешь вкладку с фотографиями, и она как то распознает нужное, по стокам
нашел решение?
ало кирилчик
На Colab ошибка на ячейке с обучением модели:
InvalidArgumentError: Graph execution error:
поменял GPU на CPU и заработало, почему так может быть?
Даешь пример TensorFlow на С++ ? :)
Кстати. А вот если задача стоит так, чтобы модель к цвету не привязывалась, а к форме - перевод в градации серого решит задачу? Например, изменение освещенности это сможет решить?
Блин круто препод топ
Подскажи. Допустим есть картинка, на ней один объект и снизу рядом текст, надо сделать рамку вокруг объекта с текстом. Сделать обводку не пойдет, т.к. повторяет форму объекта, надо чтоб линия плавно обводила объект с текстом, например как у стикеров. Сможет ли это сделать нейронка?
На мой взгляд, применять нейросеть для решения такой задачи, не самое оптимальное решение. Думаю, что проще воспользоваться классическими методами, например, выделение контуров текста и применение морфологических операций с последующей обработкой.
👍👍👍👍👍👍👍👍
Добрый день , Павел .Как с вами связаться ? Я хочу попросить вас обучить Аи под мою модель , я заплачу.
И если интересно в дальнейшем мне нужна будет помощь для добавления разных объектов в мою библиотеку . В целом возможно долгосрочное сотрудничество в этом направлении
спасибо
Здравствуйте.
Имею следующую ошибку во время первой эпохи обучения:
ValueError: Dimensions must be equal, but are 400 and 8 for '{{node dice_bce_mc_loss/mul}} = Mul[T=DT_FLOAT](dice_bce_mc_loss/unstack, dice_bce_mc_loss/unstack_1)' with input shapes: [?,400,500], [?,8,8].
В коде изменил лишь размер изображения (на 400x500), количество классов-цветов (с 8 на 2) и добавил указание количества каналов для png (mask = tf.io.decode_png(mask, channels=3)), а также небольшое изменение в Skip Connections - downsample_skips = reversed(downsample_skips[:0]).
На какую часть программы порекомендуете взглянуть?
Спасибо.
Здравствуйте! Изменение разрешения изображения тянет за собой все остальное. Нужно разобраться в размере данных, которые проходят через нейросеть и через все функции.
А порекомендую взглянуть на связку YOLO + Roboflow:
blog.roboflow.com/train-yolov7-instance-segmentation-on-custom-data/
Добрый день, спасибо за видео) очень помогло
Но есть один вопрос, как подтянуть координаты пересмотра классов?
А куда сохраняются обработанные кадры? Подскажи пожалуйста
Или как сохранить их локально?
не лейбл ми не нашел в интернете где скачать не второе...
Уважаемый автор, не могли бы вы помочь и предоставить файл с моделью нейронной сети которую Вы реализуете в данном ролике
В описании к видео есть ссылка на Google Collab, где вы можете самостоятельно опробовать работу нейронной сети.
@@lyftzeigen я имею ввиду схему нейронной сети, которая у вас демонстрируется на 2:30
Как размечать, как выгружать - ни слова об этом :(
согласен - это достаточно полезная информация была бы!
На счет этого можно посмотреть видео по разметке данных именно указанными инструментами. Хотя согласен, можно было бы добавить описание.
г_спади видос на 11 из 10 по объяснению и демонстрации как вся это нейронная хня работает!!!!111.
Есть ли возможность связаться с автором видео для общения по разработке решения распознавания объектов на видео?
!!!
Слишком много "почему" после просмотра, поэтому это, увы, не обучающее видео.
Очень интересно, но почти ничего не понятно. Не в сторону автора выпад, а в сторону недостаточности моих знаний для полного понимания разжеваного до атомов материала 😂
File "C:\1111\1111\1111\main.py", line 12, in load_images *
image = tf.io.image.convert_image_dtype(image, tf.float32)
AttributeError: module 'tensorflow._api.v2.io' has no attribute 'image'
Помогите пожалуйста решить ошибку
кто нибудь сталкивался с проблемой, что именно маски не читаются с ошибкой:
InvalidArgumentError: Matrix size-incompatible: In[0]: [189888,1], In[1]: [3,1]
[[{{node rgb_to_grayscale/Tensordot/MatMul}}]] [Op:IteratorGetNext]
@@aligatorpe а я ззафиксил кстати и забыл как уже
Видимо supervicely дает маски, которые уже в формате grayscale. Так что можно попробовать убрать строку mask = tf.image.rgb_to_grayscale(mask)
@@MrIvansamara наверное, вот бы на два года раньше, но все равно спасибо
💪