Асинхронный Python-код медленнее обычного кода! Ааа!!1один. Aiohttp VS синхронные фреймворки

Поделиться
HTML-код
  • Опубликовано: 12 май 2024
  • Мой курс «Хардкорная веб-разработка» - course.to.digital
    Книжный клуб Ботаним!, где мы читаем хорошие ИТ-книги: botanim.to.digital/
    Telegram: t0digital.t.me
    Сказать спасибо за это видео можно здесь - boosty.to/digitalize.team
    А точно ли вообще асинхронность в питоне нам нужна? Есть мнение, что старые добрые синхронные веб-фреймворки на Python таки работают быстрее и надёжнее. Давайте проверять!
    Две упоминаемые статьи:
    habr.com/ru/post/440282/
    habr.com/ru/company/ruvds/blo...
    0:00 Популярные тесты производительности Python веб-фреймворков
    3:49 Разворачиваем проект под тесты
    6:39 Запуск тестов Aiohttp
    9:05 Запуск тестов Meinheld с Falcon
    10:40 Aiohttp сливает, асинхронность отстой:(
    11:22 Или нет?
    12:02 Изменим тесты и проведём их снова
    14:38 Ёлочки-палочки, что происходит? Почему?
    17:15 Мультипроцессинг, мультипоточность, асинхронность - когда что использовать?
    /****************** about ******************/
    Меня зовут Алексей Голобурдин, я программирую с 2004 года и на этом канале делюсь своим опытом. Я основатель и руководитель компаний:
    - Диджитализируй digitalize.team, разрабатываем сложные IT системы для бизнеса;
    - Salesbeat salesbeat.pro, комплексный модуль доставки для интернет магазинов.
    Если у вас есть проект на разработку, пишите нам на hi@digitalize.team.
    С другими предложениями, а также если вам нужна одна или несколько индивидуальных консультаций/уроков по разработке (3000 руб/час), пишите мне на alexey@salesbeat.pro.
    Telegram канал - t.me/t0digital
    ВК - digitalize.team
    RuTube - rutube.ru/channel/24802975/ab...
    Дзен - dzen.ru/id/6235d32cb64df01e6e...

Комментарии • 394

  • @t0digital
    @t0digital  4 месяца назад

    Мой курс «Хардкорная веб-разработка» - course.to.digital
    Вжух!

  • @starlightx3052
    @starlightx3052 3 года назад +171

    Вспомнился прекрасный ответ со stackoverflow:
    if io_bound:
    if io_very_slow:
    print("Use Asyncio")
    else:
    print("Use Threads")
    else:
    print("Multi Processing")

    • @t0digital
      @t0digital  3 года назад +10

      Да!

    • @karlzinher4181
      @karlzinher4181 3 года назад +1

      что за выравнивание самовольное не по пепу ? :D :atata

    • @Uni-Coder
      @Uni-Coder 3 года назад +2

      Я бы написал "Use threads OR asyncio if you are used to", при относительно быстром IO можно и async использовать, если вам привычнее.
      Да и вообще, в клиент-серверных приложениях в современном контексте async должен быть по умолчанию.

    • @ziminf1997
      @ziminf1997 3 года назад

      @@karlzinher4181 Почему не по пепу?

    • @karlzinher4181
      @karlzinher4181 3 года назад

      @@ziminf1997 не заморачивайтесь :) визуально три пробела показывает %) а по факту 4ре))) верстка в хроме зачетная тут

  • @user-kx6hz3sr9f
    @user-kx6hz3sr9f 3 года назад +141

    Очень здорово придумал подачу. Поставлена задача и все ручками решается прямо при зрителе. На мой взгляд очень полезно, особенно начинающим.

    • @t0digital
      @t0digital  3 года назад +8

      Спасибо! Рад, что полезно!

  • @user-tk8cm3km9t
    @user-tk8cm3km9t 3 года назад +69

    Поигрался с этими тестами и обнаружил, что выдаваемые ими RPS прямо пропорциональны доступному количеству соединений с БД.
    В тестах для синхронных фреймворков используется пул psycopg2, но в них он абсолютно бесполезен. Каждый воркер будет использовать лишь одно соединение из пула: взял соединение, выполнял запрос, вернул соединение в пул. Т.о. получается потолок для синхронных фреймворков: 12 воркеров * 1 соединение * 5 запросов в секунду (по 0.2) = 60 rps.
    С асинхронными фреймворками ситуация иная. После того, как воркер взял соединение из пула и отправил в него запрос он не ждёт ответ из БД, а берет второе соединение, третье и т.д., пока не загрузит весь свой пул работой. По умолчанию, максимальный размер пула aiopg составляет 10 соединений. Итог: для асинхронных соединений потолок в этих тестах составляет: 12 воркеров * 10 соединений * 5 запросов в секунду (по 0.2) = 600 rps.
    В свете этого, цифры, показанные тестами, не значат ничего конкретного, т.к. получены в разных условиях. Зато они отлично отражают подход. Ради смеха, я решил сравнять количество доступных соединений к БД для двух фреймворков. Для асинхронного Sanic я использовал 4 воркера, то есть 40 соединений. Для Flask пришлось создать 40 воркеров =)
    В обоих кейсах я получил ожидаемые 200rps. Но какой ценой! 40 процессов для Flask стоили мне в сумме 900Mb памяти. А 4 процесса Sanic - 90Mb.

    • @ivantolkachev
      @ivantolkachev Год назад

      Тоже самое хотел написать, просто нужно в синхрон добавить воркеров и можно получить такой же результат.

    • @user-pg8ry1tm3t
      @user-pg8ry1tm3t Год назад

      Прекрасный анализ. Спасибо

    • @user-pg8ry1tm3t
      @user-pg8ry1tm3t Год назад

      То есть получается из-за того, что сипитон однопоточный, поэтому синх использует только один тред в воркере… или нет? Я не питонист…

  • @romantsaregorodtsev9993
    @romantsaregorodtsev9993 3 года назад +293

    Это что получается. Опять нужно головой думать исходя из задачи вместо того, чтобы использовать "самый быстрый фреймворк". Во дела...

    • @user-eg8li6no4u
      @user-eg8li6no4u 3 года назад +7

      И использовать языки для нужных задач. Во дела))
      Согласен))
      А то получается, словно унитаз вилкой чистить)))

    • @GexPlayerMD
      @GexPlayerMD 3 года назад

      Ага. Неприятная ситуация для тех, кто пишет свои проекты бездумной копипастой с гугла...

    • @allallall2321
      @allallall2321 3 года назад +7

      Смотрите ХАудихо там все ответы на вопросы!

    • @dmitryponyatov2158
      @dmitryponyatov2158 3 года назад +1

      или сменить платформу на Elixir/Phoenix, тогда точно придётся думать -- в языке нет циклов 8)
      но того стоит - полноценная многозадачка, а nginx перед ним _мешает_ работать

    • @lalalf4535
      @lalalf4535 2 года назад

      @@user-eg8li6no4u класс

  • @ase_ventura
    @ase_ventura 3 года назад +8

    Ой, вот прям в нужное время.. Вот как раз таких крутых видео не хватает. А то везде видео с маркетинговыми заголовками, а здесь всё круто и по делу.
    Спасибо за контент! Продолжайте в том же духе.

  • @_t4g
    @_t4g 3 года назад +7

    Твои ролики это топ)они странным образом побуждают после просмотра разобраться самому и углубиться в тему ролика!Это по настоящему прекрасно, спасибо тебе.

    • @t0digital
      @t0digital  3 года назад

      Спасибо! Эта самая правильная реакция:)!

  • @user-yo5qp8mi7o
    @user-yo5qp8mi7o Год назад

    Спасибо за труд! Смотрю с удовольствием.

  • @user-cn5pd6do9n
    @user-cn5pd6do9n 3 года назад +1

    Спасибо за видео!
    Очень информативно

  • @TeppopucT
    @TeppopucT 3 года назад +21

    Разрушители мифов в мире IT.
    Классная демонстрация! Спасибо!

  • @kannykl7575
    @kannykl7575 3 года назад +44

    Пришёл не по уведомлению, а по зову сердца
    Спасибо за топ контент!

    • @t0digital
      @t0digital  3 года назад +6

      спасибооо!

    • @user-mh6dz7bd8o
      @user-mh6dz7bd8o 3 года назад

      @@t0digital Привет, в видео по типу прошлого, про многопоточность, мне кажется было бы лучше вставлять картинки для большего понимания, подобные темы легче воспринимать с помощью изображений. Успехов)

    • @t0digital
      @t0digital  3 года назад +1

      @@user-mh6dz7bd8o да, согласен. Дорасту до монтажера, видосы вообще станут вкусняшкой:)

  • @Vlad-user-hjcgxffxhnjvhhcy
    @Vlad-user-hjcgxffxhnjvhhcy 3 года назад +17

    11:00 - 11:20
    Сыграно АГОООНЬ! Аж слёзка подкатила! ))
    Классный канал!

  • @79fz270704
    @79fz270704 3 года назад +10

    Лайк за хорошие рекомендации!

  • @kubenet
    @kubenet 3 года назад

    Крутое видео!) Приятно было услышать корректность и адекватность выполнения тестов, ведь у каждой задачи свои требования и ограничения как программные так и аппаратные. Нельзя провести один, два теста и сказать кто лучше справляется. Ведь тест отражает только один маленький частный случай из всего многообразия возможных вариантов.

  • @TheFomars
    @TheFomars 3 года назад +20

    На синхронном сервере при 12 воркерах и 200 мс теоретический предел - 60 рпс. Чтобы выжать из него больше, надо поднимать число воркеров

  • @georgestatefield
    @georgestatefield Год назад

    Это видео было полезным, как и другие
    Алексей - молодец!

  • @vitalik100500q
    @vitalik100500q 3 года назад

    Классное видео. Спасибо!

  • @rumartru
    @rumartru 3 года назад

    На многих ресурсах видел перевод статьи про асинхронность. Спасибо за разбор!

    • @t0digital
      @t0digital  3 года назад +1

      Рад, что полезно!

  • @LewaSGN
    @LewaSGN 3 года назад

    Очень полезно и доходчиво! Спасибо, буду иметь ввиду.

  • @rkozom
    @rkozom 3 года назад

    Круто! Спасибо!

  • @sevashpun
    @sevashpun Год назад

    Спасибо за видео!

  • @gnompirogov9259
    @gnompirogov9259 Год назад

    спасибо за подробный разбор

  • @maxshishkn
    @maxshishkn 3 года назад

    Лёха все супер, продолжай радовать котанов
    мяу 😻

  • @staskomar
    @staskomar 3 года назад

    Чувак жги, всегда лайк))

  • @user-lz3ez3nn4j
    @user-lz3ez3nn4j 3 года назад

    Классное видео, спасибо

  • @StoGigovo
    @StoGigovo 3 года назад +2

    Алексей, продолжай, я на твоих видео такими темпами стану Мидлом!)

  • @user-zc5lk2fv9r
    @user-zc5lk2fv9r 3 года назад +1

    Интересно, спасибо!

  • @drygdryg2
    @drygdryg2 Год назад

    Спасибо, очень интересно и полезно.
    Было бы интересно увидеть тест с участием asyncpg вместо aiopg.
    Также интересно, как правильно профилировать приложения, чтобы понимать, на что уходит больше всего процессорного времени: на ввод-вывод, либо на вычисления, и сколько на что из этого уходит.

  • @user-oh8oq4oz7d
    @user-oh8oq4oz7d 2 года назад +1

    Очень грамотный и доходчивый контент.

  • @user-fs5md2gd9u
    @user-fs5md2gd9u 3 года назад

    Спасибо за материал! Интересно посмотреть меняется ли ситуация при использовании микросервисов в докере. И скейлинг горизонтальный. Что лучше поместить в этом случае в докер, aio или стандартпый фреймворк. Для увеличения показателей qps.

  • @adilzhan8282
    @adilzhan8282 3 года назад +1

    Очень интересное и полезное видео! Буду ждать еще подобных видео!) И есть просьба, если возможно, пожалуйста объясняй, кратко, всякие термины, которые могут быть кому-то не известно)) Я например не знаю что такое трейды( Я понимаю что есть гугл, но просто отвлекаться что бы найти и понять каждый термин как-то не очень)

    • @t0digital
      @t0digital  3 года назад

      в прошлом видео как раз было о том, что такое треды, процессы, асинхронность, основные термины

    • @adilzhan8282
      @adilzhan8282 3 года назад

      @@t0digital а, оу, я его смотрел, но успел забыть) Спасибо!

  • @evgenibasov9545
    @evgenibasov9545 2 года назад

    Офигенно 👍

  • @vb3039
    @vb3039 2 года назад

    Очень интерестно :)

  • @ilyasbutaev3830
    @ilyasbutaev3830 3 года назад +3

    Было бы интересно послушать про event loop от вас

  • @user-ci8ll4kx4i
    @user-ci8ll4kx4i 3 года назад

    Круто! Ума нет считай - тормоз во всем!!!!! Видео очень полезно понравилось

  • @doskuloff
    @doskuloff 3 года назад

    В очередной раз спасибо Вам, Алексей! Ну а я все еще в комнате ожидания DRF😂

    • @t0digital
      @t0digital  3 года назад

      однажды будет и DRF

    • @senatortre7326
      @senatortre7326 3 года назад +1

      Диджитализируй! Раз пошла пляска (великолепная кстати) с асинхронном, можно скомбинировать темы и заменить дрф на ФастАпи

  • @demos998
    @demos998 3 года назад

    Очень полезно!!!

  • @antonmullakhmetov707
    @antonmullakhmetov707 3 года назад

    Спасибо!

  • @eb6006
    @eb6006 3 года назад

    У тебя такто все темы интересные ))

    • @t0digital
      @t0digital  3 года назад

      Спасиб:) будем продолжать

  • @bolatmukashev2830
    @bolatmukashev2830 2 года назад +1

    А можно видео про то чем отличается многопроцессинг, многопоточность и асинхронность?
    С примерами на Python

  • @staticintsolo1939
    @staticintsolo1939 3 года назад

    как нельзя кстати
    сейчас стоит задача как то ускорить процесс отправки запросов к смтп серверу, а то после 30-ого скорость растет будто по факториалу, и тут контент..
    годнота!

  • @Igor-if7sx
    @Igor-if7sx 3 года назад

    Уф, заметил, что не все твои видео со своих трех акков лайкнул, а не, показалось. Лайкнул каждое по три раза..)

    • @t0digital
      @t0digital  3 года назад

      Йеее:) Спасибо! 💪

  • @user-ni4vw6yw8b
    @user-ni4vw6yw8b 3 года назад

    Отличная работа!

  • @alexgladkov7996
    @alexgladkov7996 3 года назад

    Спасибо

  • @denissemikin2683
    @denissemikin2683 3 года назад +1

    Досмотрел видео до конца. Да, aiohttp работает хорошо когда доставили sleep, но заметьте что wrk на aiohttp возвращает 59 респонсов не с 200-300 статус кодами. Поэтому он показал цифры быстрее конечно, но при этом респонсы некоторые были невалидные вообще.

  • @OlegKuzminov
    @OlegKuzminov 3 года назад

    Шикарный момент на, 11:10! :)

  • @Uni-Coder
    @Uni-Coder 3 года назад

    Асинхрон же придумали именно для IO-нагруженных задач, естественно, в них и надо тестировать и сравнивать
    (мелким шрифтом: формально, есть асинхронные операции и для CPU-нагруженных задач, см. C#, но мы же знаем, что многопоточность и CPU-нагруженные задачи - это не про Python).
    Упс, написал до того, как просмотрел до 16:20 и тем более 17:58. Да, просто полностью согласен

  • @user-ie9yg8ff3n
    @user-ie9yg8ff3n 3 года назад

    Non-2xx or 3xx responses: 59 - для теста с aiohttp и эмуляцией запроса в базу 200 ms. Получается, что из 100 запросов с 200 статусом вернулся ответ для 41 запроса. Я правильно понимаю?

  • @maxsvetlychny8081
    @maxsvetlychny8081 3 года назад

    Как всегда спаcибо за видео! Небольшой оффтоп вопрос - не страшно запускать код какого-то постороннего чувака под своим юзером? У меня обычно для этого заготовлена песочница на firejail. Это нормальное решение или паранойя?)

    • @t0digital
      @t0digital  3 года назад +1

      ну в целом паранойя лишней не бывает:)

  • @user-sn7pp1uz6m
    @user-sn7pp1uz6m 3 года назад

    17:45 мне кажется это свойственно не только питону, это в общем так работает

  • @blackcatdevel0per
    @blackcatdevel0per Год назад

    17:57 А как же asyncqt?
    Например у меня в синхронном qt может подвисать интерфейс при выполнении какой-то задачи кнопкой и конечно я могу обойтись тредами и многопроцессорностью, но в некоторых задачах(даже не связанных с сетью) асинхронность сильно экономит ресурсы и работает лучше, но тут уже всё зависит от конкретной задачи

  • @slukinkostja2064
    @slukinkostja2064 2 года назад +2

    Все вроде бы так, да есть один нюанс. Вы бы количество воркеров во тором тесте для синхронного кода раз в 10 увеличили бы. Глядишь результат интересней мог получился.

  • @magictearsasunder
    @magictearsasunder 3 года назад +2

    Хотелось бы посмотреть по ASGI и WSGI в джанге.

    • @t0digital
      @t0digital  3 года назад +3

      Планирую такой материал

  • @zzshek
    @zzshek 2 года назад

    спасибо

  • @user-kh7nl8sv1j
    @user-kh7nl8sv1j 3 года назад +2

    Всегда стоит учитывать время разработки / дебага / поддержки кода, не скажу новость, но асинхронный код в разы сложнее писать / дебажить / тестировать. Если у вас большая нагрузка то кажется вообще проще от питона отказаться в пользу других языков, ибо проблем с asyncio очень много, синхронный питон имеет свою нишу в которой он правда лучший для задач, а вот какую нишу занимает async python и чем он лучше аналогов не понятно, кажется на нем сейчас пишут просто по привычке

  • @volodiaagadjanov7087
    @volodiaagadjanov7087 3 года назад +7

    Это слишком очевидно, логично, что при синхронном выполнении эти 200мс будут суммироваться с временем выполнения
    А в ассинхронном - эти 200мм будут раскидываться на количество потоков

    • @Bisirsky
      @Bisirsky 2 года назад +3

      Я вот тоже не понял. А нельзя было реальные запросы потестить(?)

  • @user-xh9gg8ev3y
    @user-xh9gg8ev3y 2 года назад

    Хорошо что досмотрел а то уже расстроился.

  • @user-lg6dt3jf1j
    @user-lg6dt3jf1j 3 года назад +1

    Мхатовская пауза в середине очень понравилась! Аж сердце замерло, неужели думаю,... и в самом деле... асинхронный Питон полный отстой... Ан нет! Живём-с :)

  • @vandriichuk
    @vandriichuk 2 года назад

    Спасибо за видео. А чем записываете экран когда пишете код, чтобы было прозрачно?

    • @t0digital
      @t0digital  2 года назад

      Просто режим наложения слоя скринкаста какой-то в монтажке

  • @artemstroev3149
    @artemstroev3149 3 года назад

    Очень захотелось увидеть результат Django на sleep 0,2

  • @prepyev
    @prepyev 3 года назад

    Спасибо, как раз вовремя!
    P.S. На столе PocketBook 740?

    • @t0digital
      @t0digital  3 года назад +1

      Он самый:)

    • @prepyev
      @prepyev 3 года назад

      @@t0digital Хе-Хе, долго искал эту обложку под принт на домах у нас у Бутово, узнал :))

    • @t0digital
      @t0digital  3 года назад +1

      @@prepyev а что за принт на домах у Бутово?

    • @prepyev
      @prepyev 3 года назад

      ​@@t0digital ​ Чет мне как-то показалось, видосы канала из офиса в БЦ "Лотос", вот и подумал может соседи. А принт вот этот etaloncity.ru/about/news/3238/ Кацусики Хокусая

    • @t0digital
      @t0digital  3 года назад +1

      @@prepyev о, не видел это принт на зданиях. Мне нравится эта картина, кайфовая. Видосы из Лотоса, да:)

  • @user-gt6ik3se8n
    @user-gt6ik3se8n 2 года назад

    Я думаю, что даже в примере, когда запрос долгий, можно сказать, что синхронный ВОЗМОЖНО будет быстрее. Стоит различить две ситуации: когда база данных находится на той же машине, что и сервис, и когда они разделены. Показанный пример - это пример, когда они разделены (запрос в бд не нагружает железо сервиса). Но если запрос в бд будет активно нагружать железо сервиса, асинхронные фреймворки не будут уже так себя комфортно чувствовать. Хотя много зависит от запроса: он может быть на чтение большого кол-во данных, а может на построение новой сложной структуры...

  • @dmitryponyatov2158
    @dmitryponyatov2158 3 года назад

    есть такой стек Eixir/Phoenix (язык поверх Эрланг-машины, лучшая многозадачность из всех языков) -- который специально был сделан авторами на замену Ruby/Rails
    можете по собственному опыту сравнить впечатления?

    • @dmitryponyatov2158
      @dmitryponyatov2158 3 года назад

      самый известный тул, написанный на Эрланг -- это RabbitMQ, известный своей эффективностью в проде

  • @vrabosh
    @vrabosh 3 года назад +4

    1. Я как понял форк запускает несколько скриптов, т.е. подымает несколько серверов и каждому по очереди скармливает http даннные запросы.. если так, то запусти на синхроно, 100 форков и посмотри что будет. т.е. пока там 200мс простаивает, другие скрипты же могут выполнятся..
    2. Когда идет синхроная обработка, то и запросы в БД идут синхроно, а значит БД не загружена, и будет выполнятся по той скорости как будто 12 запросов в БД одновременно, что снижает нагрузку на процессор и будет быстрее выполнятся.. как в асинхроности это может быть 1000 запросов к БД, что реально будет делать 200мс...
    Все выше доводы говорят о том, что тесты не 100% верны. Еслиб вы написали реально реализацию с БД, где от одного запроса идет выполнения скрипта 200мс, хотябы просто селект без индексов, тогда бы тесты былибы адекватными. А пока первый вариант где синхроность выглядит более реалистично, посути на реальном примере, пускай и банальном.. т.е. если у когото такой банальный пример, простой чат-бот, то синхроность как я понял лучший вариант.

    • @user-md3nz9hy8z
      @user-md3nz9hy8z 3 года назад

      Там слишком много неизвестных. Где находится база данных (на том же компьютере или нет) и как реализована задержка в селекте, где расположен источник запросов... От этого зависит распределение нагрузки по ядрам. И почему именно 10 или 12 ? По числу ядер надо создавать (и клиента в том числе). Потому как увеличение количества процессов более количества ядер приведет лишь к увеличению накладных расходов на переключение и снижению быстродействия. А поскольку в асинхронном режиме нет переключения потоков, то и лишних затрат на переключение контекста нет, но это абсолютно не значит, что асинхронное быстрее. Надо выяснять реализацию, как построены фреймворки.... без этого это "гадание на кофейной гуще".

    • @vrabosh
      @vrabosh 3 года назад

      @@user-md3nz9hy8z да ты прав.

  • @FRA1T
    @FRA1T 3 года назад +2

    Диджитализируй! Уважаемый Алексей, с особым интересом смотрю все Ваши учебные видео-уроки и уже узнал очень много нового, за что Вам огромное человеческое спасибо! У меня есть вопрос касаемо вынесения бизнес-логики из вьюшек. Вы всё время твердите, что бизнес-логику нужно выносить в сервисы, например, с чем я очень хочу согласиться, но что делать, если вьюшки основаны на классах, а не на функциях (как во всех рассматриваемых Вами примерах)? Неужели такие методы, как get_queryset, get_context_data выкидываются? Как поступать в такой ситуации? Заранее благодарю за ответ!
    P.s. для примера вот такой метод:
    def get_queryset(self):
    return Movie.objects.all()

    • @user-rh3ji8xf5l
      @user-rh3ji8xf5l 3 года назад

      это, мягко говоря, странно выглядит, но в рамках примера - выносите в сервисы функцию
      def get_all_movies():
      return Movie.objects.all()
      которую используйте в методах вьюхи и/или любого другого класса

    • @FRA1T
      @FRA1T 3 года назад

      @@user-rh3ji8xf5l спасибо, но почему это странный вопрос? Обычный метод get_queryset.
      Значит, в этом методе мне нужно возвращать метод из вашего примера?
      def get_queryset(self):
      return get_all_movies()

    • @user-rh3ji8xf5l
      @user-rh3ji8xf5l 3 года назад

      @@FRA1T вопрос не странный. в рамках примера странно (на мой взгляд) выносить что то совсем элементарное, в отдельные функции/сервисы. При наличии какой то логики (хотя бы фильтрация) - да, это имеет смысл. А так да, вы все правильно поняли, в get_queryset возвращаете вызов метода, который вынесли в services

    • @FRA1T
      @FRA1T 3 года назад

      @@user-rh3ji8xf5l благодарю за ответ, теперь чувствую себя лучше от знаний!

  • @user-nw4tb4ld6u
    @user-nw4tb4ld6u 3 года назад

    Здравствуйте! У меня вопрос немного не по теме . Тут пару месяцев назад Гарвард выпустил новый курс бесплатный CS50 посвящённый веб-разаработке на JS и Python. Хотелось бы услышать ваше мнение об этом курсе.

    • @t0digital
      @t0digital  3 года назад +1

      Здравствуйте, не видел не проходил, но спасибо, что написали, возможно познакомлюсь

    • @gooseman5578
      @gooseman5578 Год назад

      CS50 - это курс по Си. Дно, а не курс. Там подача такая, что до циклов добрались только на 5й лекции.
      И там уже от курса осталась треть сонного зала.
      ruclips.net/video/SW_UCzFO7X0/видео.html

  • @mexico76
    @mexico76 3 года назад

    Здравствуйте! А что вы можете сказать про asgi в django? Это ведь связано с асинхронностью, может это выход для данного фреймворка?

    • @t0digital
      @t0digital  3 года назад +1

      Джанго ведёт работу над переводом в асинхронность, но я не думаю, что в обозримом будущем джанго сможет стать полностью асинхронным и что вообще хочет этого

  • @vovergg
    @vovergg 3 года назад

    Если я правильно понимаю, то асинхронность - это та же самая синхронность, но в которой действия выполняются не по прямому порядку, а согласно условно расставленым приоритетам, в результате которых некоторые действия ожидают своей очереди выполнения по заданным условиям.
    Если это так, то понятно, по каким причинам может быть мнение, что асинхронность работает медленнее, чем синхронность.

  • @Bandera_tut
    @Bandera_tut 3 года назад

    интересно-интересно, но, там же щас джанго асинхронный клепают, будет какое видео обсуждение об этом? или еще сами не пробывали тыкать туда?

    • @t0digital
      @t0digital  3 года назад

      Будет видео, но пока рано говорить об асинхронном джанго, и не факт, что когда-то об этом можно будет говорить полноценно

  • @googleadmin4749
    @googleadmin4749 2 года назад

    Красавчик

  • @ruzin-kokoc
    @ruzin-kokoc 3 года назад +5

    Алексей - молоток!
    Однако, хотелось бы услышать еще объяснение "почему так".
    Попробую объяснить, как сам понимаю и почему считаю, что утверждение "асинхроный код работает быстрее" - это миф.
    Допускаю, что у моего объяснения много допущений и неточностей, тем не менее.
    Процессор - один, полезную нагрузку, которую надо посчитать - одна и та же.
    Тогда с какой стати задача будет решена быстрее, если ее решать "поперек", а не "вдоль"?
    Т.е. одна задача в принципе асинхронно не может быть решена быстрее чем синхронно.
    Тогда почему говорят, что асинхронно можно решать быстрее?
    Так говорят про поток задач. Асинхронное выполнение позволяет "пропустить"
    через процессор больше задач в единицу времени.
    Всегда? Нет.
    Если задачи завязаны на процессор - нет, не позволяет.
    А если на ввод/вывод - теоретически - да.
    Если мы сразу запустим N задач - каждая из которых будет ждать ввода-вывода, то N задач
    могут выполниться параллельно быстрее, чем если их решать последовательно одну за другой.
    А какими способами можно запустить параллельное решение задач?
    - процессы
    - треды
    - event-loop с epoll (async await)
    Разница между ними в накладных расходах (и удобстве программирования).
    В двух первых из них за переключением между задачами следит ОС.
    Она же гарантирует, что каждой задаче будет уделено какое-то время.
    В последнем - за переключением следите вы сами, организуя свое приложение.
    А можно ли не использовать async await, но устроить event-loop?
    Можно, например, используя greenlet'ы greenlet.readthedocs.io/
    Какие накладные расходы?
    Запуск нового процесса это всегда:
    а) накладные расходы на память
    б) дополнительные (и не дешевые) системные вызовы.
    в) межпроцессное взаимодействие (передача задания и результатов)
    Треды чуть "легче"" и память разделяемая, но со своими "удобствами",
    например, в Python'е их сложно принудительно остановить снаружи (не из самого треда).
    Event-loop'ы самые "дешевые", но достаточно сложные в организации кода.
    Кроме всего прочего, еще нужно иметь ввиду GIL (Global Interpreter Lock),
    который не позволяет нескольким threads работать одновременно в Python.
    Касательно тестов, которые провел Алексей.
    У нас все запросы "одинаковые": запрос - пауза 200 мс - ответ.
    Async-await работает прекрасно и на одном ядре CPU можно выполнить хоть 10000 таких запросов в секунду.
    Т.е. каждый запрос потребляют 0.0001 CPU. Latency этих запросов будет ~200 мс (ожидание ввода-вывода).
    Теперь, представим себе, что каждому 100-у запросу требуется CPU на 2 секунды.
    Т.е. мы ожидаем что в среднем теперь требуется ~0.02 CPU.
    И мы можем ожидать выполнения ~50 запросов в секунду.
    Попробуем взглянуть, что произойдет с обработкой этих запросов в действительности.
    Первые 50 запросов, пришедших в первую секунду отдадутся через 200 мс, каждый.
    Вторый 50 запросов, пришедших во вторую секунду отдадутся через 200 мс, каждый,
    за исключением последнего, которые отдастся через 2 секунды.
    Третьи 50 запросов, пришедших в третью секунду отдадутся через 2 секунды, каждый,
    т.к. им придется ждать, пока 100-й запрос отдастся, а потом они смогут вернуть свой результат.
    Четвертые 50 запросов, пришедших в четвертую секунду отдадутся через 2 секунды, каждый,
    т.к. им тоже придется ждать, пока отработает 100-й запрос, А 200-й запрос задержится на 2 секунды.
    Все запросы за исключением первых 99 будут отдаваться теперь за 2 секунды вместо 200 мсек.
    Т.е. казалось бы async-await должен "помочь", но вместо этого, он "выравнивает" latency по самому медленному (запросу)
    (Строго говоря, если запросы приходят равномерно, то первые из 100 будут ждать 2 секунды,
    а последние всего около 200 мсек, т.е. в среднем все же меньше чем 2 секунды)
    Выводы:
    Я не к тому, что нельзя использовать async-await, но к тому, что написание таких обработчиков
    требует особой внимательности - ни один из них не должен быть CPU-bound - иначе все усилия
    могут потрачены впустую.
    Так надо использовать async-await? Не попробуешь - не узнаешь.
    Но если у вас разнообразные обработчики, то как минимум нужно CPU-bound обработчики
    искусственно прерывать, давая возможность "пропустить" IO-bound вперед.
    Это, в свою очередь не увеличивает читаемость кода.
    Вот пару видео от python-хакера David'а Beazley - будут полезны:
    ruclips.net/video/Obt-vMVdM8s/видео.html
    ruclips.net/video/xOyJiN3yGfU/видео.html

  • @Anatolii_V_Novikov
    @Anatolii_V_Novikov Год назад

    Правильнее тестировать/измерять на реальном проекте, как есть. А синтетические тесты - как дополнение, на всякий случай (граничные случаи).

  • @vadimalekseev3621
    @vadimalekseev3621 3 года назад

    Может кто-нибудь показать/рассказать как выглядят системные вызовы? Например, в Clang в unistd.h есть функция fork, но как она сообщает ОС, что от неё требуется?
    Или, например, в go есть куча системных вызовов, вокруг которых построены обертки, но как оно внутри работает? Как сделай кастомный системный вызов без оберток?

    • @victorklimov5254
      @victorklimov5254 3 года назад

      Как понимаю это интерфейс к ядру ОС. Те кто ОС проектируют этот интерфейс предоставляют. Как это на более низком уровне, чем на каком то ЯП написать хз.

  • @ernest.rakhmatulin
    @ernest.rakhmatulin 2 года назад

    🔥

  • @DanielLuchin
    @DanielLuchin 3 года назад

    А что использовать если есть задача скопировать кучу файлов по smb?

  • @AlexK544
    @AlexK544 3 года назад

    К вопросу о асинхронности.
    Вот есть aiohttp сервер с 1м воркером.
    Клиент обратился, улетели запросы несколько апи, асинхронно вернулись, крастота!
    Но потом нужно выполнить синхронную операцию, например все это там как-нибудь пересчитать, например в Пандасе или нампи.
    Получается что эта синхронная операция убьет всю асинхронность воркера?
    Или как?

    • @ilyastrojnov7627
      @ilyastrojnov7627 3 года назад

      Выдели отдельный процесс(не поток) для расчетов и подкидывай ему данные

    • @AlexK544
      @AlexK544 3 года назад

      @@ilyastrojnov7627 может быть есть пртмер как это реализовать? А то расчетов походу будет много, а запросов в сторонние сервисы еще больше.

  • @user-zg2bx5cb3d
    @user-zg2bx5cb3d 3 года назад

    Кто такой worker и зачем он нужен?
    Понятно, что это рабочий, но он из какой такой шахты?
    Будете делать видео с подробностями об асинхронности?

    • @t0digital
      @t0digital  3 года назад +1

      Да

    • @t0digital
      @t0digital  3 года назад

      @@avazart614 да

    • @user-zg2bx5cb3d
      @user-zg2bx5cb3d 3 года назад

      @@t0digital Спасибо!

    • @t0digital
      @t0digital  3 года назад

      @Avazart идея была в том числе в том, чтобы сохранить методику тестирования автора теста, понятно, что правильнее было бы тестировать, раскатав все на как минимум на 2 сервера, аппликейшн и бд

  • @cyrilanisimov
    @cyrilanisimov 3 года назад +1

    Мораль - доверяй (статьям), но проверяй

  • @artemhrytsenko1353
    @artemhrytsenko1353 3 года назад +2

    17:12 - синхронные*

  • @artemhrytsenko1353
    @artemhrytsenko1353 3 года назад

    Я где-то читал, что есть практика делать несколько потоков, внутри которых работают асинхронные задачи. Насколько это эффективно?

    • @t0digital
      @t0digital  3 года назад

      если мы про питон, то несколько процессов, и внутри асинхронный код, тк многопоточность в питоне отстой (GIL)

  • @poematization
    @poematization 3 года назад +1

    В доках на aiohttp указывают, что гуникорн работает медленнее других решений. Интересно было бы увидеть тесты на это.

    • @t0digital
      @t0digital  3 года назад +1

      slightly, как они говорят. Без гуника настраивается - nginx и systemd, который стартует несколько процессов с aiohttp

    • @user-mr2jk1ss9d
      @user-mr2jk1ss9d 3 года назад

      @@t0digital Насколько будет лучше если Gunicorn запустить через aiohttp.GunicornUVLoopWebWorker, а aiopg заменить на asyncpg? )

  • @user-ch76tcye4vvuu8
    @user-ch76tcye4vvuu8 3 года назад

    Что тут у нас? 58 rq/sec...
    Было 12 потоков http сервера. Получается, что одновременно (параллельно) выполняется не более 12 запросов, остальные выстраиваются в очередь перед сервером. Каждый запрос выполняется 200мс => поток выполняет до 5 rq/sec. 12*5 = 60 rq/sec (минус 2 rq/sec на прочие потери).
    В асинхронном же поток, пока ждет результата от базы, уже выполняет следующий запрос. По максимуму утилизирует ресурсы.

  • @dasx100
    @dasx100 3 года назад

    Хотел бы услышать мнение автора по поводу...
    Думаю взяться за изучения этого языка. Но все время останавливает одно. Есть ли смысл? (так как сам разработчик на js, не смотря на то что python тоже знаю - но практически с ним не работаю, итог знаю его намного хуже)
    И то что позволяет язык на том котором программирую по сути все то же что и python. И вот в чем собственно проблема (сам js вроде бы как бы и быстрее работает - прошу не закидывать помидорами )) - это как тесты те же говорят так и сам проводил (прошу не хейтить не js не phyton - хейтерам за скоростью - то вам асемблер нужен. та и как бы не распыляешься над языками фронт бэк) - и как бы решает задачи те же не плохо. Есть ли смысл начать изучать его - если уже с js нету не каких проблем? так как в видео вижу что вы не раз и его упоминали...
    Так как бывает что реально тот же python было бы использовать разумней - в место какого либо другого языка... Либо посоветовали бы продолжать с js развитие и стать хорошим спецом в одном деле?
    Да и спасибо за видео)

    • @t0digital
      @t0digital  3 года назад

      JS быстрее Python, это факт. Python из лидерской скриптовой тройки языков для веба (JS, PHP, Python) самый медленный. Но когда скорость сильно в приоритете, то выбор не падёт на скриптовые языки.
      Если не ощущаете желания изучить в дополнение Python и нет на то потребности - то не надо его изучать, конечно:) Но мозг программиста так устроен, что со временем ему всё равно хочется изучить-попробовать что-то новое, однажды желание изучить что-то новое станет настолько сильным, что что-то надо будет выбрать и тогда выбор может пасть на Python

    • @dasx100
      @dasx100 3 года назад

      ​@@t0digital Большое спасибо за ваш ответ. Я то и не гоняюсь уже за скоростью. Вот в том и вопрос, что те же решения на python видел не раз что более понятные и более читаемые, та и как бы сами по себе намного проще чем на том же js в решении. На счет того же php немного не то - юзаю его для мелких целей, так как тот язык на котором работаю в основном - ну это как кусты бензопилой стричь против того же php - ну если не учитывать нюансы настройки самого сервера - что по сути к этому языку не какого отношения не имеет)) - но тут то про асинхронность... с php ну как бы не совсем то...
      Извиняюсь за коммент по скорости - хейтят языки за то что они мол хуже какого-то, что по сути бред) имел горький опыт.
      Что бы вы сами посоветовали бы - если есть уже опыт как и в других языках так и в phython - с чего бы старт дать?

  • @PaulP738
    @PaulP738 3 года назад +1

    Давно думал: как можно организовать код на Джанге, используя чистую архитектуру?

  • @cyberblogru
    @cyberblogru 3 года назад

    Слушал обсуждение этого поста в подкасте Радио-Т (кстати, заметь). Они там не особо хвалили aiopg. Говорили, что asyncpg дал бы результаты лучше

    • @t0digital
      @t0digital  3 года назад

      Да, возможно, опять же надо тестить

  • @user-ro2do2uh5y
    @user-ro2do2uh5y 3 года назад

    Агонь.

  • @nitroflap
    @nitroflap 3 года назад +1

    Чисто мне было бы интереснее про юнит тестинг в питоне. Ибо нагруженные сервера никто на питоне не будет делать, для этого вон есть Go, Java, C# и другие с рутинами и корутинами...

  • @vladislavbychkov302
    @vladislavbychkov302 3 года назад

    Ты используешь Vim и в браузере?))

    • @t0digital
      @t0digital  3 года назад

      Да, vimium

    • @vrabosh
      @vrabosh 3 года назад

      @@t0digital каждый раз когда тебя смотрю, в очередной раз задумываюсь, может реально vim поучить и недельку ему посвятить)

  • @mandico21
    @mandico21 2 года назад

    Как также перемещаться по файлам в Vim ?

    • @t0digital
      @t0digital  2 года назад

      gt, gT переход по вкладам в вим, если вы об этом

    • @mandico21
      @mandico21 2 года назад

      @@t0digital оо, спасибо )

  • @BadekYO
    @BadekYO 3 года назад +8

    Раз уж пошла такая пьянка, было бы интересно услышать от автора канала про внедренную (если не ошибаюсь, то с версии 3.1 уже полностью) в Django асинхронность. Использовали ли они его в более ранних версиях (возможно в dev-версия не для продакшена), можно ли её уже внедрять в Django проекты, и соответственно сам фреймоворк гордо величать асинхронным, или все же подождать ещё годок другой, пока сделают по уму. Сам питонист, но не в вебе кручусь, а вот про Джанго было бы интересно послушать от человека, который в этом варится.
    И да, как всегда - спасибо за контент.

    • @TheExcentro
      @TheExcentro 3 года назад +1

      Orm пока не асинхронный. Вот когда сделают, будет агонь:)

    • @olegmlavets5216
      @olegmlavets5216 3 года назад

      В 4 версии будет

  • @dasturchininghayoti7910
    @dasturchininghayoti7910 3 года назад

    FastAPI, Sanic, Starlette?

    • @AlexK544
      @AlexK544 3 года назад

      Фаст вроде на поверх старлет :) Так что , осталось только Sanic узнать куда поставить.

  • @user-fu4sy5bm2t
    @user-fu4sy5bm2t 3 года назад +1

    Читал эту статью сразу после выхода на хабре, очень смешно было, когда чел тестит без какой-либо бизнес логики

  • @bladeserful
    @bladeserful 3 года назад +1

    А почему собственно при изменении запросов заново не подобрали количество воркеров? Так как запрос выполняется долго, то процесс выполняющий запрос почти не грузит систему. Соответственно банальное увеличение количества воркеров должно сильно улучшить текущие результаты синхронных систем, да и асинхронных тоже. Я требую продолжения банкета!

  • @eb6006
    @eb6006 3 года назад

    14:59 =))

  • @vrabosh
    @vrabosh 3 года назад +1

    Попробуйте первые примеры сделать БД с полем строковым допустим 5 символов, сгенерить случайно.. и потом сделать поиск строки на 5 символов тоже случайно.. И выложьте результаты... это будет более реалистично тогда. Потомучто с замедлением времени, это не рабочий пример.

    • @t0digital
      @t0digital  3 года назад

      Почему нерабочий? Так-то любой пример можно назвать нерабочим, в тч с рандомным выбором строк, тоже в общем не real life задача

    • @vrabosh
      @vrabosh 3 года назад +1

      @@t0digital простая задержка влияет на загрузку процессора? я думаю, что нет.. а там где нет загрузки проца, естественно выигрывает асинхроность. Либо надо было делать задержку в виде for i in range(10000000000): tmp = i*i, чтобы были вычисления хоть какието.
      Асинхроность 100% выигрывает, где идет работа с отправкой и получения данных по сети. т.к. там проц не загружен, а ждать надо.. возможно с записью на диск.

  • @user-fz5hk4xr3w
    @user-fz5hk4xr3w 3 года назад

    Пушка

  • @user-qf8re4dn1j
    @user-qf8re4dn1j 2 года назад +1

    Главный вопрос в том, почему все тестят запросы в базу. Кто ее тюнил? Этими тестами вы показываете скорость ответа движка базы на синхронные и асинхронные запросы. Наиболее правильным были бы проверки с обработкой данных в памяти(допустим математические операции), которые не связаны с внешними обьектами в виде бд.

    • @t0digital
      @t0digital  2 года назад +1

      Почему все тестят запросы в базу - потому что в стандартном веб проекте есть запросы в базу и они занимают бОльшую часть времени обработки запроса, что как раз является кейсом на неблокирующий ввод вывод. Мат операции - кейс на процессорные ядра, в не асинхронность.

    • @user-qf8re4dn1j
      @user-qf8re4dn1j 2 года назад

      @@t0digital это я понимаю, но это дополнительная прослойка, за которую не отвечает язык программирования, если для селектов использовать nosql бд, производительность будет другая.

    • @t0digital
      @t0digital  2 года назад

      чем больше в сервисе времени ожидания от внешних сервисов, тем больше это сценарий для асинхронности, конечно. Если Postgres заменить на Redis, который отвечает за пару миллисекунд, то это перестанет быть сценарием для асинхронности, либо эффект от неё станет сильно меньше

  • @sergeymironov7315
    @sergeymironov7315 6 месяцев назад

    Я верно понял по результатам тестов, что, прежде, чем выбирать между асинхронным и синхронным фреймворком, надо потестить максимальное время запроса к БД и уже от него отталкиваться?

    • @t0digital
      @t0digital  6 месяцев назад

      Да в целом плюс-минус любое веб-приложение много ходит в БД и асинхронный фреймворк будет эффективнее

    • @sergeymironov7315
      @sergeymironov7315 6 месяцев назад

      @@t0digital Допвопрос - а если asyncio.sleep присутствует в коде функции, это относится к io или нет? То есть, влияет ли время ожидания между запросами на выбор между синк и асинк?

    • @t0digital
      @t0digital  6 месяцев назад

      asyncio.sleep отдает управление в цикл событий, но тут нет io операций, она просто «эмулируется», если можно так сказать. Если интересно с asyncio хорошо разобраться - почитай книгу «Asyncio и конкурентное программирование», Мэттью Фаулер. Мы читали в нашем книжном клубе Ботаним её, там осталось 3ч моих комментов по ней - t.me/t0digital/599

  • @Spaz_Rabbit
    @Spaz_Rabbit 3 года назад

    С I\o bound нужно юзать не трединг, мультипроцессинг, потому что треды лочатся в таких задачах из-за GIL

  • @evrmk
    @evrmk 3 года назад +1

    Как с курсом обстоят дела?

    • @t0digital
      @t0digital  3 года назад +1

      Образовательная программа будет, онлайн, разбитая по модулям, которые можно будет прорабатывать отдельно