Артур, спасибо огромное! Как сетевой инженер, познающий сети кубера, нахожусь в восторге от подачи материала. Хорошо бы еще увидеть выводы RIB, в которую кубер инсталлирует маршруты на самих хостах
Спасибо! Слышал, что можно перенести на калико технологию macvlan, что позволит выдавать ip локальной сети непосредственно поду. Это позволит отбросить часть задержек. Интересная тема, пытаюсь ее накопать.
Спасибо за урок вопрос : контейнеры работающие внутри одного и того же пода имеют одинаковые сетевые интерфейсы точнее они разделяют между собой интерфейс пода ?
А есть ли ссылки какие то про баг, что вы рассказали про VXLAN и UDP? Можно подробнее где то почитать? Просто у меня Calico старый еще с поддержкой Flanel и там когда пиковые нагрузки что то стреляет, не понятно что. Спасибо
Здравствуйте. kubernetes сам прописывает всю маршрутизацию между серверами с помощью flannel, calico или предварительно необходимо подготовить серверы?
спасибо 1. calico необходимо только для распределенных инсталляций? если все в одном цоде имеет смысл связываться? 2 а если вместо calico тупо всех в один vlan? нет я понимаю, защита от дурака и фиг его знает, но шифрование из коробки и заметно большая производительность в отдельных кейсах очень интересный результат для scp itnext.io/benchmark-results-of-kubernetes-network-plugins-cni-over-10gbit-s-network-36475925a560 кстати, нет данных как calico переваривает высокий пакет рейт ? скажем, хотябы 10 Mpps ? насколько велики будут накладные расходы? какая будет задержка? есть у меня большие сомнения, глядя на результаты scp, что в моем кейсе, все будет крайне печально ( Правильно я понимаю, что в настоящее время серверные сетевые адаптеры имеют на борту аппаратное ускорение для vlan ? причем, нормальные системы виртуализации умеют это ускорение пробрасывать внутрь ? в то же время calico и ко - чистой воды софтверная виртуальная сетевуха со всеми вытекающими ?
Не вдаваясь в подробности. Зависит от того какой вид оверлей сети и как использован. Или без овелея. Если без оверлея - то там голая сеть линукс и никаких дополнительных оверхедов не будет, там даже nat нет. НО там еще могут влиять сервисы, как сделаны, на каком механизме. calico позволяет вообще обойти внутренние фишки линукс сети и еще больше ускорить прохождение пакета через сетевой стек линукса. Вобщем вопрос комплексный и это уже в одном из следующих видео.
@@OldPythonKAA там какая-то сомнительная отмазка We did not run HTTP, FTP and SCP tests anymore. Our fruitful collaboration with the community and CNI maintainers highlighted a gap between iperf TCP results and curl results, due to a delay in CNI startup (First few seconds at pod start, not revelant in real-world use case).
@@OldPythonKAA udp) CMD="iperf3 -u -b 0 -c $TARGET -O 1 $SOCKET_BUFFER_FLAG -f m -t $BENCHMARK_DURATION" ;; фигачат пакетами по 1470 байт в одном сокете а нас в rtp 40 байт заголовок + 20 тушка.. и сокетов тыщ 5
Артур, спасибо огромное! Как сетевой инженер, познающий сети кубера, нахожусь в восторге от подачи материала. Хорошо бы еще увидеть выводы RIB, в которую кубер инсталлирует маршруты на самих хостах
план отличный спасибо за видео
Мощно. Очень, ОЧЕНЬ годные видео! Легко и доступно для понимания, без воды. Спасибо
Cпасибо за такие замечательные видео про кубер !)
Спасибо, хорошее объяснение.
Как же хорошо, что я наткнулся на этот канал) Спасибо!
Это очень понятное объяснение. Странно что у вас так мало подписчиков.
Я этот канал делаю для себя :) и нигде не рекламирую.
@@OldPythonKAA я буду рекламировать, его должны смотреть много людей
Отличное видео!)Спасибо
Спасибо!
Слышал, что можно перенести на калико технологию macvlan, что позволит выдавать ip локальной сети непосредственно поду. Это позволит отбросить часть задержек. Интересная тема, пытаюсь ее накопать.
Отличное видео!) Спасибо, Артур!
Шикарно!
Спасибо огромное.
огромное спасибо
Спасибо
Спасибо за урок
вопрос : контейнеры работающие внутри одного и того же пода имеют одинаковые сетевые интерфейсы точнее они разделяют между собой интерфейс пода ?
Да, они садятся на интерфейс пода.
А есть ли ссылки какие то про баг, что вы рассказали про VXLAN и UDP? Можно подробнее где то почитать? Просто у меня Calico старый еще с поддержкой Flanel и там когда пиковые нагрузки что то стреляет, не понятно что. Спасибо
Это было так давно. Я уже не помню какие версии ядра использовались. Поспрашивайте гугл, он все помнит.
Здравствуйте, подскажите пожалуйста, сейчас эта информация еще актуальна? или сети в kubernetes далеко ушли?
Актуальна.
спасибо!
пожалуйста. ваши запросы совпали с моими желаниями :)
Overly means excessively, or too.
Здравствуйте. kubernetes сам прописывает всю маршрутизацию между серверами с помощью flannel, calico или предварительно необходимо подготовить серверы?
Между серверами вы должны сами сделать. Внутри кубера - драйвер сети кубера.
спасибо
1. calico необходимо только для распределенных инсталляций? если все в одном цоде имеет смысл связываться?
2 а если вместо calico тупо всех в один vlan? нет я понимаю, защита от дурака и фиг его знает, но шифрование из коробки и заметно большая производительность в отдельных кейсах
очень интересный результат для scp
itnext.io/benchmark-results-of-kubernetes-network-plugins-cni-over-10gbit-s-network-36475925a560
кстати, нет данных как calico переваривает высокий пакет рейт ? скажем, хотябы 10 Mpps ? насколько велики будут накладные расходы? какая будет задержка? есть у меня большие сомнения, глядя на результаты scp, что в моем кейсе, все будет крайне печально (
Правильно я понимаю, что в настоящее время серверные сетевые адаптеры имеют на борту аппаратное ускорение для vlan ? причем, нормальные системы виртуализации умеют это ускорение пробрасывать внутрь ? в то же время calico и ко - чистой воды софтверная виртуальная сетевуха со всеми вытекающими ?
Не вдаваясь в подробности. Зависит от того какой вид оверлей сети и как использован. Или без овелея. Если без оверлея - то там голая сеть линукс и никаких дополнительных оверхедов не будет, там даже nat нет. НО там еще могут влиять сервисы, как сделаны, на каком механизме. calico позволяет вообще обойти внутренние фишки линукс сети и еще больше ускорить прохождение пакета через сетевой стек линукса. Вобщем вопрос комплексный и это уже в одном из следующих видео.
У них там по свежее тест есть.
itnext.io/benchmark-results-of-kubernetes-network-plugins-cni-over-10gbit-s-network-updated-august-2020-6e1b757b9e49
@@OldPythonKAA ок, ждем продолжения )
@@OldPythonKAA там какая-то сомнительная отмазка
We did not run HTTP, FTP and SCP tests anymore. Our fruitful collaboration with the community and CNI maintainers highlighted a gap between iperf TCP results and curl results, due to a delay in CNI startup (First few seconds at pod start, not revelant in real-world use case).
@@OldPythonKAA
udp) CMD="iperf3 -u -b 0 -c $TARGET -O 1 $SOCKET_BUFFER_FLAG -f m -t $BENCHMARK_DURATION" ;;
фигачат пакетами по 1470 байт в одном сокете
а нас в rtp 40 байт заголовок + 20 тушка.. и сокетов тыщ 5