- Видео 23
- Просмотров 120 000
HIMOUR Yassine
Добавлен 20 дек 2020
Geometric Interpretation of Lagrange Optimality Conditions
Geometric Interpretation of Lagrange Optimality Conditions
Просмотров: 454
Видео
TD2EX05 (Methode des directions conjuguées)
Просмотров 2,9 тыс.3 года назад
TD2EX05 (Methode des directions conjuguées)
TD2EX04 (Construction des directions mutuellement conjugées)
Просмотров 1,5 тыс.3 года назад
TD2EX04 (Construction des directions mutuellement conjugées)
Chap2-V4 Méthodes de Newton et Quasi-Newton
Просмотров 4,3 тыс.3 года назад
Newton, DFP, BFGS, Levenberg-Marquardt
TD2EX03 (Méthode du gradient pour les fonctions quadratiques)
Просмотров 7 тыс.3 года назад
TD2EX03 (Méthode du gradient pour les fonctions quadratiques)
TD2EX02 (méthode du gradient à pas fixe et à pas optimal)
Просмотров 23 тыс.3 года назад
TD2EX02 (méthode du gradient à pas fixe et à pas optimal)
TD2EX01-(Recherche Linéaire) Exemple: Dichotomie, Section d'or.
Просмотров 1,5 тыс.3 года назад
TD2EX01-(Recherche Linéaire) Exemple: Dichotomie, Section d'or.
Chap2-V3 Méthodes du gradient; Méthode des gradients conjugués; Algorithme de Fletcher Reeves.
Просмотров 9 тыс.3 года назад
Méthodes du gradient à pas predeterminé et à pas optimal; La méthode des gradients conjugués pour les fonctions quadratiques et les fonctions non quadratique (algorithme de Fletcher Reeves)
Chap2-V2 Méthodes Recherche Linéaire
Просмотров 2,5 тыс.3 года назад
Dichotomie, section d'or, Armijo, Newton Raphson
Chap2-V1 Direction de déscente; Condition d'optimalité, notion recherche linéaire
Просмотров 4,9 тыс.3 года назад
Optimisation sans contrainte : approche algorithmique à base d'une direction de déscente. Sens de la recherce linéaire, direction de déscente, pas de recherche linéaire, conditions d'optimalité avec démonstration. Sens de la fonction phi(alpha) dans la recherche lineaire....
TD1EXO10 (Point Selle)
Просмотров 1,8 тыс.3 года назад
Sens d'un point selle à travers un exemple d'une fonction sous forme d'une selle.
TD1EXO9 (Modélisation, conditions d'optimalité)
Просмотров 1,3 тыс.3 года назад
Un problème d'optimisation de deux dimension.
Chap1-V2: Convexité, Gradient, Hessienne et Dérivée Directionnelle.
Просмотров 11 тыс.3 года назад
Convexité, Gradient, Hessienne et Dérivée Directionnelle.
Chapitre1-V1: Eléments de base d'optimisation
Просмотров 19 тыс.3 года назад
C'est quoi l 'optimisation? Solution locale et globale? Point selle? Courbes de niveau)
TD1EXO8(Modélisation, conditions d'optimalité)
Просмотров 1,3 тыс.3 года назад
TD1EXO8(Modélisation, conditions d'optimalité)
TD1EXO1(Calculer les points d'un segment)
Просмотров 4,5 тыс.3 года назад
TD1EXO1(Calculer les points d'un segment)
'
استاد هل طريقة les valeurs propres مقبولة من اجل اتبات او نفي function convexe
Pour qu'une matrice soit définie positive, elle doit être symétrique plus ses valeurs propres doivent être positives.
@himouryassine هل تقثد استاد أنه ادا كان valeurs propres positive فهدا يعني أن fonction convexity
@@kokakoba1046Si matrice hessienne symétrique avec valeurs propres positives, alors la fonction est convexe.
@himouryassine شكرا استاذ ربي يحفظك
La derive du gradient par rapport à x devrait DONNÉ 2X1X3
أستاذ في أي مقياس تابع هذا الدرس إسم المقياس من فضلك
M1 Automatique et informatique industrielle
Esce que cest un cour pour licence économique ? 1ere anné
J'ai un problème, si on prend x^t=(-1 1) alors le résultat nous donne 6 qui est supérieur à 0
Pas de souci, il suffait de trouve pour un vecteur x une valeur négative donc la matrice n'est plus définie positive.
Si J'ai Une function du 3-4eme. Comment résoudre cette problème .la matrice hessian contient des variable, on peut pas calculer xk, alpha .
Vous avez toujours le x_k pour calculer le x_(k+1). pour le x_1 vous devez avoir un x_0.
@@himouryassine par exemple les méthodes de gradient j' ai besoin de Calculer la matrice hessian. Pour calculer alpha après chaque itération. C'est mon problème, il faut faire un changement de variable mais je sais pas où ! .
Pour le calcule de la matrice hessienne utiliser le x_k ( juste comme dans le calcul du gradient). Si la fonction est quadratique vous pouvez utiliser l'expression alpha_k= gradient(x_k)*d_k / d_k* Hessienne(x_k)* d_k. Si la fonction à minimiser n'est quadratique vous devez trouver alpha_k optimal par minimisation de phi(alpha). C'est quoi phi(alpha) et comment la minimiser SVP voir la video a partir de 15:40.
@@himouryassine merci beaucoup monsieur. بارك الله فيك
4:35 ici je pense qu'il y a une erreur car d0 il est donné d0=(1,0)
Ce qui concerne la définition d'un convexe. Khasek tgol quel que soit alpha Machi il esxite alpha Merci prof
Comment trouver la direction la plus forte croissante et la plus forte décroissante
c'est le gradient pour "la plus forte croissante", et le moins gradient pour "la plus forte décroissante": Ici ruclips.net/video/q7eztwkFEDE/видео.html j'explique pourquoi le moins gradient est la déscente la plus profonde.
est ce que c'est un cour pour licence mathématiques ? troisième année
Beaucoup de parties communes.
On prend ? Toujours précieux x=[1 1] Ou comment?
Non, SI TU trouve pour un vecteur quelconque un résultat négative alors la matrice est non définie positive .
❤
❤
❤
❤
delta2=1
Merci pour la correction
❤
49:32
monsieur dans la premiere définition quelque soit alpha pas il existe
à chaque fois on prend une valeur de alpha entre 0 et 1 on tombe sur une point qui appartient au segment x1x2.
merci bcq, je suis étudiante à la fac de Fes , c'est trés interessant ce que vous presentez
❤
برك الله فيك
هل هذه الدروس كذلك لautomatique et system?!!!! من فضلك ممكن توضيح
تقصد لفرع الاوتوماتيك، نعم.
@@himouryassine نعم فرع الاوتوماتك شكرا جزيلا ربي يحفظك
Merci beaucoup, Pouvez-vous m'envoyer le cours en format PDF ? et merci d'avance
Salut professeur, Il y'a une erreur au niveau de la deuxième valeur de µ2 ici µ2= 1- (Q3/1-Q1) néanmoins merci pour l'explication
bonjour, vous avez interverti cos et sin à la fin je pense.
Pour quoi la matrice husseine n'est pas symétrique ?
Juste un typo: hessienne =[-2 -2 ; -2 -6]. (au lieu de -x2 c'est -2) désolu pour la confusion provovquée.
Il y'a une faute dans la matrice hessienne, c'est pas-x2 , (minute 4:23) de plus on la déplace au dessous de -2 c'est à dire même colonne c'est pas même ligne la 2eme colonne correspond à la dérivation de-2x1-6x1 par rapport à x1 et x2
Merci pour la correction. Oui, l'élement correspondant à la première ligne deuxième colonne de l'héssienne doit être -2 pas -x2 (je devais faire attention car la matrice héssienne est une matrice symétrique). Mais on ne le déplace pas au dessous. La première ligne de la matrice héssienne correspond à la dérivée du premier élement du gradient par rapport à x1 et puis à x2. La deuxième ligne de la matrice héssienne correspond à la dérivée du deuxième élement du gradient par rapport à x1 et puis à x2. Merci encore
Salam 3likom j'ai pas compris mensieur quelle est la difference entre condition nécessaire et condition suffisants ?? Rak katabhom les deux kifkif les deux conditions sont les même?? merci
Conditions nécessaires: matrice hessiennes semi définie positive. Conditions suffisantes : matrice héssienne strictement définie positive. Dans le premier cas, on ne sait pas la nature des points trouvés ( min, max ou points selles). Le deuxième cas, on est sur que les points stationnaires sont des mins.
Merci mensieur allah yhafdak Ki ykono tous les mineurs de matrice hessien positive ngolo bali matrice definie positive w ki tkon semi définie positive kifach na3arfo??
Bonjour Monsieur, Merci pour ces vidéos..... est ce que c'est possible d'avoir le cours ? merci
بارك الله فيك
السلام عليكم هناك خطأ في حل تمرين انت حطيت في الدرس انو gradient à pas fix d=_grad(f)///grad(f) لكن هنا راك حاط d=-grad(f) يعني حليت gradients à pas fixé بنفس طريقة pas optimal ممكن توضحلنا السبب و شكرا
Les deux sont correctes et peuvent être à pas prédeterminé ou à pas optimal. d=-grad(f) est une direction qui a une influence sur le pas effectif, car à chaque fois on s'approche de la solution le gradient devient trop petit et le pas effectif de l'avancent devient trop petit, donc l'avancment devient trop lent. Lorsque on divise par la norme du grandient : d=-grad(f)/norme(grad(f)), la direction devient unitaire donc elle n'aura pas d'influence sur le pas effectif d'avancement.
Merci beaucoup
merci 🧡
Merci Mr. Pourrez-vous nous dire le logiciel utiliser dans cette explication.
c3d.libretexts.org/CalcPlot3D/index.html
جزاك الله خيرا
a = matrice symetrique définie positive
f(x) = e||x||^2 + (1/2) <ax, x)> - <b, x> Comment démontrer que cette fonction est fortement convexe e=epsilon >0
ممكن سؤال
تفضل
@@himouryassine السلام عليكم ورحمة الله وبركاته من فضلك أود المساعدة في التمرين Sur l'optimisation Surtout sur les fonction quadratique Svp votre email pour l'envoyé et merci beaucoup
السلام عليكم ورحمة الله وبركاته
@@mohamedppii1021 المعذرة لم انتبه للتعليق في وقته
شكرآ جزيلاً لك على نشر المعرفة وكل التقدير والاحترام لك
السلام عليكم ورحمة الله
سلام عليكم استاذ كيف يمكننا التواصل معك شكرا
وعليكم السلام، بالإيميل بالصفحة www.univ-dbkm.dz/formations/36-avis-d-appels-d-offres/fst/blog-himour-yassine
Mrc
C'est quoi la méthode de gradient réduit j'ai un examen sur cette méthode là passer votre email svp
Au lieu de travailler avec le gradient g de la fonction à minimiser, on travaille avec un gradient réduit : gr=Z^t*g (Z est à calculer ..... )
@@himouryassine merci beaucoup mais je ne comprends pas svp passer votre email pour travailler sur un exemple
@@MohamedMohamed-wk4de Malheureusement j'ai pas suffisamment de temps, surtout que la méthode n'est pas programmée dans la matière que j'enseigne. Néanmoins, je te conseille de voir ce document page 592 pour le cours et page 596 pour un exemple dumas.perso.math.cnrs.fr/MINT-2018-TO5.pdf Bon courage
@@himouryassine merci beaucoup
السلام عليكم ورحمة الله
MinJ(μ,w) sous contraintes gj(μ)=0 ∀j∈{1,...N} W1,W2∈R^n , μ∈R^2N 1)pour n=1 et N=3,(a)réécrire le problème. (b)Ecrire les conditions de lagrange (c)trouver les μiq en fonction de Z1,Z2,Z3. 2)Reprendre les questions précédentes (a),(b) et(c) dans le cas général
Soient Z1,Z2....ZN des éléments connus de R^n,où N et n sont deux entiers naturels. Considérons les deux fonctions :J(μ,W1,w2)=∑1≤i≤N∑1≤q≤2 μiq||Zi−Wq|| et gj(μ)=∑1≤q≤2 μjq −1 ∀j∈{1,...N} et μ∈R^2N on considère le problème d'optimisation avec contraintes suivant
Bonjour monsieur, j'ai un exercice qui est loin de cette leçon. Si vous pouvez le résoudre pour moi, et si possible, avant lundi, j'ai essayé avec, mais je ne sais pas si quelque chose n'allait pas ou si je ne Je ne sais pas. Merci
Pour le second déterminant c'est égal à 1 au lieu de 5
1*1-(-4)*0=1. Merci bien pour la correction.