HIMOUR Yassine
HIMOUR Yassine
  • Видео 23
  • Просмотров 120 000

Видео

TD2EX05 (Methode des directions conjuguées)
Просмотров 2,9 тыс.3 года назад
TD2EX05 (Methode des directions conjuguées)
TD2EX04 (Construction des directions mutuellement conjugées)
Просмотров 1,5 тыс.3 года назад
TD2EX04 (Construction des directions mutuellement conjugées)
Chap2-V4 Méthodes de Newton et Quasi-Newton
Просмотров 4,3 тыс.3 года назад
Newton, DFP, BFGS, Levenberg-Marquardt
TD2EX03 (Méthode du gradient pour les fonctions quadratiques)
Просмотров 7 тыс.3 года назад
TD2EX03 (Méthode du gradient pour les fonctions quadratiques)
TD2EX02 (méthode du gradient à pas fixe et à pas optimal)
Просмотров 23 тыс.3 года назад
TD2EX02 (méthode du gradient à pas fixe et à pas optimal)
TD2EX01-(Recherche Linéaire) Exemple: Dichotomie, Section d'or.
Просмотров 1,5 тыс.3 года назад
TD2EX01-(Recherche Linéaire) Exemple: Dichotomie, Section d'or.
TP1 Optimisation
Просмотров 2,5 тыс.3 года назад
Explicatif sur le TP 1 de la matière Optimisation.
Chap2-V3 Méthodes du gradient; Méthode des gradients conjugués; Algorithme de Fletcher Reeves.
Просмотров 9 тыс.3 года назад
Méthodes du gradient à pas predeterminé et à pas optimal; La méthode des gradients conjugués pour les fonctions quadratiques et les fonctions non quadratique (algorithme de Fletcher Reeves)
Chap2-V2 Méthodes Recherche Linéaire
Просмотров 2,5 тыс.3 года назад
Dichotomie, section d'or, Armijo, Newton Raphson
Chap2-V1 Direction de déscente; Condition d'optimalité, notion recherche linéaire
Просмотров 4,9 тыс.3 года назад
Optimisation sans contrainte : approche algorithmique à base d'une direction de déscente. Sens de la recherce linéaire, direction de déscente, pas de recherche linéaire, conditions d'optimalité avec démonstration. Sens de la fonction phi(alpha) dans la recherche lineaire....
TD1EXO10 (Point Selle)
Просмотров 1,8 тыс.3 года назад
Sens d'un point selle à travers un exemple d'une fonction sous forme d'une selle.
TD1EXO9 (Modélisation, conditions d'optimalité)
Просмотров 1,3 тыс.3 года назад
Un problème d'optimisation de deux dimension.
Chap1-V2: Convexité, Gradient, Hessienne et Dérivée Directionnelle.
Просмотров 11 тыс.3 года назад
Convexité, Gradient, Hessienne et Dérivée Directionnelle.
Chapitre1-V1: Eléments de base d'optimisation
Просмотров 19 тыс.3 года назад
C'est quoi l 'optimisation? Solution locale et globale? Point selle? Courbes de niveau)
TD1EXO8(Modélisation, conditions d'optimalité)
Просмотров 1,3 тыс.3 года назад
TD1EXO8(Modélisation, conditions d'optimalité)
TD1EXO5(Fonctions convexes)
Просмотров 8 тыс.3 года назад
TD1EXO5(Fonctions convexes)
TD1EXO7(Dérivée directionnelle)
Просмотров 4 тыс.3 года назад
TD1EXO7(Dérivée directionnelle)
TD1EXO6(Fonctions Convexes)
Просмотров 2,7 тыс.3 года назад
TD1EXO6(Fonctions Convexes)
TD1EXO1(Calculer les points d'un segment)
Просмотров 4,5 тыс.3 года назад
TD1EXO1(Calculer les points d'un segment)
TD1EXO4 (Ensembles convexes)
Просмотров 2,1 тыс.3 года назад
TD1EXO4 (Ensembles convexes)
TD1EXO3(Combinaison Convexe)
Просмотров 2,3 тыс.3 года назад
TD1EXO3(Combinaison Convexe)
TD1EXO2 (Ensembles Convexes)
Просмотров 3,1 тыс.3 года назад
TD1EXO2 (Ensembles Convexes)

Комментарии

  • @abdellahsabri3412
    @abdellahsabri3412 8 дней назад

    '

  • @kokakoba1046
    @kokakoba1046 10 дней назад

    استاد هل طريقة les valeurs propres مقبولة من اجل اتبات او نفي function convexe

    • @himouryassine
      @himouryassine 9 дней назад

      Pour qu'une matrice soit définie positive, elle doit être symétrique plus ses valeurs propres doivent être positives.

    • @kokakoba1046
      @kokakoba1046 8 дней назад

      @himouryassine هل تقثد استاد أنه ادا كان valeurs propres positive فهدا يعني أن fonction convexity

    • @himouryassine
      @himouryassine 8 дней назад

      @@kokakoba1046Si matrice hessienne symétrique avec valeurs propres positives, alors la fonction est convexe.

    • @kokakoba1046
      @kokakoba1046 8 дней назад

      @himouryassine شكرا استاذ ربي يحفظك

  • @abdouetiennebadji2015
    @abdouetiennebadji2015 Месяц назад

    La derive du gradient par rapport à x devrait DONNÉ 2X1X3

  • @مصطفىمصطفى-ض8ج5ي
    @مصطفىمصطفى-ض8ج5ي Месяц назад

    أستاذ في أي مقياس تابع هذا الدرس إسم المقياس من فضلك

    • @himouryassine
      @himouryassine Месяц назад

      M1 Automatique et informatique industrielle

  • @yobourcoulibaly1186
    @yobourcoulibaly1186 5 месяцев назад

    Esce que cest un cour pour licence économique ? 1ere anné

  • @latifahsalem-ii4fc
    @latifahsalem-ii4fc 6 месяцев назад

    J'ai un problème, si on prend x^t=(-1 1) alors le résultat nous donne 6 qui est supérieur à 0

    • @YassineMohammedAbuRazane
      @YassineMohammedAbuRazane 6 месяцев назад

      Pas de souci, il suffait de trouve pour un vecteur x une valeur négative donc la matrice n'est plus définie positive.

  • @mdkwist1880
    @mdkwist1880 6 месяцев назад

    Si J'ai Une function du 3-4eme. Comment résoudre cette problème .la matrice hessian contient des variable, on peut pas calculer xk, alpha .

    • @himouryassine
      @himouryassine 6 месяцев назад

      Vous avez toujours le x_k pour calculer le x_(k+1). pour le x_1 vous devez avoir un x_0.

    • @mdkwist1880
      @mdkwist1880 6 месяцев назад

      @@himouryassine par exemple les méthodes de gradient j' ai besoin de Calculer la matrice hessian. Pour calculer alpha après chaque itération. C'est mon problème, il faut faire un changement de variable mais je sais pas où ! .

    • @himouryassine
      @himouryassine 6 месяцев назад

      Pour le calcule de la matrice hessienne utiliser le x_k ( juste comme dans le calcul du gradient). Si la fonction est quadratique vous pouvez utiliser l'expression alpha_k= gradient(x_k)*d_k / d_k* Hessienne(x_k)* d_k. Si la fonction à minimiser n'est quadratique vous devez trouver alpha_k optimal par minimisation de phi(alpha). C'est quoi phi(alpha) et comment la minimiser SVP voir la video a partir de 15:40.

    • @mdkwist1880
      @mdkwist1880 6 месяцев назад

      @@himouryassine merci beaucoup monsieur. بارك الله فيك

  • @redouaneoukik5207
    @redouaneoukik5207 6 месяцев назад

    4:35 ici je pense qu'il y a une erreur car d0 il est donné d0=(1,0)

  • @atel8485
    @atel8485 8 месяцев назад

    Ce qui concerne la définition d'un convexe. Khasek tgol quel que soit alpha Machi il esxite alpha Merci prof

  • @lamiabenouchene1793
    @lamiabenouchene1793 9 месяцев назад

    Comment trouver la direction la plus forte croissante et la plus forte décroissante

    • @himouryassine
      @himouryassine 9 месяцев назад

      c'est le gradient pour "la plus forte croissante", et le moins gradient pour "la plus forte décroissante": Ici ruclips.net/video/q7eztwkFEDE/видео.html j'explique pourquoi le moins gradient est la déscente la plus profonde.

  • @sarasara-ek9og
    @sarasara-ek9og 11 месяцев назад

    est ce que c'est un cour pour licence mathématiques ? troisième année

    • @himouryassine
      @himouryassine 9 месяцев назад

      Beaucoup de parties communes.

  • @HoudaDouga
    @HoudaDouga Год назад

    On prend ? Toujours précieux x=[1 1] Ou comment?

    • @YassineMohammedAbuRazane
      @YassineMohammedAbuRazane 6 месяцев назад

      Non, SI TU trouve pour un vecteur quelconque un résultat négative alors la matrice est non définie positive .

  • @badiaoudaime4650
    @badiaoudaime4650 Год назад

  • @badiaoudaime4650
    @badiaoudaime4650 Год назад

  • @badiaoudaime4650
    @badiaoudaime4650 Год назад

  • @badiaoudaime4650
    @badiaoudaime4650 Год назад

  • @badiaoudaime4650
    @badiaoudaime4650 Год назад

    delta2=1

  • @badiaoudaime4650
    @badiaoudaime4650 Год назад

  • @badiaoudaime4650
    @badiaoudaime4650 Год назад

    49:32

  • @badiaoudaime4650
    @badiaoudaime4650 Год назад

    monsieur dans la premiere définition quelque soit alpha pas il existe

    • @himouryassine
      @himouryassine Год назад

      à chaque fois on prend une valeur de alpha entre 0 et 1 on tombe sur une point qui appartient au segment x1x2.

  • @badiaoudaime4650
    @badiaoudaime4650 Год назад

    merci bcq, je suis étudiante à la fac de Fes , c'est trés interessant ce que vous presentez

  • @badiaoudaime4650
    @badiaoudaime4650 Год назад

  • @ichakamaiga7374
    @ichakamaiga7374 Год назад

    برك الله فيك

  • @si-hamsoso2543
    @si-hamsoso2543 Год назад

    هل هذه الدروس كذلك لautomatique et system?!!!! من فضلك ممكن توضيح

    • @himouryassine
      @himouryassine Год назад

      تقصد لفرع الاوتوماتيك، نعم.

    • @si-hamsoso2543
      @si-hamsoso2543 Год назад

      @@himouryassine نعم فرع الاوتوماتك شكرا جزيلا ربي يحفظك

  • @WafaHerbadji
    @WafaHerbadji Год назад

    Merci beaucoup, Pouvez-vous m'envoyer le cours en format PDF ? et merci d'avance

  • @moayeoura8950
    @moayeoura8950 Год назад

    Salut professeur, Il y'a une erreur au niveau de la deuxième valeur de µ2 ici µ2= 1- (Q3/1-Q1) néanmoins merci pour l'explication

  • @ham4181
    @ham4181 Год назад

    bonjour, vous avez interverti cos et sin à la fin je pense.

  • @taghimohamed526
    @taghimohamed526 Год назад

    Pour quoi la matrice husseine n'est pas symétrique ?

    • @himouryassine
      @himouryassine Год назад

      Juste un typo: hessienne =[-2 -2 ; -2 -6]. (au lieu de -x2 c'est -2) désolu pour la confusion provovquée.

  • @hayfarjh1684
    @hayfarjh1684 Год назад

    Il y'a une faute dans la matrice hessienne, c'est pas-x2 , (minute 4:23) de plus on la déplace au dessous de -2 c'est à dire même colonne c'est pas même ligne la 2eme colonne correspond à la dérivation de-2x1-6x1 par rapport à x1 et x2

    • @himouryassine
      @himouryassine Год назад

      Merci pour la correction. Oui, l'élement correspondant à la première ligne deuxième colonne de l'héssienne doit être -2 pas -x2 (je devais faire attention car la matrice héssienne est une matrice symétrique). Mais on ne le déplace pas au dessous. La première ligne de la matrice héssienne correspond à la dérivée du premier élement du gradient par rapport à x1 et puis à x2. La deuxième ligne de la matrice héssienne correspond à la dérivée du deuxième élement du gradient par rapport à x1 et puis à x2. Merci encore

  • @techno_power589
    @techno_power589 Год назад

    Salam 3likom j'ai pas compris mensieur quelle est la difference entre condition nécessaire et condition suffisants ?? Rak katabhom les deux kifkif les deux conditions sont les même?? merci

    • @himouryassine
      @himouryassine Год назад

      Conditions nécessaires: matrice hessiennes semi définie positive. Conditions suffisantes : matrice héssienne strictement définie positive. Dans le premier cas, on ne sait pas la nature des points trouvés ( min, max ou points selles). Le deuxième cas, on est sur que les points stationnaires sont des mins.

    • @techno_power589
      @techno_power589 Год назад

      Merci mensieur allah yhafdak Ki ykono tous les mineurs de matrice hessien positive ngolo bali matrice definie positive w ki tkon semi définie positive kifach na3arfo??

  • @desirenda3856
    @desirenda3856 Год назад

    Bonjour Monsieur, Merci pour ces vidéos..... est ce que c'est possible d'avoir le cours ? merci

  • @sami3ful
    @sami3ful Год назад

    بارك الله فيك

  • @techno_power589
    @techno_power589 2 года назад

    السلام عليكم هناك خطأ في حل تمرين انت حطيت في الدرس انو gradient à pas fix d=_grad(f)///grad(f) لكن هنا راك حاط d=-grad(f) يعني حليت gradients à pas fixé بنفس طريقة pas optimal ممكن توضحلنا السبب و شكرا

    • @himouryassine
      @himouryassine 2 года назад

      Les deux sont correctes et peuvent être à pas prédeterminé ou à pas optimal. d=-grad(f) est une direction qui a une influence sur le pas effectif, car à chaque fois on s'approche de la solution le gradient devient trop petit et le pas effectif de l'avancent devient trop petit, donc l'avancment devient trop lent. Lorsque on divise par la norme du grandient : d=-grad(f)/norme(grad(f)), la direction devient unitaire donc elle n'aura pas d'influence sur le pas effectif d'avancement.

  • @zakariaelark2023
    @zakariaelark2023 2 года назад

    Merci beaucoup

  • @nasonaso7242
    @nasonaso7242 2 года назад

    merci 🧡

  • @karimdz551
    @karimdz551 2 года назад

    Merci Mr. Pourrez-vous nous dire le logiciel utiliser dans cette explication.

    • @himouryassine
      @himouryassine 2 года назад

      c3d.libretexts.org/CalcPlot3D/index.html

  • @kamelbelh4761
    @kamelbelh4761 2 года назад

    جزاك الله خيرا

  • @mohamedppii1021
    @mohamedppii1021 2 года назад

    a = matrice symetrique définie positive

  • @mohamedppii1021
    @mohamedppii1021 2 года назад

    f(x) = e||x||^2 + (1/2) <ax, x)> - <b, x> Comment démontrer que cette fonction est fortement convexe e=epsilon >0

  • @mohamedppii1021
    @mohamedppii1021 2 года назад

    ممكن سؤال

    • @himouryassine
      @himouryassine 2 года назад

      تفضل

    • @mohamedppii1021
      @mohamedppii1021 2 года назад

      @@himouryassine السلام عليكم ورحمة الله وبركاته من فضلك أود المساعدة في التمرين Sur l'optimisation Surtout sur les fonction quadratique Svp votre email pour l'envoyé et merci beaucoup

    • @mohamedppii1021
      @mohamedppii1021 2 года назад

      السلام عليكم ورحمة الله وبركاته

    • @himouryassine
      @himouryassine Год назад

      @@mohamedppii1021 المعذرة لم انتبه للتعليق في وقته

  • @mohamedppii1021
    @mohamedppii1021 2 года назад

    شكرآ جزيلاً لك على نشر المعرفة وكل التقدير والاحترام لك

  • @mohamedppii1021
    @mohamedppii1021 2 года назад

    السلام عليكم ورحمة الله

  • @الأستاذواردللرياضيات

    سلام عليكم استاذ كيف يمكننا التواصل معك شكرا

    • @himouryassine
      @himouryassine 2 года назад

      وعليكم السلام، بالإيميل بالصفحة www.univ-dbkm.dz/formations/36-avis-d-appels-d-offres/fst/blog-himour-yassine

  • @MohamedMohamed-wk4de
    @MohamedMohamed-wk4de 2 года назад

    C'est quoi la méthode de gradient réduit j'ai un examen sur cette méthode là passer votre email svp

    • @himouryassine
      @himouryassine 2 года назад

      Au lieu de travailler avec le gradient g de la fonction à minimiser, on travaille avec un gradient réduit : gr=Z^t*g (Z est à calculer ..... )

    • @MohamedMohamed-wk4de
      @MohamedMohamed-wk4de 2 года назад

      @@himouryassine merci beaucoup mais je ne comprends pas svp passer votre email pour travailler sur un exemple

    • @himouryassine
      @himouryassine 2 года назад

      @@MohamedMohamed-wk4de Malheureusement j'ai pas suffisamment de temps, surtout que la méthode n'est pas programmée dans la matière que j'enseigne. Néanmoins, je te conseille de voir ce document page 592 pour le cours et page 596 pour un exemple dumas.perso.math.cnrs.fr/MINT-2018-TO5.pdf Bon courage

    • @MohamedMohamed-wk4de
      @MohamedMohamed-wk4de 2 года назад

      @@himouryassine merci beaucoup

  • @MohamedMohamed-wk4de
    @MohamedMohamed-wk4de 2 года назад

    السلام عليكم ورحمة الله

  • @puisque9182
    @puisque9182 2 года назад

    MinJ(μ,w) sous contraintes gj(μ)=0 ∀j∈{1,...N} W1,W2∈R^n , μ∈R^2N 1)pour n=1 et N=3,(a)réécrire le problème. (b)Ecrire les conditions de lagrange (c)trouver les μiq en fonction de Z1,Z2,Z3. 2)Reprendre les questions précédentes (a),(b) et(c) dans le cas général

  • @puisque9182
    @puisque9182 2 года назад

    Soient Z1,Z2....ZN des éléments connus de R^n,où N et n sont deux entiers naturels. Considérons les deux fonctions :J(μ,W1,w2)=∑1≤i≤N∑1≤q≤2 μiq||Zi−Wq|| et gj(μ)=∑1≤q≤2 μjq −1 ∀j∈{1,...N} et μ∈R^2N on considère le problème d'optimisation avec contraintes suivant

  • @puisque9182
    @puisque9182 2 года назад

    Bonjour monsieur, j'ai un exercice qui est loin de cette leçon. Si vous pouvez le résoudre pour moi, et si possible, avant lundi, j'ai essayé avec, mais je ne sais pas si quelque chose n'allait pas ou si je ne Je ne sais pas. Merci

  • @roseatakora6498
    @roseatakora6498 2 года назад

    Pour le second déterminant c'est égal à 1 au lieu de 5

    • @himouryassine
      @himouryassine 2 года назад

      1*1-(-4)*0=1. Merci bien pour la correction.