Super contenu encore une fois ! Petite coquille dans le polynôme élémentaire de Lagrange où il y a j≠p au lieu de j≠i Et la ref au monastère d'AoE2 à 6:53 est sublime 😊
Merci pour cette vidéo, Les espaces propres sont en somme directe, on ne peut pas en déduire que l'endomorphisme est diagonalisable, est ce qu'il y a une condition supplémentaire pour l'endomorphisme soit diagonalisable? et comment la démontré.
Effectivement, la condition « supplémentaire » est que les sous-espaces propres soient « supplémentaires » ! Et c'est même une condition nécessaire et suffisante, d'ailleurs. Moralement, l'idée, c'est que s'ils ne sont pas supplémentaires, on n'a pas assez de vecteurs pour constituer une base de E.
Est-ce qu'on peut simplement procéder par récurrence et dans l'hérédité supposer somme xi =0 , puis appliquer f, il vient alors somme des lambdai xi =0 et en f, ensuite faire une combinaison linéaire de ces deux équations et se ramener à l'hypothèse de récurrence ?
Oui, ça m'a l'air possible ! Je n'ai pas vérifié dans les détails, mais dès lors qu'il y a plus que deux valeurs propres, l'une d'entre elles et non nulle, et donc on peut faire une combinaison linéaire des deux équations en question pour déquiller l'un des xi. À partir de là, si on fait une récurrence sur le nombre de sous-espaces propres qui sont sensés être en somme directe, il me semble bien que ça gagne 🥳!
Bonjour, il y a quelques points que je ne comprends pas dans votre démonstration utilisant Lagrange : Le fait que P(f(x)) = P(λ) . x n'admet-il pas comme contre-exemple P= 1? On aurait dont 1=x. De plus, en remplacant X par f(sum(Xj)) dans le polynome interpolateur de lagrange j'ai l'impression qu'on soustrait un vecteur avec un scalaire. Troisièmement je comprends mal d'où provient la linéarité du polynome de lagrange par la somme.
Pour la première question, il y a une petite confusion. Lorsque j'évalue le polynôme P = 1 en un endomorphisme, je n'obtiens pas 1, mais l'endomorphisme l'identité de l'espace vectoriel considéré. Il est d'ailleurs intéressant d'examiner le côté « homogène » des équations pour contrôler les manipulations réalisées. 🔹 L'équation [P(f)](x) = P(λ).x est homogène: à gauche comme à droite, on a un vecteur. 🔹 L'équation x = 1 n'est pas homogène: à gauche, on a un vecteur, à droite, on a un scalaire.
Pour la deuxième question, c'est un peu la même chose. Li(f) est un endomorphisme, puisque les λj se transformeront en λj Id au cours de l'évaluation de Li en l'endomorphisme f. Et donc, à partir de là, il est possible d'évaluer cet endomorphisme en un vecteur, même écrit sous forme de somme.
Pour la troisième question (et c'est une bonne nouvelle), c'est à nouveau la même chose. Un polynôme n'est pas linéaire, mais un polynôme en un endomorphisme, qui est lui-même un endomorphisme, l'est 😇!
Pour le zéro à gauche de notre égalité, c'est un zéro parce que justement pour n'importe quelle fonction, 0 est une valeur propre et donc 0 un vecteur propre d'un espace propre E_0 ? Donc lorsqu'on prend le polynome de lagrange de 0 ca donne bien 0 ?
🔹 Si nous parlons bien du 0 qui apparaît à 2:11, c'est le 0 de l'équation x1 + ... + xp = 0 que nous supposons vraie en début de raisonnement, avec l'intention de démontrer qu'étant vérifiée, elle implique x1 = ... = xp. 🔹 Quant à la suite de tes propos, je désapprouve 🙃 ! Les seules applications linéaires qui possèdent 0 comme valeur propre sont les applications linéaires non injectives, ce n'est pas le cas de toutes.
Bonjour vraiment la vidéo est presque parfaite. Dans ma tête elle est parfaite mais dans la tête d’un prof de maths elle ne l’est pas car vous avez écrit dans l’expression du polynôme interpolateur Li que j≠p au lieu de j≠i (ça fait une division par 0 ) timecode : 1:22 . Après avoir vu cette vidéo j’ai juste un regret c’est de ne pas vous avoir connu plus tôt.
Salutations et merci pour ce message chaleureux 😄! Oui, il y a toujours quelques coquilles qui restent… tant que cela n'entrave pas la compréhension, j'ai pour usage de ne pas réuploader la vidéo 😇.
Bonjour, pour montrer que des sev sont en somme directe, on montre que l’intersection est le vecteur nul. Pourquoi cela équivaut à montrer que si la somme est nulle, alors chaque vecteur de la somme est nul ? Merci 🙏
Précisément, pour démontrer que deux (pas plus !) s.e.v. sont en somme directe, on peut démontrer que leur intersection est réduite à {0}. La démonstration se trouve, par exemple, ici : uel.unisciel.fr/mathematiques/espacevect1/espacevect1_ch02/co/apprendre_ch2_07_01.html 👨🏻🏫.
Dans la seconde méthode, je trouve dommage le fait qu'on doive d'introduire une base. Si x+y=0 et 3x+7y=0, on peut résoudre le système même si x et y sont des vecteurs, on trouvera x=y=0. Je reconnais que ça fait un système bizarre car les inconnues sont des vecteurs, mais l'algorithme du pivot de Gauss fonctionne très bien. La forme matricielle ((1 1)(3 7))(x y)=(0_E 0_E) est problèmatique : (x y) est un vecteur ont les coordonnées sont des vecteurs, je ne sais pas quoi faire avec cet objet bizarre. Pourant GLn(k) opére à gauche, il y a des choses à faire...
Je suis d'accord ! J'ai été assez frustré de devoir passer par des coordonnées... J'avais l'impression qu'on devait pouvoir contourner cela, mais il fallait peut-être construire quelque chose de sur-mesure, ce que je n'ai jamais rencontré dans mes études. Mettre des vecteurs dans une matrice, pourquoi pas, après tout: une « matrice » n'est qu'un simple tableau. Et effectivement, on pourrait parler de multiplication à gauche par une matrice de scalaires... mais ça devient assez sportif 🤯. Dans le doute, je me suis ramené à des scalaires.
@@oljenmaths ok car j ai un exercice similaire ou cette fois c est de montrer que la somme directe des FinterElambda donc on peut toujours faire cette hypothese ?
@@flavienblanchard7475 Oui, on prend un vecteur (y,x1,…,xn) dans FxE1x…xEn dont la somme des composantes est nulle, et on démontre que toutes les composantes sont nulles. Ce faisant, si on y parvient, on aura démontré que F, E1, …, En sont en somme direct, en effet 👍🏻.
Où bien on utilise la liberté d'une famille de p vecteurs propres associés à p valeurs propres distinctes… tant de façon d'arriver à un même résultat !
@@oljenmaths Oui en effet, comme souvent, on peut voir l'une des propriétés comme corollaire de l'autre et inversement. La démonstration peut en effet se faire par récurrence sur p, similairement à la démonstration du caractère liée d'une famille de p+1 vecteurs exprimés en fonction des mêmes p vecteurs. Comme quoi tous les chemins mènent à Rome !
Super contenu encore une fois !
Petite coquille dans le polynôme élémentaire de Lagrange où il y a j≠p au lieu de j≠i
Et la ref au monastère d'AoE2 à 6:53 est sublime 😊
Bien vu, pour la coquille et pour le monastère, merci 😃 !
franchement cela mérite 20/20, difficile de faire mieux!!!
Merci pour cette vidéo, Les espaces propres sont en somme directe, on ne peut pas en déduire que l'endomorphisme est diagonalisable, est ce qu'il y a une condition supplémentaire pour l'endomorphisme soit diagonalisable? et comment la démontré.
Effectivement, la condition « supplémentaire » est que les sous-espaces propres soient « supplémentaires » ! Et c'est même une condition nécessaire et suffisante, d'ailleurs. Moralement, l'idée, c'est que s'ils ne sont pas supplémentaires, on n'a pas assez de vecteurs pour constituer une base de E.
Est-ce qu'on peut simplement procéder par récurrence et dans l'hérédité supposer somme xi =0 , puis appliquer f, il vient alors somme des lambdai xi =0 et en f, ensuite faire une combinaison linéaire de ces deux équations et se ramener à l'hypothèse de récurrence ?
Oui, ça m'a l'air possible ! Je n'ai pas vérifié dans les détails, mais dès lors qu'il y a plus que deux valeurs propres, l'une d'entre elles et non nulle, et donc on peut faire une combinaison linéaire des deux équations en question pour déquiller l'un des xi. À partir de là, si on fait une récurrence sur le nombre de sous-espaces propres qui sont sensés être en somme directe, il me semble bien que ça gagne 🥳!
Bonjour, il y a quelques points que je ne comprends pas dans votre démonstration utilisant Lagrange :
Le fait que P(f(x)) = P(λ) . x n'admet-il pas comme contre-exemple P= 1? On aurait dont 1=x.
De plus, en remplacant X par f(sum(Xj)) dans le polynome interpolateur de lagrange j'ai l'impression qu'on soustrait un vecteur avec un scalaire.
Troisièmement je comprends mal d'où provient la linéarité du polynome de lagrange par la somme.
Pour la première question, il y a une petite confusion. Lorsque j'évalue le polynôme P = 1 en un endomorphisme, je n'obtiens pas 1, mais l'endomorphisme l'identité de l'espace vectoriel considéré.
Il est d'ailleurs intéressant d'examiner le côté « homogène » des équations pour contrôler les manipulations réalisées.
🔹 L'équation [P(f)](x) = P(λ).x est homogène: à gauche comme à droite, on a un vecteur.
🔹 L'équation x = 1 n'est pas homogène: à gauche, on a un vecteur, à droite, on a un scalaire.
Pour la deuxième question, c'est un peu la même chose. Li(f) est un endomorphisme, puisque les λj se transformeront en λj Id au cours de l'évaluation de Li en l'endomorphisme f. Et donc, à partir de là, il est possible d'évaluer cet endomorphisme en un vecteur, même écrit sous forme de somme.
Pour la troisième question (et c'est une bonne nouvelle), c'est à nouveau la même chose. Un polynôme n'est pas linéaire, mais un polynôme en un endomorphisme, qui est lui-même un endomorphisme, l'est 😇!
Merci de vos réponses précises!
Pour le zéro à gauche de notre égalité, c'est un zéro parce que justement pour n'importe quelle fonction, 0 est une valeur propre et donc 0 un vecteur propre d'un espace propre E_0 ? Donc lorsqu'on prend le polynome de lagrange de 0 ca donne bien 0 ?
🔹 Si nous parlons bien du 0 qui apparaît à 2:11, c'est le 0 de l'équation x1 + ... + xp = 0 que nous supposons vraie en début de raisonnement, avec l'intention de démontrer qu'étant vérifiée, elle implique x1 = ... = xp.
🔹 Quant à la suite de tes propos, je désapprouve 🙃 ! Les seules applications linéaires qui possèdent 0 comme valeur propre sont les applications linéaires non injectives, ce n'est pas le cas de toutes.
20/20
Bonjour vraiment la vidéo est presque parfaite. Dans ma tête elle est parfaite mais dans la tête d’un prof de maths elle ne l’est pas car vous avez écrit dans l’expression du polynôme interpolateur Li que j≠p au lieu de j≠i (ça fait une division par 0 ) timecode : 1:22 . Après avoir vu cette vidéo j’ai juste un regret c’est de ne pas vous avoir connu plus tôt.
Salutations et merci pour ce message chaleureux 😄! Oui, il y a toujours quelques coquilles qui restent… tant que cela n'entrave pas la compréhension, j'ai pour usage de ne pas réuploader la vidéo 😇.
Bonjour, pour montrer que des sev sont en somme directe, on montre que l’intersection est le vecteur nul. Pourquoi cela équivaut à montrer que si la somme est nulle, alors chaque vecteur de la somme est nul ?
Merci 🙏
Précisément, pour démontrer que deux (pas plus !) s.e.v. sont en somme directe, on peut démontrer que leur intersection est réduite à {0}. La démonstration se trouve, par exemple, ici :
uel.unisciel.fr/mathematiques/espacevect1/espacevect1_ch02/co/apprendre_ch2_07_01.html 👨🏻🏫.
@@oljenmaths merci beaucoup 🙂
Dans la seconde méthode, je trouve dommage le fait qu'on doive d'introduire une base. Si x+y=0 et 3x+7y=0, on peut résoudre le système même si x et y sont des vecteurs, on trouvera x=y=0. Je reconnais que ça fait un système bizarre car les inconnues sont des vecteurs, mais l'algorithme du pivot de Gauss fonctionne très bien. La forme matricielle ((1 1)(3 7))(x y)=(0_E 0_E) est problèmatique : (x y) est un vecteur ont les coordonnées sont des vecteurs, je ne sais pas quoi faire avec cet objet bizarre. Pourant GLn(k) opére à gauche, il y a des choses à faire...
Je suis d'accord ! J'ai été assez frustré de devoir passer par des coordonnées... J'avais l'impression qu'on devait pouvoir contourner cela, mais il fallait peut-être construire quelque chose de sur-mesure, ce que je n'ai jamais rencontré dans mes études.
Mettre des vecteurs dans une matrice, pourquoi pas, après tout: une « matrice » n'est qu'un simple tableau. Et effectivement, on pourrait parler de multiplication à gauche par une matrice de scalaires... mais ça devient assez sportif 🤯. Dans le doute, je me suis ramené à des scalaires.
Comment on sait que la somme des xi est nulle ?
On ne le sait pas, on *suppose* que la somme des xi est nulle, et le but est de démontrer que tous les xi sont nuls 👨🏻🏫.
@@oljenmaths ok car j ai un exercice similaire ou cette fois c est de montrer que la somme directe des FinterElambda donc on peut toujours faire cette hypothese ?
@@flavienblanchard7475 Oui, on prend un vecteur (y,x1,…,xn) dans FxE1x…xEn dont la somme des composantes est nulle, et on démontre que toutes les composantes sont nulles. Ce faisant, si on y parvient, on aura démontré que F, E1, …, En sont en somme direct, en effet 👍🏻.
Où bien on utilise la liberté d'une famille de p vecteurs propres associés à p valeurs propres distinctes… tant de façon d'arriver à un même résultat !
Cette propriété n'est-elle pas un corollaire de la proposition démontrée ici ? S'agit-il de démontrer la liberté mentionnée par récurrence sur p ?
@@oljenmaths Oui en effet, comme souvent, on peut voir l'une des propriétés comme corollaire de l'autre et inversement. La démonstration peut en effet se faire par récurrence sur p, similairement à la démonstration du caractère liée d'une famille de p+1 vecteurs exprimés en fonction des mêmes p vecteurs. Comme quoi tous les chemins mènent à Rome !