Matrice de covariance, valeurs propres et vecteurs propres

Aide à la résolution d'exercices ou de problèmes de niveau supérieur au baccalauréat.

Modérateur : gdm_sco

Règles du forum
Merci de soigner la rédaction de vos messages et de consulter ce sujet avant de poster. Pensez également à utiliser la fonction recherche du forum.
kitiss
Utilisateur débutant
Utilisateur débutant
Messages : 3
Inscription : jeudi 14 juin 2007, 19:41

Matrice de covariance, valeurs propres et vecteurs propres

Message par kitiss »

Bonjour,

Peut-être trouverez-vous ma question bête ou simpliste. Mais mon problème c'est comment trouver :
- les valeurs propres
- les vecteurs propres
à partir de la matrice de covariance.
J'ai beau lire le cours mais je m'en sors pas.

Merci d'avance de m'accorder un peu de votre temps

[edit guiguiche : déplacé dans le forum supérieur]

guiguiche
Modérateur global
Modérateur global
Messages : 8075
Inscription : vendredi 06 janvier 2006, 15:32
Statut actuel : Enseignant
Localisation : Le Mans

Message par guiguiche »

La matrice est symétrique réelle donc R-diagonalisable. Pour obtenir les valeurs propres et les sous espaces propres, je ne vois guère que la méthode du pivot de Gauss, en espérant que ta matrice ne soit pas trop grosse ou bien bien qu'elle soit très particulière.
Pas d'aide par MP : les questions sont publiques, les réponses aussi.
Tu as apprécié l'aide qui t'a été fournie ? Alors n'hésite pas à rendre la pareille à quelqu'un d'autre.
Un peu d'autopromotion.

kitiss
Utilisateur débutant
Utilisateur débutant
Messages : 3
Inscription : jeudi 14 juin 2007, 19:41

Message par kitiss »

Salut,

Méthode de Gauss, soit mais quel raisonnement pour aboutir à un système d'équations à resoudre. Peux-tu m'aider en prenant l'exemple d'une matrice de covariance de deux variable X, Y ?

Excuses moi mais je ne peux écrire une matrice dans cet environnement

guiguiche
Modérateur global
Modérateur global
Messages : 8075
Inscription : vendredi 06 janvier 2006, 15:32
Statut actuel : Enseignant
Localisation : Le Mans

Message par guiguiche »

Pour une matrice du type $\begin{pmatrix}1-\lambda & -1 \\ -1 & 1-\lambda \end{pmatrix}$

Code : Tout sélectionner

$\begin{pmatrix}1-\lambda & -1 \\ -1 & 1-\lambda \end{pmatrix}$
on applique la technique usuelle de Gauss : permutation des lignes 1 et 2, puis réduction. On a alors les valeurs propres comme coefficients annulant la diagonale. Par substitution dans cette matrice réduite, les relations sur les colonnes fournissent des vecteurs propres.
Pas d'aide par MP : les questions sont publiques, les réponses aussi.
Tu as apprécié l'aide qui t'a été fournie ? Alors n'hésite pas à rendre la pareille à quelqu'un d'autre.
Un peu d'autopromotion.

candide
Utilisateur confirmé
Utilisateur confirmé
Messages : 72
Inscription : jeudi 31 mai 2007, 00:41

Message par candide »

guiguiche a écrit :Pour une matrice du type $\begin{pmatrix}1-\lambda & -1 \\ -1 & 1-\lambda \end{pmatrix}$

Code : Tout sélectionner

$\begin{pmatrix}1-\lambda & -1 \\ -1 & 1-\lambda \end{pmatrix}$
on applique la technique usuelle de Gauss : permutation des lignes 1 et 2, puis réduction. On a alors les valeurs propres comme coefficients annulant la diagonale. Par substitution dans cette matrice réduite, les relations sur les colonnes fournissent des vecteurs propres.
Je crois que tu méprends ou alors je n'ai pas compris ta méthode qui s'appliquerait peut-être seulement aux matrices symétriques réelles. Je ne vois pas comment tu peux de manière générique et même en se restreignant au cas des matrices symétriques réelles, trouver les valeurs propres sans résoudre une équation polynomiale (polynôme caractéristique, polynôme minimal), tu peux détailler sur un exemple ta "méthode de Gauss" ?

guiguiche
Modérateur global
Modérateur global
Messages : 8075
Inscription : vendredi 06 janvier 2006, 15:32
Statut actuel : Enseignant
Localisation : Le Mans

Message par guiguiche »

Par réduction, on obtient une matrice triangulaire supérieure. Elle n'est pas de rang maximal si et seulement si l'un au moins des coefficients de sa diagonale est nulle. En pratique, on retrouve le polynôme caractéristique, soit en dernier coefficient (bas-droite) soit décomposé sur différents coefficients.
C'est la méthode que j'enseigne (et la seule au programme) en prépa EC vu qu'il n'y a pas de déterminant au programme !
Pas d'aide par MP : les questions sont publiques, les réponses aussi.
Tu as apprécié l'aide qui t'a été fournie ? Alors n'hésite pas à rendre la pareille à quelqu'un d'autre.
Un peu d'autopromotion.

kitiss
Utilisateur débutant
Utilisateur débutant
Messages : 3
Inscription : jeudi 14 juin 2007, 19:41

Message par kitiss »

je m'excuse mais j'avoue que je m'en sors pas. Peux-tu aller au bout de l'exercice pour que je puisse meix saisir ?

Merci

candide
Utilisateur confirmé
Utilisateur confirmé
Messages : 72
Inscription : jeudi 31 mai 2007, 00:41

Message par candide »

guiguiche a écrit :Par réduction, on obtient une matrice triangulaire supérieure. Elle n'est pas de rang maximal si et seulement si l'un au moins des coefficients de sa diagonale est nulle. En pratique, on retrouve le polynôme caractéristique, soit en dernier coefficient (bas-droite) soit décomposé sur différents coefficients.
Effectivement, c'est une façon naturelle de contourner le fait de ne pas disposer du déterminant. Mais en pratique, cela ne pose-t-il pas un problème de rigueur ? je veux dire qu'on a $\text{rg}(L_1,L_2,...) = \text{rg}(\alpha L_1+\beta L_2,L_2...)$ (les $L_j$ désinant des lignes de matrice) si $\alpha\neq 0$ donc cette méthode n'induit-elle pas une étude de cas la plupart du temps inutiles i.e. lorsque $\alpha = 0$ ?

guiguiche
Modérateur global
Modérateur global
Messages : 8075
Inscription : vendredi 06 janvier 2006, 15:32
Statut actuel : Enseignant
Localisation : Le Mans

Message par guiguiche »

candide a écrit :Effectivement, c'est une façon naturelle de contourner le fait de ne pas disposer du déterminant. Mais en pratique, cela ne pose-t-il pas un problème de rigueur ? je veux dire qu'on a $\text{rg}(L_1,L_2,...) = \text{rg}(\alpha L_1+\beta L_2,L_2...)$ (les $L_j$ désinant des lignes de matrice) si $\alpha\neq 0$ donc cette méthode n'induit-elle pas une étude de cas la plupart du temps inutiles i.e. lorsque $\alpha = 0$ ?
On n'opère (normalement) qu'avec des opérations élémentaires sur les lignes, donc pas de problème de rigueur.
Pour les cas artificiels, les permutations de lignes doivent les éviter. Seulement, les élèves ne veulent pas les faire donc ...
Pas d'aide par MP : les questions sont publiques, les réponses aussi.
Tu as apprécié l'aide qui t'a été fournie ? Alors n'hésite pas à rendre la pareille à quelqu'un d'autre.
Un peu d'autopromotion.

guiguiche
Modérateur global
Modérateur global
Messages : 8075
Inscription : vendredi 06 janvier 2006, 15:32
Statut actuel : Enseignant
Localisation : Le Mans

Message par guiguiche »

guiguiche a écrit :Pour une matrice du type $\begin{pmatrix}1-\lambda & -1 \\ -1 & 1-\lambda \end{pmatrix}$
on applique la technique usuelle de Gauss : permutation des lignes 1 et 2, puis réduction. On a alors les valeurs propres comme coefficients annulant la diagonale. Par substitution dans cette matrice réduite, les relations sur les colonnes fournissent des vecteurs propres.
1. On permute la ligne 1 et la ligne 2 puisque le coefficient en haut à gauche contient le paramètre : $\begin{pmatrix}-1 & 1-\lambda \\ 1-\lambda & -1 \end{pmatrix}$
2. On utilise le $-1$ (haut gauche) comme pivot puisque toujours non nul et on effectue la tranformation élémentaire : $L_2 \leftarrow L_2+(1-\lambda)L_1$, ce qui donne : $\begin{pmatrix}-1 & 1-\lambda \\ 0 & -\lambda+\lambda^2 \end{pmatrix}$
3. La réduction étant achevée, cette matrice est de rang<2 si et seulement si $-\lambda+\lambda^2=0$ c'est à dire que les valeurs propres sont exactements 0 et 2.
4. Pour $\lambda=0$, on obtient la matrice : $\begin{pmatrix}-1 & 1 \\ 0 & 0 \end{pmatrix}$ dont la somme des colonnes est nulle. Ainsi : $1\times C_1+1\times C_2 =0$ donc le vecteur de coordonnées $(1,1)$ est dans le noyau de $A-0I$ c'est à dire que c'est un vecteur propre. D'après le théorème du rang (et le fait que chaque sous espace propre est au moins de dimension 1) alors le sous espace propre $E_0$ est de dimension 1 donc il est engendré par ce vecteur propre de coordonnées $(1,1)$.
5. Raisonnement analogue pour la seconde valeur propre.
Pas d'aide par MP : les questions sont publiques, les réponses aussi.
Tu as apprécié l'aide qui t'a été fournie ? Alors n'hésite pas à rendre la pareille à quelqu'un d'autre.
Un peu d'autopromotion.

candide
Utilisateur confirmé
Utilisateur confirmé
Messages : 72
Inscription : jeudi 31 mai 2007, 00:41

Message par candide »

guiguiche a écrit : On n'opère (normalement) qu'avec des opérations élémentaires sur les lignes, donc pas de problème de rigueur.
Oui, mais ton pivot doit être non nul, or il va en général dépendre de $\lambda$ d'où les cas dont je parlais

candide
Utilisateur confirmé
Utilisateur confirmé
Messages : 72
Inscription : jeudi 31 mai 2007, 00:41

Message par candide »

Je crains de ne pas avoir été clair alors voici un exemple :
$$\begin{pmatrix}
-2 -\lambda & 1 & 1 \\
8 &1-\lambda & -5 \\
4 & 3 & -3 -\lambda
\end{pmatrix}\equiv
\begin{pmatrix}
4 & 3 & -3 -\lambda\\
0 &-5-\lambda & 1+2\lambda\\
0 &10+3\lambda & -\lambda^2-5\lambda-2
\end{pmatrix}
$$
et le pivot suivant est $-5-\lambda$ ou $10+3\lambda$ ce qui conduit à examiner le cas où l'un deux est nul ce qui introduit une discussion qui est en fait inutile.

guiguiche
Modérateur global
Modérateur global
Messages : 8075
Inscription : vendredi 06 janvier 2006, 15:32
Statut actuel : Enseignant
Localisation : Le Mans

Message par guiguiche »

Oui, c'est vrai mais tous les cas pratiques auxquels j'ai eu affaire évitaient ce souci. Sinon, on raisonne avec le sous bloc $2\times2$ avec la règle du déterminant qui est au programme de cette filière (sans le nommer bien sûr). Donc exit la discussion dans ce cas-ci.
Pas d'aide par MP : les questions sont publiques, les réponses aussi.
Tu as apprécié l'aide qui t'a été fournie ? Alors n'hésite pas à rendre la pareille à quelqu'un d'autre.
Un peu d'autopromotion.