Valeur de décomposition, Singular Statistiques réel en utilisant Excel

En fait, on peut construire de telles matrices, où les colonnes de U sont les vecteurs propres de AA T. colonnes de V sont les vecteurs propres de ATA et la diagonale principale de D contient les racines carrées des valeurs propres de U (ou V) en diminuant commande.

Depuis Vj est un vecteur unitaire

et ainsi AVJ = 0 quand j> r. Nous construisons maintenant une m × m matrice U comme suit. Tout d'abord définir les premiers r colonnes de U par Uj = AVJ. Depuis le Vj sont orthogonales, sont donc Uj. Depuis

Uj est un vecteur unitaire. Si r < m. then we can expand U1. …, Ur to an orthonormal basis U1. …, Um for the set of m × 1 column vectors. In either case let U be the m × m matrix whose columns are the Uj . Based on the construction described above, U is an orthogonal matrix.

pour j> r. Soit D = la matrice m × n dont la diagonale est constituée diagonale principale de, ..., suivi par des zéros (si nécessaire). Nous venons de montrer que U T AV = D. et donc A = UDV T.

Observation. il résulte de la preuve du théorème, que

Observation. Notez que AA T = (A T) T (A T) est un semi-définie positive matrice m × m. En fait, nous aurions pu utiliser AA T au lieu de A T A dans la démonstration du théorème 1. Notez également que

Observation. Les colonnes de U correspondant à des éléments diagonaux non nuls forment une base orthonormée pour la gamme de A. et donc le rang de A = le nombre d'éléments diagonaux non nuls. Ainsi, une matrice carrée est inversible si et seulement si tous les éléments D sont positifs. Si A est inversible alors A -1 = (UDV T) -1 = VD -1 UT

Les solutions à l'équation AX = C se trouvent comme suit:

Où D * est la matrice diagonale dont la diagonale principale se compose des inverses des éléments non négatifs dans D suivie par des zéros. Nous pouvons voir VD * U T comme représentant une sorte de inverse A même lorsque A est pas une matrice carrée.

Observation. Les colonnes de V correspondant aux éléments de la diagonale zéro forment une base orthogonale de l'espace nul de A et de sorte que la dimension de l'espace nul de A = le nombre de colonnes dans A moins le rang de A.-à-dire n - R dans la démonstration du théorème 1. Ainsi, toute combinaison linéaire des colonnes de V est une solution à l'équation AX = 0 homogène.

Notez que AX = 0 si et seulement si AX = UDV T X = 0 si et seulement si

Ainsi, X est une solution de AX = 0 si et seulement si X 'est une solution DX' = 0 où X « = V T X. Cela signifie que Àj = 0 pour tout j. Mais depuis le Àj = 0 pour j = r + 1, ..., n. il en résulte que = 0 pour j tel. et si Xj = VVTXj = V = 0. Ainsi, si AX = 0 alors X est une combinaison linéaire des n final - r colonnes de V.

Depuis la Àj = 0 pour j = r + 1, ..., n. toute combinaison linéaire des n final - r colonnes de V est une solution à AX = 0. Etant donné que les colonnes de V sont orthogonales, et donc il en résulte indépendant, que le n final - r colonnes de V forment une base de l'espace vide, et de sorte que la dimension de l'espace nul est n - r.

Fonctions réelles des statistiques. Le vrai statistiques sur les ressources pack fournit les fonctions suivantes:

SVD_D (R1, iter) = D matrice de la SVD pour la matrice A correspondant à la gamme R1

SVD_V (R1, iter) = matrice V de la SVD pour la matrice A correspondant à la gamme R1

Ici iter est le nombre d'itérations dans l'algorithme utilisé pour calculer la SVD (par défaut 100).

Articles Liés