Matrices de Gram et applications

$ E$ un espace euclidien de dimension finie $ n \in \mathbb{N}^*$ .
Soit $ \mathcal{B}=(e_1,\ldots,e_n)$ une base orthobormale (BON) de $ E$ .

Matrices de gram :

Définition :
On appelle matrice de Gram d'une famille de vecteurs $ (v_1,\ldots,v_p)$ de $ E$ la matrice $ G(v_1,\ldots,v_p) = (< v_i , v_j >)_{1 \leq i,j \leq p}$ .
Son déterminant s'appelle le déterminant de gram de $ (v_1,\ldots,v_p)$ et on note $ \Gamma (v_1,\ldots,v_p) = \det G(v_1,\ldots,v_p)$ .
Remarques :
La matrice de gram de la famille $ (v_1,\ldots,v_p)$ est symétrique donc, pour la calculer, on a besoin de calculer juste les produits scalaires $ (< v_i , v_j >)$ avec $ 1 \leq i \leq j \leq p$ .
Supposons qu'on a calculer la matrice de gram de la famille $ (v_1,\ldots,v_p)$ et qu'on veut rajouter un nouveau vecteur $ v_{p+1}$ . On n'a pas besoin de refaire les calculs, il suffit de rajouter un ligne au dessous et une colonne à droite de $ G(v_1,\ldots,v_p)$ :
$ G(v_1,\ldots,v_p,v_{p+1}) = \left( \begin{array}{cccc} & & & < v_1,v_{p+1}> \\ & G(v_1,\ldots,v_p) & & \vdots \\ & & & < v_p,v_{p+1} > \\ < v_1,v_{p+1}> & \cdots & < v_p,v_{p+1} > & < v_{p+1},v_{p+1} > \end{array} \right)$
$ \forall \alpha \in \mathbb{R}, \det G(x_1,\ldots,x_{i-1},\alpha x_i, x_{i+1},\ldots, x_p) = \alpha^2 \det G(x_1,\ldots,x_p) $.
Proposition :
Soit $ (v_1,\ldots,v_p)$ une famille de vecteurs de $ E$ . Alors $ G(v_1,\ldots,v_p) = {}^t\!A A$ où $ A = \mathrm{mat}_\mathcal{B}(v_1,\ldots,v_p)$ .
Remarques :
Le résultat est faux si la base n'est pas orthonormée.
La matrice $ A $ dépend pas de la BON choisie.
Propriétés :
Soit $ (v_1,\ldots,v_p)$ une famille de vecteurs de $ E$ .
  1. $ G(v_1,\ldots,v_p) $ est symétrique positive.
  2. $ \Gamma(v_1,\ldots,v_p) = \det^2 (v_1,\ldots,v_p)$ . En particulier $ \Gamma(v_1,\ldots,v_p) \geq 0$ .
  3. Le déterminant de Gram reste inchangé si on ajoute à un vecteur une combinaison linéaire des autres vecteurs.
  4. $ \forall \sigma \in \mathcal{S}_n, \det G(v_{\sigma(1)},\ldots,\ldots, v_{\sigma(p)}) = \det G(v_1,\ldots,v_p) $.
  5. La famille $ (v_1,\ldots,v_p)$ est liée ssi $ \Gamma(v_1,\ldots,v_p) = 0$ .
  6. La matrice $ G(v_1,\ldots,v_p)$ est inversible ssi la famille $ (v_1,\ldots,v_p)$ est libre.
  7. $ \mathrm{rg} G(v_1,\ldots,v_p) = \mathrm{rg}(v_1,\ldots,v_p)$ .
  8. Si la famille $ (v_1,\ldots,v_p)$ est libre alors la matrice $ G (v_1,\ldots,v_p)$ est symétrique définie positive.
Proposition :
Soit $ (x_1,\ldots,x_p)$ une famille de vecteurs de $ E$ . Alors
$ \mathrm{rg} G(x_1,\ldots,x_p) = \mathrm{rg}(x_1,\ldots,x_p)$ .
Démonstration :
Soit $ A = \mathrm{mat}(x_1,\ldots,x_p) $ donc $ G(x_1,\ldots,x_p) = {}^t\!A A $.
On sait que $ \ker A \subset \ker {}^t\!A A $.
Soit $ X \in \ker {}^t\!A A $ donc $ {}^t\!A A X = 0 $ d'où $ 0 = {}^t\!X{}^t\!A A X = \| AX \|^2$.
On déduit que $ X \in \ker A $ et que $ \ker {}^t\!A A \subset \ker A $.
Donc $ \ker {}^t\!A A = \ker A $ et alors $ \mathrm{rg} G(x_1,\ldots,x_p) = \mathrm{rg}(x_1,\ldots,x_p) $.
Proposition :
une matrice symétrique d'ordre $ n$ est définie positive si et seulement si elle est la matrice de Gram d'une base de $ E$ .
Démonstration :
Soit $ A \in \mathcal{M}_n(\mathbb{R}) $ et $ \mathcal{B} = (e_1,\ldots,e_n) $ une BON de $ E $.
⇒ ) On a $ A \in \mathcal{S}^{++}(E) $ donc $ \exists S \in \mathcal{S}^{++}(E), A = S^2 = {}^t\!S S $.
Soit $ s \in \mathcal{L}(E) $ tel que $ [s]_\mathcal{B} = S $ donc $ A = {}^t\!S S = ( < s(e_i), s(e_j) >_{1 \leq i,j \leq n}) = G(s(e_1),\ldots,s(e_n))$.
⇐ ) Soit $ (\varepsilon_1,\ldots,\varepsilon_n) $ une Base de $ E $ telle que $ A = G(\varepsilon_1,\ldots,\varepsilon_n) $ donc $ A $ est symétrique positive et puisque $ \mathrm{rg}(A) = \mathrm{rg}(\varepsilon_1,\ldots,\varepsilon_n) = n $ donc $ A $ est inversible d'où $ A $ est définie.

Matrice de gram est calcul des aires et volumes :

Cas $ p = 2$ : $ \sqrt{ \det G(v_1,v_2)}$ est l'aire du parallèloramme engendré par $ v_1$ et $ v_2$ .
Cas $ p = 3$ : $ \sqrt{ \det G(v_1,v_2,v_3)}$ est le volume du parallèpipède engendré par $ v_1, v_2$ et $ v_3$ .

Matrice de gram est calcul des distances :

Proposition :
Soient $ F$ un sous-espace vectoriel de $ E$ . $ (u_1,\ldots,u_n)$ une famille libre qui engendre $ F$ et $ x \in E$ . Alors :
$ d^2(x,F)=\frac{\Gamma(u_1,\ldots,u_n,x)}{\Gamma(u_1,\ldots,u_n)}$
Remarque :
Ce résultat permet de calculer la distance d'un vecteur à un sous-espace vectoriel sans que sa base soit une BON.

Exemples d'application :

Exemple 01 : Soit $ F$ le sous-espace de $ \mathbb{R}^3$ engendré par $ x=(1,1,0)$ et $ y=(1,0,1)$ . Calculer la distance de $ z=(1,1,1)$ à $ F$ .
On a $ G(x,y,z) = \left( \begin{array}{ccc} 2 & 1 & 2 \\ 1 & 2 & 2 \\ 2 & 2 & 3 \\ \end{array} \right)$ et $ G(x,y) = \left( \begin{array}{cc} 2 & 1 \\ 1 & 2 \end{array} \right)$ donc $ d^2(z,F) = \frac{1}{3}$ d'où $ d(z,F)=\frac{\sqrt{3}}{3}$ .
Exemple 02 :
Déterminer $ \displaystyle \inf_{a,b \in \mathbb{R}} \int_0^1 (1+ax+bx^2)^2dx$ .
Soit $ \mathbb{R}_2[X]$ muni du produit scalaire $ \displaystyle < P,Q > = \int_0^1 P(x)Q(x)dx$ .
On pose $ P=X$ et $ Q=X^2$ . On a $ \displaystyle \inf_{a,b \in \mathbb{R}} \int_0^1 (1+ax+bx^2)^2dx = d^2(1,Vect\{P,Q\}) = \frac{\Gamma(P,Q,1)}{\Gamma(P,Q)}$ .
On a $ \displaystyle < 1,1 > = \int_0^1 dx = 1$ , $ \displaystyle < 1,P > = \int_0^1 x dx = \frac{1}{2}$ , $ \displaystyle < 1,Q > = \int_0^1 x^2 dx = \frac{1}{3}$ , $ \displaystyle < P,P > = \int_0^1 x^2 dx = \frac{1}{3}$ , $ \displaystyle < P,Q > = \int_0^1 x^3 dx = \frac{1}{4}$ , $ \displaystyle < Q,Q > = \int_0^1 x^4 dx = \frac{1}{5}$ .
Donc $ G(P,Q,1)=\left(\begin{array}{ccc} 1 & \frac{1}{2} & \frac{1}{3} \\ \frac{1}{2} & \frac{1}{3} & \frac{1}{4} \\ \frac{1}{3} & \frac{1}{4} & \frac{1}{5} \end{array}\right)$ et $ G(P,Q)=\left(\begin{array}{cc} 1 & \frac{1}{2} \\ \frac{1}{2} & \frac{1}{3} \end{array}\right)$ .
On déduit que $ \Gamma(P,Q,1)=\frac{1}{2160}$ et $ \Gamma(P,Q)=\frac{1}{36}$ .
D'où $ \displaystyle \inf_{a,b \in \mathbb{R}} \int_0^1 (1+ax+bx^2)^2dx = \frac{1}{36}$ .

Meilleure solution approchée au sens quadratique d'un système d'équation linéaire:

Soit l'équation $ AX = B $ avec $ A \in \mathcal{M}_{np}(\mathbb{R}), B \in \mathcal{M}_{n1}(\mathbb{R}) $ et l'inconnu $ X \in \mathcal{M}_{p1}(\mathbb{R}) $. On suppose que $ \mathrm{rg}A = p $.
On appelle meilleure solution approchée au sens quadratique de l'équation $ AX = B $ tout vecteur $ X \in \mathcal{M}_{p1}(\mathbb{R})$ tel que $ AX $ soit le plus proche de $ B $. Autrement dit, $ \displaystyle \|B - AX\| = \inf_{Y \in \mathcal{M}_{p1}(\mathbb{R})} \|B-AY\| = \mathrm{d} (B, \mathrm{Im} A) $.
On déduit que $ AX = p_{\mathrm{Im} A}(B) $ donc $ \forall Y \in \mathcal{M}_{p1}(\mathbb{R}), 0 = < AY, B - AX > = < Y, {}^t\!AB - {}^t\!AAX > $ d'où $ {}^t\!AB - {}^t\!AAX = 0 $.
Soit $ G $ la matrice de Gram associée à la famille des vecteurs colonnes de $ A $ donc $ G = {}^t\!AA $ d'où $ GX = {}^t\!AB $.
Or $ \mathrm{rg} G = rg A = p $ donc $ G $ est inversible et on a $ X = G^{-1} {}^t\!AB $. On déduit que $ X $ existe et il est unique.