CATEGORII DOCUMENTE |
Bulgara | Ceha slovaca | Croata | Engleza | Estona | Finlandeza | Franceza |
Germana | Italiana | Letona | Lituaniana | Maghiara | Olandeza | Poloneza |
Sarba | Slovena | Spaniola | Suedeza | Turca | Ucraineana |
DOCUMENTE SIMILARE |
|
DETERMINANTS
1. INTRODUCTION.
Le point de départ de notre étude est le suivant :
Soit E un K-espace vectoriel de dimension
finie n rapporté à une base B et S=(v1,…., vn)
un systÈme de n vecteurs de E
définis par leurs composantes dans la base B . On a déjà étudié des techniques
de détermination du rang par des manipulations sur la matrice représentant S
dans B .
En particulier la méthode du pivot de Gauss nous ramÈne à une
matrice triangulaire équivalente, de rang n
si et seulement si aucun des coefficients diagonaux n’est nul.
Il est alors naturel de se demander s’il est possible de construire en marge de
cette démarche une expression
synthétique portant sur les composantes initiales des vecteurs de S et dont
l’analyse permettrait de déterminer simplement si S est à son
tour une base de E.
(On peut penser au produit des éléments de la diagonale de la matrice
triangulaire obtenue)
Bien sÛr on aimerait que l’expression en question ne dépende que des
composantes initiales des vecteurs de S, et non pas de la suite de
manipulations exécutée.
On va voir que la réponse est positive mÊme s’il faudra nuancer le
qualificatif ‘simple’ concernant les calculs à effectuer. Par contre le
champ d’application de ces ‘déterminants’ dépassera trÈs vite l’objectif
premier , on les mettra à profit pour l’inversion des matrices, la
résolution des systÈmes linéaires, la théorie de la diagonalisation,
dans les situations de la géométrie Euclidienne généralisée (orientation de
l’espace, classification des isométries).
Il s’agit donc d’un outil extrÊmement riche mais dont la définition est
un peu délicate à mettre en place. En effet si sur le plan théorique on
ne fait que reprendre et améliorer d’une certaine maniÈre les idées de
la méthode de Gauss, sur le plan pratique on est confronté à des
problÈmes de notations quelquefois assez lourdes à gérer.
Aussi nous commencerons dans cette introduction à examiner la situation
sur des espaces de petite dimension.
_ Pour n=1 le problÈme est
vite réglé.
Soit B =(e1) base d’une droite vectorielle E. Le systÈme S
réduit au seul vecteur v1=xe1 est libre si et seulement
si v1 est non nul c’est
à dire si x ¹0.
On appelle alors déterminant de S dans la base B la quantité detB (v1)=x.
_ Pour n=2.
Considérons un systÈme S=(v1,
v2) de deux vecteurs de E
exprimés dans la base B =(e1, e2)
suivant : v1=xe1+ye2 et v2=x’e1+y’e2.
a) Si x est non nul, la séquence transforme la matrice
représentant S dans B en la forme triangulaire .
S sera alors libre si et seulement si la quantité xy’-x’y est non nulle.
b) Si x est nul et x’ différent de 0, un raisonnement
symétrique en échangeant les deux vecteurs donne : S libre x’y-xy’ ¹ xy’-x’y ¹0
c) Enfin si (x, x’)=(0, 0) , les deux vecteurs de S sont multiples du mÊme
vecteur e2 et constituent
donc un systÈme lié. Remarquons que dans ce cas xy’-x’y=0.
On définira donc naturellement ici le déterminant de S dans la base B comme l’élément de K
noté et représenté par : detB (S)=xy’-x’y=
Ce qui précÈde établit l’équivalence entre la dépendance linéaire de S
et l’annulation de son déterminant.
_ Pour n=3.
Soit B =(e1, e2,
e3) base de E et S=(v1, v2, v3)
systÈme dont la matrice représentative dans B est A=.
_ Si x non nul on effectue les
manipulations sur colonnes suivantes :
Cette matrice est donc de rang 3 si et seulement si ses deux derniÈres
colonnes forment un systÈme libre, ou encore, vu l’étude précédente appliquée dans le plan
engendré par (e2, e3 ), si le déterminant D= est non nul.
_ Si x est nul mais qu’une des deux
composantes x’ ou x’’ est différente de 0, un raisonnement
analogue en permutant v1
et v2 ou v1 et v3 aboutit à la mÊme caractérisation de l’indépendance
du systÈme.
_ Enfin si x=x’=x’’=0, les trois
vecteurs de S sont combinaisons du mÊme systÈme (e2, e3 ) donc forment un systÈme lié par application
du théorÈme fondamental de la dimension.
Remarquons que dans ce cas l’expression D ci dessus est nulle.
On définira donc ici le déterminant de S dans la base B comme la quantité D apparaissant dans cette étude. AprÈs calculs
et regroupements adéquats on peut donner de D les expressions suivantes :
D=. (Développement dit
suivant la premiÈre colonne)
D=
RÈgle dite de Sarus que l’on retient en comptant positivement les
produits des termes des diagonales descendantes et négativement les produits
des termes des diagonales ascendantes dans la matrice de Sarus :
2) FORMES MULTILINEAIRES ALTERNEES.
A)
Vers une généralisation.
Il est facile de déceler des propriétés algébriques communes aux trois
déterminants que nous avons défini précédemment.
_ Il s’agit d’applications f allant
de En vers K. (A tout systÈme S de n vecteurs de E on associe un scalaire f(S)
)
_ Ces applications agissent de maniÈre linéaire sur chacun des
vecteurs composant le systÈme S, les n-1 autres vecteurs étant fixés.
(Propriété dite de multilinéarité)
Par exemple pour le déterminant d’ordre 3 considéré comme fonction de v1 seul, les vecteurs v2 et v3 étant figés, on obtient une application K-linéaire de E vers K dont la matrice dans le couple de base (B , ) est
_ Pour n ³2 , l’échange de deux vecteurs du
systÈme S transforme l’image f(S) en l’opposé de sa valeur. (Propriété
dite d’alternance : )
La vérification est également immédiate sur les formules établies plus haut.
Ces traits communs nous suggÈrent la définition générale suivante, pour n ³
Définition : Si E est un K espace de dimension n , on appelle forme n-linéaire
alternée sur E toute application f de
En vers le corps K satisfaisant aux propriétés décrites
précédemment de linéarité par rapport à chacune des n variables constituant le systÈme S et d’alternance.
B)PremiÈres
remarques.
Si f est n linéaire, alors f sera alternée si et seulement si f s’annule sur tout systÈme S dont deux des composantes vectorielles sont identiques.
Rappelons que les corps considérés sont supposés de caractéristique nulle, donc
qu’en particulier : 1K ¹ -1K . (2.1k ¹0K)
_ Supposons f alternée et considérons
un systÈme S=(v1,…,
vn) tel que vi=vj pour un
couple d’indices distincts.
La permutation de ces deux vecteurs au sein de S laisse donc S invariant, mais
d’aprÈs l’alternance doit changer f(S) en son opposé.
On a donc nécessairement f(S)=-
f(S) d’oÙ l’on tire 2f(S)=0K
, c’est à dire (1K+1K) f(S)=0K.
On en déduit alors f(S)=0K vu l’hypothÈse
2.1K ¹0K.
_ Réciproquement si f(S) s’annule
dÈs que 2 vecteurs de S sont égaux, considérons deux indices distincts i <j et à partir d’un élément quelconque S de En définissons les 4 systÈmes déduits chacun de S
par les manipulations suivantes :
S(i, j) obtenu par
Si obtenu par
Sj obtenu par
S’ obtenu par
En faisant jouer la linéarité par rapport à chacune des deux variables
d’indice i et j, on écrit la décomposition : f(S(i,
j))= f(Si)+ f(S)+ f(S’)+ f(Sj).
Or f s’annule par hypothÈse
sur les systÈmes S(i, j), Si et Sj
admettant chacun deux composantes identiques.
Il reste donc l’égalité f(S’)=-
f(S) exprimant l’alternance de f
dans l’échange des composantes d’ordre i
et j.
2) Une forme n-linéaire alternée
s’annule nécessairement sur tout systÈme lié.
En effet si S est lié, un des vecteurs de S pourra s’écrire comme combinaison
linéaire des autres. Si on en déduit par
linéarité de f par rapport à
la variable d’ordre i et en utilisant
les notations précédentes, la relation : f(S)==0
(f s’annule sur chacun des Sj dont les composantes
d’ordre i et j égalent vj)
On a donc bien là une piste pour la caractérisation qui nous préoccupe : une forme n-linéaire alternée f permet de conclure la liberté d’un systÈme S dont l’image f(S) est non nulle.
Subsistent deux interrogations essentielles :
_ Qu’en est-il de la réciproque : (
S libre Þ
f(S)¹0 ) ?
_ Comment définir de telles formes sur un espace de dimension finie quelconque n et quel est l’éventail des
constructions possibles.
Les réponses vont nous Être données par le théorÈme fondamental
suivant, véritable clef de tout le chapitre.
C)
ThéorÈme d’existence des déterminants.
Soit n
un entier supérieur ou égal à 2 et B une base d’un K-espace vectoriel E de dimension n
Il existe une et une seule forme n-linéaire alternée f sur E prenant la valeur 1K sur la base B . et toutes les autres formes n- linéaires alternées sur E sont des
multiples de celles ci par un élément de K.
( L’application f sera appelée
déterminant dans la base B et notée detB
Nous allons procéder par récurrence forte sur l’entier n.
_ Examinons le cas initial n=2. Avec
les notations précédentes, si f est
bi-linéaire alternée on pourra écrire :
Soit, en utilisant l’alternance :
On voit donc que f est nécessairement
multiple du déterminant d’ordre 2 défini dans le paragraphe d’introduction et
dont les caractÈres de multi-linéarité et d’alternance se vérifient
immédiatement.
La condition f(B
)=1K donne effectivement pour f(S)
la valeur xy’-x’y, ce qui assure la cohérence de
l’appellation déterminant pour cette valeur 2.
_ Pour n=3 la tri-linéarité et l’alternance
de f permet de mÊme de réduire
le calcul de f(S) à:
f(S)= f(xe1+ye2+ze3, x’e1+y’e2+z’e3, x’’e1+y’’e2+z’’e3)=xy’z’’f(e1, e2, e3)+xz’y’’f(e1, e3, e2)
+
yx’z’’f(e2, e1,
e3)+yz’x’’f(e2, e3, e1)+zx’y’’f(e3, e1, e2)+zy’x’’f(e3, e2,
e1).
Soit en utilisant à nouveau l’alternance pour retrouver dans chaque cas
l’image de la base ordonnée initialement :
f(S)=[xy’z’’+yz’x’’+zx’y’’-yx’z’’-xz’y’’-zy’x’’ ] f(e1,
e2, e3)
Ici aussi on retrouve les multiples des déterminants d’ordre 3 définis dans
l’introduction et précisément le déterminant dans la base B si on impose la condition f(B
)=1K.
_ Etude de l’hérédité de la propriété étudiée.
Soit n
un entier supérieur ou égal à 3. Nous ferons l’hypothÈse que le
théorÈme est valable pour tout entier inférieur ou égal à n et nous allons essayer d’en déduire
l’extension de ce résultat au rang n+1.
Pour faciliter la rédaction introduisons les notations suivantes :
_ B =(e1,….., en,
en+1) la base
de E en question dans le théorÈme.
_ Pour chaque indice i de :
Ei désigne la somme directe des droites
vectorielles engendrées par les vecteurs de B distincts de ei a. Bi est la base de Ei
obtenue en supprimant ei de
B , les autres vecteurs de B restant dans l’ordre initial.
qi est la projection
vectorielle sur Ei parallÈlement
à la droite engendrée par ei.
_ Pour chaque couple (i,
j) d’indices distincts de :
E(i, j) est la somme vectorielle des droites engendrées par les
vecteurs de Bi distincts de ej
B (i, j) est la base de E(i,
j) obtenue en éliminant le vecteur ej de la base Bi , les autres vecteurs de Bi restant dans l’ordre initial.
Enfin x(i, j) est le terme générique de la matrice A représentant le
systÈme S=(v1,…,vn, vn+1) dans la base B jI vj=x(1, j)e1+x(2, j)e2+……+x(n+1, j)en+1
Analyse . Si f est une forme répondant aux exigences
du théorÈme, on doit avoir nécessairement, en faisant jouer la linéarité
par rapport à la premiÈre variable, la décomposition : f(S)=
Ecrivons ensuite v2=x(i, 2)ei+qi (v2). En utilisant la linéarité par rapport à la
deuxiÈme variable on peut écrire .
Or le premier terme de cette somme est nul en tant qu’image par f d’un systÈme oÙ deux
vecteurs sont identiques. Si on répÈte l’opération pour chacune des
autres variables de S soit v3,..,
vn+1 , on obtient : f(S) =
Considérons alors pour chaque indice i
l’application fi de Ein
vers K définie par la formule :
fi (w1, w2,…,wn)=f(ei ,w1,w2,…,wn).
_ On voit immédiatement que la multi-linéarité de f entraine la linéarité de fi
par rapport à chacune de ses n
variables.
_ Il est aussi clair que fi
s’annule sur tout systÈme dont deux des vecteurs sont identiques, ceci
d’aprÈs l’alternance de f.
D’aprÈs l’hypothÈse de récurrence, fi est donc multiple du déterminant dans la base Bi que nous noterons de maniÈre abrégée deti , en tant que forme n-linéaire alternée sur l’espace Ei de dimension n.
La constante multiplicative n’est autre que le scalaire ai =f(ei
,Bi ) d’aprÈs la
spécification deti (Bi )=1K
Examinons cette constante. Il s’agit de l’image par f d’un systÈme formé par les vecteurs de la base initiale B , listés en désordre par rapport
à l’agencement initial, sauf bien sÛr pour i=1.
ai =f(ei
,Bi )=f (ei
, e1,…,ei-1, ei+1,…,en+1)
Pour retrouver l’ordre initial, il suffit d’échanger successivement le vecteur
décalé en tÊte ei
avec chacun des i-1 vecteurs le
suivant, soient e1, e2,…., ei-1.
A chacune de ces transpositions élémentaires, la valeur de f est changée en son opposée, toujours d’aprÈs l’alternance
de f. On obtient donc à
terme : ai =(-1)i
–1f(B )
Ainsi une forme n+1 linéaire alternée
f sur E de dimension n+1 est nécessairement définie par une
formule du type :
avec a=f(e1,….,en+1).et deti désignant rappelons le, le déterminant dans
la base Bi de
Ei.
SynthÈse. Reste
à vérifier que l’application f
définie comme précédemment avec a=1K est bien effectivement n+1 linéaire alternée. Elle sera alors
le déterminant d’ordre n+1 dans la
base B de E dont toutes les formes n+1
linéaires alternées sur E sont effectivement multiples.
a) La multilinéarité est facile à prouver.
_ Pour l’établir par rapport à la premiÈre variable v1, il suffit de remarquer
que si v2,…,vn+1 sont fixés,
les quantités bi=(-1)i
–1deti (qi (v2),…, qi
(vn+1)) sont
constantes et donc que l’application v1
a f(v1,….vn+1) est une
forme linéaire sur E dont la matrice dans le jeu de bases (B , (1K)) n’est autre que la
ligne L=
_ Pour la linéarité par rapport à la variable d’ordre j ¹1, remarquons que qi étant linéaire (projecteur de l’espace E) et deti étant linéaire par rapport
à la variable d’indice j-1,
l’application vj a bi=(-1)i –1deti
(qi (v2),…,qi(vj ),…, qi (vn+1)) sera linéaire pour chaque i d’aprÈs le théorÈme de
composition.
Les composantes x(i, 1) étant ici constantes car v1 fixé, l’application vj a
f(v1,..,vj ,..,vn+1)
est bien linéaire comme combinaisons de formes linéaires sur E.
b) Pour l’alternance.
La multilinéarité étant établie, on sait qu’il suffit de montrer l’annulation
de f sur tout systÈme
comportant deux vecteurs identiques.
_ Cela est évident si ces deux vecteurs sont d’indice distinct de 1, car dans
ce cas chacun des bi sera nul par alternance de deti .
_ Si un des deux indices en question est 1, en utilisant le résultat précédent
on pourra toujours se ramener au cas oÙ le second indice est 2. Reste
donc à montrer que f s’annule
si v1=v2.
Pour cela développons chacun des bi comme nous l’avons
fait initialement sur f dans
l’analyse précédente en faisant jouer la linéarité par rapport à chacune
des variables et l’alternance.
Il vient, en utilisant les notations précisées tout au début :
bi=
Or pour chaque couple (i, j) avec i¹j, l’application g(i, j) définie sur E(i,
j)n-1
par la formule :
est de maniÈre
évidente une forme n-1 linéaire
alternée.
(Les propriétés de la forme n
linéaire alternée deti se
répercutent immédiatement sur g(i, j) g(i, j) est donc par hypothÈse de
récurrence un multiple du déterminant dans la base B(i, j).,
le coefficient multiplicatif n’étant autre que deti (ej
, B(i, j)).
Etudions ce scalaire suivant les positions relatives de i et j.
_ Si j >i deti (ej , B(i, j))=
Il s’agit donc de l’image par le déterminant dans la base Bi d’un systÈme de vecteurs
qui n’est autre que ceux de cette mÊme base Bi mais listés en désordre par
rapport à la situation initiale.
Pour retrouver cet ordre originel il suffit d’échanger successivement le
vecteur en tÊte ej
avec chacun des j-2 vecteurs e1,…,ej-1 précédant
ej+1.
Vu l’alternance de deti on
obtient donc à terme l’expression : deti (ej , B(i,j))=(-1)j-2.
_ Si j <i deti (ej , B(i, j))=
Ici j-1
transpositions élémentaires seront nécessaires pour amener ej à sa bonne place dans la base Bi . On aura alors deti (ej , B(i,j))=(-1)j-1. Ainsi
l’expression de f(S) peut se décomposer :
Puisque par hypothÈse v1=v2 , l’expression précédente
peut s’écrire S1+S2 avec :
S1 la somme des correspondant aux
couples de T1=
S2 la somme des correspondant aux
couples de T2=
T1 étant en bijection avec T2 par la correspondance (i,
j) a(j, i) , il est facile d’en déduire
l’égalité S2=-S1
Ainsi on a bien vérifié que f
s’annule sur S pour lequel les deux premiers vecteurs coÃncident, ce qui
achÈve la démonstration.
D)
Conséquences.
1) Application à l’étude de
l’indépendance d’un systÈme.
Comme premiÈre conséquence de ce théorÈme nous pouvons
maintenant énoncer la caractérisation complÈte de l’indépendance
linéaire pour un systÈme de n
vecteurs.
Si S est un systÈme de n vecteurs au sein d’un K-espace E de dimension n et si B désigne une base quelconque de E, on a toujours l’équivalence : S libre detB (S) ¹
_ On savait déjà que le déterminant dans B s’annule sur tout systÈme lié et donc que S est libre si son
déterminant dans B est non nul.
_ Réciproquement, supposons S libre, donc base de E car son cardinal
coÃncide avec la dimension de cet espace.
Le déterminant dans S est alors une forme n-linéaire
alternée sur E qui est donc multiple du déterminant dans B par un scalaire a d’aprÈs le
théorÈme fondamental.
(a n’étant autre que le déterminant
de B dans S)
En particulier on peut écrire 1K=detS(S)=adetB (S) et par suite le déterminant dans B de S est non nul.
2) Formule du changement de base.
Notation quotient.
Si B et B sont deux bases du K-espace E, le théorÈme fondamental montre que le
déterminant dans B est égal au produit du déterminant dans B par le scalaire a qui n’est autre que le
déterminant de B dans B .
(C’est le schéma que l’on a appliqué ci dessus au couple (B ,S) ).
Cette formule de passage est plus commode à écrire et à mémoriser
si on utilise la notation dite ‘quotient’ dans laquelle on écrira pour désigner le
déterminant de S dans B.
On rencontre aussi la version .
La proportionnalité se traduit alors par la relation : Pour tout
systÈme S de n vecteurs de E
ou par
On en déduit en particulier en prenant S=B2 que les déterminants et sont inverses l’un de
l’autre.
3) Inversibilité d’une matrice
carrée.
Si A est un élément de Mn(K), son rang est celui du systÈme S de ses n vecteurs
colonnes considérés comme vecteurs de E=Kn décomposés dans la base canonique B de cet espace.
D’aprÈs le théorÈme fondamental on peut donc dire que A est de rang n, ou encore est inversible, si et seulement si le déterminant de S dans B est non nul.
Ce déterminant sera appelé naturellement déterminant de la matrice A et est noté det(A).
L’intervention de cette notation permet de formuler de façon plus pratique la
relation de définition par récurrence des déterminants généraux.
En effet le déterminant d’ordre n
noté dans la démonstration :
n’est autre que le déterminant de la matrice carrée Ai obtenue à partir de A en supprimant la premiÈre colonne et la ligne d’indice i.
La construction se résume alors à :
Formule dite du développement suivant la premiÈre colonne de A.
4) Déterminant d’un endomorphisme.
Soit u un endomorphisme d’un K-espace vectoriel E de dimension n et B
une base de E.
On vérifie trÈs facilement que l’application de En vers K définie par :
S=(v1,….,vn)
a avec u(S)=(u(v1),….,
u(vn))
, est une application n-linéaire
alternée donc est multiple du déterminant dans la base B. Le coefficient multiplicatif sera le scalaire c’est à dire le
déterminant de la matrice A
représentant u dans la base B.
Pour tout systÈme S on a donc
la relation a (1)
Examinons l’influence d’un changement de base. Si on repÈre maintenant
l’espace E à l’aide d’une nouvelle base B’, on sait que le déterminant dans B’ d’un systÈme quelconque s’obtient en multipliant le
déterminant dans B de ce mÊme
systÈme par la constante a=
En multipliant par a les
deux termes de l’égalité précédente (1) on obtient alors :
Pour tout systÈme S de n vecteurs de E :
En prenant S=B’ on en déduit que det(A)=det(A’) avec A’ matrice
représentant u dans B’.
Le déterminant de la matrice A
représentant initialement u n’est
donc pas affecté par le changement de base effectué. Il s’agit d’un invariant,
au mÊme titre que la trace de la matrice, c’est une constante attachée
à l’endomorphisme u et que
l’on appellera donc naturellement déterminant de cet endomorphisme. (notation det(u) )
La caractérisation : A matrice carrée inversible det(A) ¹0 se
traduit alors par :
l’endomorphisme u est bijectif det(u)
¹0 .
La relation de proportionnalité (1) se transcrit alors simplement : Pour
tout élément S de En
et
toute base B de E on a l’égalité
5) Déterminant d’un produit.
D’aprÈs ce qui précÈde, si u
et v sont deux endomorphismes de E et
B une base de cet espace, on peut
écrire : det(vu)=
Le déterminant d’un composé est donc le produit des déterminants. det(vu)=det(v).det(u)
L’application de LK(E) vers K qui à chaque endomorphisme associe son déterminant
est donc un morphisme de la loi vers la loi produit
dans K.
Comme on a vu que u était inversible
si et seulement si det(u) ¹0, l’application u adet(u)
apparait comme un morphisme du groupe ( GLK(E),) vers le groupe multiplicatif (K-, . )
On retrouve ainsi en particulier det(IE)=1K
et uI GLK(E) :
6) Inversion d’un automorphisme.
Soit u un automorphisme de E de
matrice représentative A dans la base
B.
Pour tout vecteur y de E, u-1(y)=x y=u(x)
On va voir que la théorie des déterminants permet d’expliciter facilement les
coordonnées de l’antécédent x de y à partir de celles de y.
Posons . Par linéarité de u
il vient : .
Notons alors S le systÈme
image et pour chaque indice i de désignons par S(i,
y) le systÈme obtenu à partir de S en remplaçant le vecteur u(ei) par y.
Notons enfin S(i,
j) le systÈme obtenu
toujours à partir de S en
remplaçant u(ei) par u(ej)
D’aprÈs la linéarité du déterminant dans B par rapport à la variable d’indice i on peut écrire la décomposition :
Or S(i, j) est un
systÈme dont les composantes vectorielles d’indice i et j sont identiques,
son déterminant dans B sera donc nul
pour i ¹j d’aprÈs la propriété
d’alternance.
Le seul terme non nul de la somme précédente est donc celui d’indice j=i. Remarquons alors que S(i, i) n’est autre
que le systÈme initial S dont
le déterminant dans B est, par
définition, le déterminant de l’automorphisme u.
On en déduit la relation : iI :
Ces formules exprimant les coordonnées de l’antécédent x de y par u sont dites de Cramer.
On peut en donner une expression plus pratique en faisant appel à la
matrice A représentant u dans la base B.
En effet le numérateur apparait alors comme le déterminant de la matrice carrée
obtenue à partir de A en remplaçant
la colonne d’indice i par la colonne
des composantes de y dans B.
Si on note A(i,y) cette
matrice, on obtient finalement : i I :
3)
TECHNIQUES DE CALCUL DES DETERMINANTS.
Pour l’instant le seul mode de calcul à notre disposition est la formule
dite du développement suivant la premiÈre colonne, qui nous a servi
à établir le théorÈme fondamental.
On va voir dans ce paragraphe qu’il existe d’autres techniques d’évaluation,
générales comme le développement suivant une colonne ou une ligne quelconque,
ou adaptées à des configurations particuliÈres (matrices
triangulaires, ou matrices définies par blocs).
La connaissance de ces méthodes n’est pas indispensable, surtout depuis l’essor
des logiciels de calcul formel, mais permet souvent de conduire plus
efficacement le développement ou la factorisation des déterminants étudiés.
Elle aide aussi sur le plan théorique à renforcer la compréhension de la
transposition des matrices.
Les notations seront celles développées dans la démonstration du
théorÈme fondamental.
S systÈme de n vecteurs vj de E représenté dans la base B par la matrice A de
coefficient générique x(i,
j)
A)
Développement suivant une colonne quelconque.
Nous
écrirons ici simplement det pour parler du déterminant dans la base B.
Soit jI. Echangeons successivement le vecteur vj de S avec
chacun des j-1 vecteurs le précédant
au sein de ce systÈme. On obtient à terme un nouveau
systÈme S’ tel que, vu la
propriété d’alternance : det(S)=(-1)j-1det(S’).
Remarquons d’abord que la matrice A’
représentant S’ dans B est obtenue en portant en tÊte
la colonne d’indice j, les autres
colonnes restant dans l’ordre initial.
Supprimer la premiÈre colonne de A’
revient donc à supprimer la colonne d’indice j de A.
Développons alors le déterminant de S’
suivant la premiÈre colonne.
det(S’)= , avec pour Ai’ la matrice carrée d’ordre
n-1obtenue à partir de A’ en supprimant la premiÈre
colonne et la ligne d’indice i.
Vu la remarque faite ci dessus, A’i =A(i, j) avec A(i, j) matrice
d’ordre n-1 obtenue à partir
de A en supprimant la colonne d’ordre
j et la ligne d’indice i.
Comme (-1)j –1.(-1)i –1=(-1)i+j , on obtient la formule
de développement suivant la colonne j :
B)
Développement suivant la premiÈre ligne.
Considérons l’application f de En vers K qui à tout systÈme S représenté par A dans B fait correspondre le scalaire , avec A(1, j) désignant comme précédemment la
matrice d’ordre n-1 obtenue en
éliminant de A la premiÈre
ligne et la colonne d’indice j.
Montrons que f est n-linéaire alternée.
_ Linéarité par rapport à la
variable d’ordre k.
a Pour j ¹k le coefficient x(1, j) est
figé et le déterminant de A(1, j) dépend linéairement du vecteur vk de S .
En effet det(A(1, j))=det(q1(Sj))
avec pour Sj le
systÈme obtenu en supprimant
de S le vecteur vj et q1 la projection définie
par : x1e1+….+xnen ax e +…+xnen
, le déterminant étant évalué dans la base B1
=(e2,…,en).
a Pour j=k. c’est le déterminant de A(1,
k) qui est alors figé, puisque
la colonne représentant la composante variable vk a été éliminée. Par contre le coefficient x(1, k) premiÈre composante de vk dans B
dépend linéairement de ce vecteur vk.
_ Alternance.
Supposons que vl=vk pour l <k.
Les matrices A(1, j) ont donc deux colonnes
identiques pour j et sont donc de
déterminant nul. Il reste donc f(S)=(-1)l+1x(1,
l)det(A(1, l))+(-1)k+1x(1, k)det(A(1, k))
Examinons ces deux déterminants résiduels.
Si on note C1,C2,,Cn les colonnes de A
privées du coefficient relatif à la premiÈre ligne on a :
det(A(1,
l))=det(C1,C2,…,Cl-1,Cl+1,…Ck-1,Ck…….,Cn)
det(A(1,
k))=det(C1,C2, ,Cl-1,Cl ,……,Ck-1,Ck+1,….,Cn)
On passe donc puisque Cl=Ck de la premiÈre
matrice à la seconde en échangeant successivement la colonne Ck avec chacune des k-l-1 colonnes la précédant.
Vu l’alternance, on en conclÛt : det(A(1, k))=(-1)k-l-1det(A(1,
l)) et par suite f(S)=0
puisque les coefficients x(1, l) et x(1, k)
coÃncident.
D’aprÈs le théorÈme fondamental il existe donc un scalaire a tel que pour tout systÈme
S on ait la relation de
proportionnalité : f(S)=adet(S)=adet(A).
Or pour S=B on trouve A=In
et de maniÈre évidente f(B)=1.det(In-1)=1
Ainsi a=1
et f
coÃncide avec le déterminant dans la base B sur tout systÈme S.
On a donc une formule de développement d’une matrice carrée suivant la
premiÈre ligne analogue à celle du développement suivant la
premiÈre colonne.
(avec A(1, j) déduite de A par
suppression de la premiÈre ligne et de la colonne d’indice j.)
Cette relation va jouer un rôle clef dans le théorÈme suivant concernant
le déterminant d’une matrice transposée.
C)
Déterminant d’une transposée.
ThéorÈme :
Le déterminant d’une matrice carrée quelconque A est toujours égal à
celui de la transposée tA
La démonstration s’effectue ici par récurrence sur l’ordre n de la matrice.
_ Pour n £3 la vérification est immédiate
en examinant les formules explicitant les déterminants correspondants.
_ Supposons la propriété vraie pour un entier n donné et considérons une matrice carrée A d’ordre n+1 de terme
générique a(i, j) et sa
transposée B=tA de coefficient général b(i, j)=a(j, i).
Evaluons le déterminant de B en
développant suivant la premiÈre ligne.
Or b(1, j)=a(j, 1) et B(1, j) est la
matrice obtenue en éliminant de B=tA la premiÈre ligne et la colonne
d’ordre j , c’est à dire en
fait la transposée de la matrice A(j, 1) obtenue en supprimant de A la premiÈre colonne et la ligne
d’ordre j.
Par hypothÈse de récurrence on peut donc dire que : j I det(B(1, j))=det(A(j, 1))
Ainsi on obtient . Mais ceci n’est
autre que la formule du calcul du déterminant de A suivant la premiÈre colonne. On a donc bien établi que le
théorÈme s’étend à l’entier suivant n+1 : det(tA)=det(A) pour A carrée quelconque d’ordre n+1.
Ceci achÈve la démonstration.
Les manipulations de type Gauss sur les colonnes vont donc se traduire par des
manipulations analogues sur les lignes avec les mÊmes conséquences liées
aux caractÈres de multilinéarité et d’alternance des déterminants. En
résumé :
D)
Développement suivant une ligne quelconque.
Vu le résultat sur la transposition, la formule du développement du déterminant
suivant une colonne d’indice quelconque se traduit immédiatement, si on
l’applique à la transposée d’une matrice donnée A, par une formule analogue dite de développement suivant une
ligne :
i I
A(i, j) désignant
toujours la matrice carrée d’ordre n-1
obtenue à partir de A en
supprimant la ligne d’indice i et la
colonne d’indice j.
E)
Déterminant d’une matrice triangulaire.
ThéorÈme. Le déterminant d’une matrice carrée triangulaire
supérieure ou inférieure est égal au produit des éléments de la diagonale
principale.
Vu le théorÈme sur la transposée
il suffit en fait de traiter le cas d’une matrice triangulaire supérieure.
Ici encore une récurrence sur l’ordre n
de la matrice donne facilement le résultat.
_ Pour n £3 les vérifications sont
immédiates sur les formules de calcul.
_ Supposons la propriété vraie pour un entier n et examinons une matrice triangulaire supérieure A d’ordre n+1 de coefficient générique a(i,
j).
En développant son déterminant suivant la premiÈre colonne, la formule
se résume en fait à :
det(A)=a(1,1)det(A(1,1))
avec pour A(1,1) la
matrice carrée d’ordre n obtenue en
supprimant la premiÈre ligne et la premiÈre colonne de A.
A(1,1) étant de
maniÈre évidente aussi triangulaire supérieure, son déterminant sera par
hypothÈse de récurrence le produit de ses éléments diagonaux principaux.
Ainsi det(A)=a(1,1).a(2,2)…….a(n+1,n+1)
Le théorÈme est donc bien encore vérifié pour le rang suivant n+1, ce qui termine la preuve par
récurrence.
F)
Déterminant d’une matrice définie par blocs.
Toute matrice carrée M d’ordre n+p peut Être considérée dans sa
représentation sous forme de tableau comme la juxtaposition de quatre sous
tableaux appelés blocs définis comme suit :
_ A IMn(K) formé des termes m(i, j) tels que i £n et j £n.
_ B IMp(K) formé des termes m(i, j) tels que n <i £n+p et n <j £n+p.
_ T I M(p, n)(K) formé des termes m(i, j) tels que n <i £n+p et j £n.
_ S IM(n, p)(K) formé des termes m(i, j) tels que i £n et n
<j £n+p.
On peut écrire en abrégé
ThéorÈme. Si l’un des deux blocs rectangulaires T ou S
de la décomposition précédente est nul, alors le déterminant de la matrice
composée M est égal au produit des
déterminants de ses deux blocs carrés A
et B. a det(M)=det(A).det(B)
Ici encore, grace au résultat sur la transposition il suffit de traiter le cas
oÙ T est nul.
La démonstration s’effectue alors facilement par récurrence sur n.
_ Pour n=1, il s’agit simplement de
la formule du développement suivant la premiÈre colonne.
_ Si le résultat est supposé vrai pour un entier donné n (et sous-entendu pour un entier p quelconque), considérons M
d’ordre n+1+p décomposée en blocs comme indiqué plus haut mais avec A carré d’ordre n+1 et T identiquement
nul.
En développant det(M) suivant la
premiÈre colonne on obtient alors avec les notations usuelles :
Or pour chaque indice i la matrice M(i,1) peut se décomposer en blocs sous la forme :
avec Si déduit de S par suppression de la ligne d’indice i.
D’aprÈs l’hypothÈse de récurrence on peut donc écrire det(M(i,1))=det(A(i,1)).det(B) et par suite
soit encore det(M)=det(A).det(B).
L’hérédité du principe de calcul est donc vérifiée, ce qui achÈve la
preuve par récurrence.
Déterminants. Exercices.
Exprimer
sous forme de produits de facteurs élémentaires les déterminants :
Montrer
que les déterminants suivants sont des polynômes de la variable x et déterminer leurs racines :
Factoriser
les déterminants suivants :
On considÈre la matrice avec a paramÈtre réel.
Déterminer les valeurs de a pour
lesquelles A est inversible et
exprimer dans ce cas A-1
en utilisant les formules de Cramer.
On
considÈre la matrice à coefficients réels
Examiner le produit tM.M . Que peut on en déduire au sujet du
déterminant de M ?
Factoriser le déterminant :
Montrer que tout endomorphisme f d’un plan vectoriel E satisfait toujours à la relation dite de Cayley-Hamilton : f 2-trace(f).f + det(f).IE=0
Calculer
le déterminant de la matrice carrée A
d’ordre n dont tous les coefficients
sont égaux au scalaire a exceptés les
termes de la diagonale principale prenant tous la valeur x.
On considÈre les deux matrices avec racine cubique de l’unité. Examiner le produit AB puis en déduire une expression factorisée du déterminant de la matrice A.
On considÈre le polynôme
Montrer que P(X) peut s’interpréter comme le déterminant de la matrice carrée A d’ordre n+1 définie comme suit :
_ La premiÈre ligne est formée des coefficients du polynôme, listés dans
l’ordre des degrés décroissants, soit : an , an-1,…..,
a1, a0.
_ La ligne d’ordre i >1 a son coefficient diagonal égal
à X, son terme d’indice
colonne i-1 égal à –1, et tous
les autres coefficients nuls.
Soit S=(a1, a2,….., an) un systÈme de n réels donnés.
Calculer le déterminant de la matrice carrée M d’ordre n dont la ligne
d’indice i quelconque est définie
comme suit :
_ Les i premiers coefficients sont
tous égaux à ai..
_ Les n-i termes suivants sont, dans
l’ordre initial, les n-i derniers
termes du systÈme S.
Par exemple : L3=( a3, a3, a3,
a4, a5,…..,an
)
Déterminants bordants.
B=(e1,…., en)
désigne une base d’un K-espace vectoriel E.
On note pour chaque i de , pi
la projection sur la droite
engendrée par ei
parallÈlement à l’espace Ei
engendré par les vecteurs de B
distincts de ei.
Soit k est un entier fixé strictement
inférieur à n. On note q=p1+p2+…..+pk la projection sur VecK(e1,…,ek) parallÈlement à VecK(ek+1,…,en)
On considÈre enfin un systÈme S=(v1,….., vk) de k
vecteurs de E tel que son image par q
soit un systÈme libre.
Montrer qu’un vecteur quelconque w de
E appartient au sous-espace engendré par S
si et seulement si chacun des n-k
déterminants suivants d’ordre k+1 est
nul :
i I désigne le déterminant
dans la base Bi= (e1,…,ek ,ei
) du systÈme
Si=(q(v1)+pi(v1),…., q(vk)+pi(vk),
q(w)+pi(w) )
Déterminant de Vandermonde.
A tout systÈme S=(x1,…., xn) de n
scalaires (n ³2) on associe le déterminant Dn d’ordre n de la matrice A de coefficient générique a(i,
j)=(xi)j-1
Etablir par récurrence sur l’entier n
la formule :
Déterminant fonction d’une
variable réelle.
On note D(x) le déterminant de la matrice carrée A(x) d’ordre n dont le coefficient générique d’indice
ligne i et colonne j est a(i, j)(x) avec a(i,
j) fonction définie sur un
intervalle I de R à valeurs dans R. (Fonctions dites composantes).
a) Montrer que si chacune des fonctions composantes est continue sur I, alors
la fonction
x aD(x) est aussi continue sur I.
b) Montrer que si les fonctions composantes sont toutes dérivables sur I, D se dérive sur I par addition des n
déterminants obtenus en remplaçant successivement chacune des colonnes de la
matrice A(x) par celle des dérivées des fonctions la composant.
Dérivée d’un déterminant.
Les notations sont celles de l’exercice précédent.
a) On note O(h) une matrice carrée
d’ordre n dont les coefficients sont
des fonctions composantes négligeables devant h en 0. Montrer que pour toute matrice carrée A d’ordre n à
coefficients indépendants de h, on a
au voisinage de 0 : det(A+O(h))=det(A)+o(h)
b) En déduire, toujours au voisinage de 0 : det(In+h.A+O(h))=1+trace(A).h+o(h)
c) Si toutes les fonctions composantes de la matrice A(x) sont dérivables et
si A(x) est inversible quelque soit x
de l’intervalle I, déduire de ce qui précÈde la formule de
dérivation :
Soit A IMn(K) et . On construit à partir d’elles la matrice C de M2n(K) définie par blocs suivant le
schéma :
Montrer que det( C)=(det(A))².(det(B))n
(On pourra faire apparaitre un carré inférieur d’ordre n nul afin d’appliquer le principe de calcul du déterminant par
blocs)
Soit N une matrice carrée d’ordre n
nilpotente.
a) Montrer que N est semblable à une matrice triangulaire supérieure dont
tous les éléments diagonaux sont nuls. On pourra procéder par récurrence sur
l’ordre de nilpotence de N c’est
à dire le plus petit entier k
tel que N k=0.
b) En déduire que pour une telle matrice on a det(In+N)=1.
c) Soit N nilpotente et A une matrice carrée inversible de
mÊme taille et commutant avec N
. Montrer en utilisant ce qui précÈde que det(A+N)=det(A).
Soit f un endomorphisme d’un C-espace vectoriel E de dimension n tel que f 3-IE soit non injectif. Montrer qu’il existe un nombre complexe a tel que f-aIE soit non injectif.
Calculer le déterminant de la
matrice carrée Tn d’ordre n dont la ligne d’indice i quelconque n’est autre que la ligne
d’ordre i du triangle de Pascal complétée
par des zéros et privée de son dernier terme pour la derniÈre ligne .
iI j I t(i, j)= et j >i+1 t(i,
j)=0
j I t(n,
j)=
Calculer le déterminant Dn de la matrice d’ordre n dont tous les coefficients sont égaux à 1 sauf ceux de la diagonale principale listés de haut en bas suivant la série des entiers successifs : 2, 3,…, n, n+1.
Exercices sur les Déterminants. Solutions.
Convention générale : Pour simplifier la rédaction, chaque fois
qu’une manipulation de type Gauss conduit à la mise en facteur d’un
scalaire l
dans une colonne ou une ligne, nous ne mentionnerons pas la factorisation
évidente de l
dans le déterminant étudié déduite de la multilinéarité.
Pour
le premier déterminant, les manipulations sur colonnes conduisent d’abord
à
On conclut par
Pour le deuxiÈme on peut commencer par la séquence
On poursuit avec soit, en développant
suivant la derniÈre ligne :
a)
La séquence amÈne la forme
triangulaire
b)
c)
conduit à la
factorisation :
.
On termine en développant suivant la premiÈre colonne, ce qui
donne :
2(cos(y)-cos(x))(cos(z)-cos(x))(cos(z)-cos(y))
b) conduit à la
forme triangulaire :
c’est à dire
à la forme factorisée :
c) conduit à
l’expression :
La
séquence donne det(A)=
A est donc inversible si et seulement
si a est différent de .
On peut alors déterminer A-1
grace à l’équivalence :
Les formules de Cramer permettent d’exprimer le triplet (x, y, z) en fonction de (x’, y’, z’):
et de mÊme.
Ce qui donne pour inverse de A la
matrice :
Un
calcul élémentaire donne tM.M=(a²+b²+c²+d²)I4.
On en déduit det(tM).det(M)= (a²+b²+c²+d²)4
d’aprÈs la rÈgle du produit,
puis (det(M))²= (a²+b²+c²+d²)4 grace au
théorÈme sur le déterminant d’une transposée.
Ainsi det(M)= (a²+b²+c²+d²)²
puisque les coefficients sont supposés réels.
Remarquons alors que si (b, c,
d) est un triplet donné fixé, le déterminant de M considéré comme fonction de la variable a seule est un polynôme de degré 4 de terme dominant a4.
Il suffit pour s’en assurer de considérer les monômes obtenus en développant ce
déterminant suivant la premiÈre colonne.
(Plus généralement on peut montrer facilement par récurrence que si AIMn(K), la fonction
x a det(A+xIn) est un polynôme de terme dominant xn)
On en déduit finalement la relation det(M)=
(a²+b²+c²+d²)².
On
peut par exemple faire apparaitre des 0 sur la premiÈre ligne et la
premiÈre colonne grace aux manipulations : puis
, ce qui donne
Soit en développant: qui se factorise facilement en –(a+b+c)(a+b-c)(b+c-a)(c+a-b)
Soit
A= une matrice carrée quelconque d’ordre 2 à
coefficients dans K.
On a immédiatement A²=
Posons t=trace(A)=a+d et D=det(A)=ad-bc.
Il vient alors a²+bc=a(a+d)+bc-ad=ta-D et d²+bc=d(d+a)+bc-ad=td-D.
Ainsi on a A²==t.A-D.I2
Tout endomorphisme f d’un plan
vectoriel E vérifie donc bien la relation de Cayley :
f
2-trace(f).f +det(f).IE=0.
Commençons
par remplacer C1 par la
somme C1+C2+….+Cn. La premiÈre colonne est alors formée de
coefficients tous égaux à x+(n-1)a ce qui nous permet d’écrire
det(A)=[x+(n-1)a]det(B) avec B identique
à A sauf pour ce qui concerne
sa premiÈre colonne dont tous les termes sont maintenant égaux à
1.
Soustrayons alors la premiÈre ligne de B à chacune des n-1
lignes suivantes de B.
B est ainsi transformée en une
matrice triangulaire supérieure dont tous les termes diagonaux égalent x-a. On peut donc conclure det(A)=[x+(n-1)a](x-a)n-1
Un
calcul élémentaire donne
A.B= avec s, s’,
s’’ sommes définies par s=a+b+c ; s’=a+jb+j²c ; s’’=a+j²b+jc. ( ceci d’aprÈs j3=1)
On en déduit d’aprÈs la rÈgle du produit et la multilinéarité du
déterminant, la relation det(A).det(B)=s.s’.s’’.det(B).
Or le déterminant de B n’est pas nul,
on obtient sa valeur rapidement en remplaçant par exemple sa premiÈre
colonne par la somme des trois, ce qui donne vu l’égalité classique 1+j+j²=0 :
det(B)=
Ainsi det(A)= s.s’.s’’=(a+b+c).(a+jb+j²c).( a+j²b+jc).
La
démonstration s’effectue facilement par récurrence sur le degré n du polynôme.
_ Pour n=0 et n=1 la vérification est immédiate.
_ Supposons la propriété vraie pour tout polynôme de degré au plus n et examinons un polynôme P(X)
de degré n+1,.soit : .
Développons suivant la premiÈre colonne le déterminant supposé reconstituer
P(X)
selon les données de l’énoncé. On obtient det(An+1)=an+1det(Tn)-(-1)det(An) avec pour Tn une matrice triangulaire
inférieure d’ordre n+1 dont tous les
coefficients diagonaux sont égaux à X
et An matrice
carrée d’ordre n+1 dont le
déterminant coÃncide, d’aprÈs l’hypothÈse de récurrence,
avec a0+a1X+….+anXn.
On en déduit donc bien : det(An+1)=an+1 X n+1+ a0+a1X+….+anXn=P(X)
ce qui achÈve la récurrence.
Effectuons
sur les colonnes de la matrice donnée M
la série de manipulations suivante :
Dans chaque colonne d’indice j+1 >1 les termes au dessus de la
diagonale principale sont tous égaux à aj+1-aj
et ceux sur ou en dessous de cette diagonale sont nuls.
On peut donc écrire d’aprÈs la multilinéarité :
det(M)=, avec pour A une
matrice d’ordre n dont la
premiÈre colonne n’est autre que celle de M et pour laquelle toute colonne d’indice j >1
est formée de 1 au dessus de la diagonale principale tandis que ses autre
termes sont nuls.
En développant det(A) suivant la
derniÈre ligne, dont seul le premier coefficient an est non nul, on obtient det(A)=(-1)n+1andet(T) avec pour T une matrice triangulaire supérieure
d’ordre n-1 dont tous les
coefficients diagonaux sont égaux à 1.
En conclusion : det(M)=(-1)n+1an.(an-an-1).(an-1-an-2)……(a2-a1)=
_ Si w appartient au sous-espace
engendré par S, on pourra donc
l’écrire comme combinaison linéaire w=a v akvk. Il s’ensuit par linéarité que
pour tout indice i >k
on aura q(w)+pi(w)=a (q+pi)(v1)+…..+ak(q+pi)(vk)
, d’oÙ l’on déduit que Di est nul en tant que déterminant
d’un systÈme lié.
_ Réciproquement, supposons chacun des n-k
déterminants Di nuls.
Pour un indice i >k donné, le vecteur (q+pi)(w) est donc combinaison linéaire du systÈme
Si=(
(q+pi)(v1),……,(q+pk)(vk)
).
En effet, l’image par q de ce
systÈme, soit (q(v1),….,q(vk)) est
libre par hypothÈse. Il s’ensuit que Si
est nécessairement libre. Or la matrice représentant Si dans Bi
est formée des k premiÈres
colonnes de la matrice de déterminant Di. Cette matrice d’ordre k+1 de déterminant nul et dont les k premiÈres colonnes forment un
systÈme libre est donc de rang k
et sa derniÈre colonne sera combinaison des k premiÈres. On peut
donc écrire l’égalité :
(1) .
En appliquant l’endomorphisme q
à cette égalité on en déduit la relation (2) :
(2) car qpi=0 et qq=q
Ainsi le coefficient ne dépend pas de
l’indice i car il n’est autre que la
composante aj sur q(vj) de q(w) dans la base (q(v1),….,q(vk)
). En revenant à l’égalité (1) on en déduit alors par différence, la
relation pi(w)=a pi(v1)+……+akpi(vk)
Enfin, en additionnant (2) avec les n-k
égalités précédentes pour i variant
de k+1 à n on obtient finalement w=a v akvk qui assure l’appartenance de w au sous-espace engendré par S.
Démonstration
par récurrence sur n.
_ Pour n=2 résultat évident :
_ Supposons la propriété vraie pour un entier n ³2
et examinons un déterminant de Vandermonde Dn+1
d’ordre n+1.
Transformons d’abord chacune des n
premiÈres lignes Li
en Li -Ln+1.
La premiÈre colonne voit alors tous ses termes nuls sauf le dernier égal
à 1.
En développant suivant cette colonne on obtient donc Dn+1=(-1)n+2det(An) avec An carrée d’ordre n
dont le terme générique est a(i,
j)=(xi)j-(xn+1)j.
En utilisant la linéarité suivant chaque ligne on peut alors ‘sortir’ du
déterminant de An chacune
des différences xn+1-xi .
Ceci conduit à , avec pour coefficient générique de Bn :
b(i, j)=
Effectuons alors la séquence de remplacement : , pour j variant en
décroissant de n à 2. Le terme
générique de la ligne i pour j ³2 devient alors :
La premiÈre colonne de Bn
ne comportant que des 1, det(Bn)
est donc un déterminant de Vandermonde d’ordre n relatif à la suite d’indéterminées x1,….,xn.
Par hypothÈse de récurrence on peut donc écrire det(Bn)= , et par suite :
Dn+1=, ce qui justifie l’extension de la formule de calcul
à l’ordre n+1.
a) Démonstration facile par récurrence sur n.
_ Pour n=2 D(x)= définit évidemment une fonction continue sur l’intervalle I
d’aprÈs les théorÈmes sur la somme et le produit de fonctions
continues sur un intervalle.
_ Supposons la propriété vraie pour un entier n ³2
et examinons un déterminant fonctionnel D(x)=det(A(x)) d’ordre n+1. En le développant suivant la
premiÈre colonne on obtient la formule classique : D(x)=
Ai(x) désignant la matrice d’ordre n
obtenue à partir de A(x) en supprimant la premiÈre
colonne et la ligne d’indice i.
D’aprÈs l’hypothÈse de récurrence, la fonction Di définie sur I par Di(x)=det(Ai(x)) est donc continue sur tout cet
intervalle et ceci pour tout i de
.
D est donc bien continue sur I comme
combinaison linéaire de produits de fonctions continues.
b) Ici aussi récurrence sur n.
_ Pour n=2 [a(1,1).a(2,2)-a(1,2).a(2,1)]’=a’(1,1).a(2,2)-a’(1,2).a(2,1) +a(1,1).a’(2,2)-a(1,2).a’(2,1)
Ceci d’aprÈs les rÈgles de dérivation des produits et sommes de
fonctions dérivables.
On obtient bien la technique de dérivation annoncée.
_ Supposons la propriété vraie à l’ordre n et examinons avec les notations du a) un déterminant D(x)
fonctionnel d’ordre n+1. La formule
de développement employée plus haut montre que D est dérivable sur I suivant la formule :
D’(x)=
La premiÈre somme est le développement suivant la premiÈre
colonne du déterminant de la matrice obtenue en remplaçant la premiÈre
colonne de A(x) par celle des dérivées des fonctions composantes la constituant.
Etudions la deuxiÈme somme.
D’aprÈs l’hypothÈse de récurrence on peut écrire pour chaque i de :
avec pour A(i, j)(x) la matrice obtenue en remplaçant la
colonne d’ordre j de Ai(x) par celle des dérivées, c’est à dire la matrice obtenue en supprimant la
premiÈre colonne et la ligne d’ordre i
de la matrice Bj+1(x) déduite de A(x) en remplaçant la
colonne d’ordre j+1 par celle des
dérivées des composantes.
Par permutation des indices la deuxiÈme somme s’écrit :
On a donc bien D’(x)= conformément à la formule attendue pour le rang n+1. Ceci achÈve la preuve par
récurrence.
a)
Démonstration par récurrence sur n.
On notera o(i, j)(h) le terme générique de la matrice O(h)
et a(i, j) celui de A.
_ Pour n=1 et n=2 les vérifications sont évidentes.
_ Supposons la propriété vraie à l’ordre n et examinons la situation à l’ordre suivant.
En développant suivant la premiÈre colonne on a, toujours avec les
notations classiques :
det(A+O(h))=
Or O(i,1)(h) est la matrice
carrée d’ordre n obtenue à
partir de O(h) en supprimant la premiÈre colonne et la ligne d’indice i. Ses coefficients sont donc tous
négligeables devant h en 0 et
l’hypothÈse de récurrence permet alors d’écrire det(A(i,1)+O(i,1)(h))=det(A(i,1))+o(h).
On en déduit alors le développement :
On obtient bien pour h
voisin de 0 : det(A+O(h))=det(A)+o(h) ce qui conclut la récurrence.
b) D’aprÈs l’étude précédente on peut déjà écrire le
développement au voisinage de 0 :
det(In+hA+O(h))=det(In+hA)+o(h).
On peut alors montrer facilement par récurrence sur n la relation : det(In+hA)=1+trace(A).h+o(h). Ici aussi les
vérifications initiales sont triviales et l’hérédité se montre encore en
développant suivant la premiÈre colonne. det(In+1+hA)=[1+ha(1,1)][1+trace(A(1,1))h+o(h)]+
En effet la matrice obtenue en éliminant de In+1+hA
la premiÈre ligne et la premiÈre colonne n’est autre que In+hA(1,1) à laquelle on peut appliquer
l’hypothÈse de récurrence.
Quand au déterminant obtenu en éliminant la premiÈre colonne et la ligne
d’indice i >1, il peut s’écrire, en développant suivant la premiÈre ligne, sous la
forme hDi(h) avec Di fonction continue de h.
En regroupant tous les termes négligeables devant h en 0 on obtient finalement : det(In+1+hA)=1+h[a(1,1)+trace(A(1,1)]+o(h)=1+htrace(A)+o(h).
En conclusion on a bien pour tout n :
det(In+hA+O(h))=1+h.trace(A)+o(h)
c) Si on note A’(x)= la matrice obtenue en remplaçant chacun des coefficients de
la matrice variable A par sa dérivée
au point x, on obtient trÈs
facilement le développement au voisinage de 0 : A(x+h)=A(x)+hA’(x)+O(h).
Si A(x) est supposée inversible on peut écrire A(x+h)=A(x).[In+hA-1(x).A’(x)+O(h)]
On en déduit d’aprÈs la rÈgle du produit et l’étude précédente,
la relation :
det(A(x+h))=det(A(x)).[1+htrace(A-1(x).A’(x))+o(h)]
Ceci n’est autre qu’un développement d’ordre 1 de det(A(x+h)) au voisinage de h=0
On en déduit la formule de dérivation :
_
Examinons d’abord le cas particulier c=0.
Le bloc inférieur gauche cA d’ordre n étant nul on a alors det( C )=det(aA).det(dA)=an.det(A).dn.det(A)=[det(A)]².[det(B)]n
_ Si c est non nul, transformons le
bloc inférieur droit dA en 0 grace
à la séquence de manipulations sur colonnes : , pour i variant de 1 à n.
Le bloc supérieur droit est changé dans cette opération en
Effectuons alors la suite d’échanges pour i variant de 1 à n afin de se ramener au cas oÙ le
bloc inférieur gauche est nul. On en déduit :
det(C)=(-1)n
On obtient bien det(C)=[det(A)]2.[det(B)]n.
a)
Soit k le plus petit entier tel que N k=0.(ordre de nilpotence de
N). Nous allons montrer par
récurrence sur k que N est toujours semblable à une
matrice triangulaire supérieure de diagonale principale nulle.
_ Si k=1 la vérification est évidente
puisque N=0.
_ Supposons la propriété vraie pour k
et examinons le cas d’une matrice N
de Mn(K) d’ordre de nilpotence k+1. Notons f l’endomorphisme de Kn représenté par N dans la base canonique.
Vu que f k+1=0
et f k ¹0 , la restriction g de f
à F=Im(f) est nilpotente
d’ordre k.
Par hypothÈse de récurrence il existe donc une base B de F telle que la matrice A
représentant g dans B=(u1,….,
up) soit triangulaire supérieure de diagonale
principale nulle.
Complétons B en une base B’ de l’espace total Kn. La matrice de f dans B’ est alors aussi du type demandé. En effet ses p premiÈres colonnes ne sont
autres que celles de A complétées par
des coefficients nuls, et l’image par f
d’un vecteur de B’-B est combinaison
des vecteurs de B puisque ce systÈme est une base de Im(f).
La propriété étudiée se transmet donc bien du rang k au rang k+1.
b) D’aprÈs ce qui précÈde, In+N sera semblable à une matrice
triangulaire supérieure dont tous les éléments de la diagonale principale
seront égaux à 1. On a donc par conservation du déterminant lors d’un
changement de base : det(In+N)=1
c) Ecrivons A+N=A(In+A-1.N). On en déduit det(A+N)=det(A).det(In+M) avec M=A-1.N.
Par hypothÈse, N commute avec A et donc aussi avec A-1.
Puisque N est nilpotente d’ordre k on peut donc écrire la relation :
M k=(A-1)k.N k=0.
M est donc aussi nilpotente.
D’aprÈs b) on peut donc écrire det(In+M)=1
, et par suite : det(A+N)=det(A).
Si
1, j, j² désignent les trois racines complexes de l’unité, on déduit
immédiatement de l’égalité polynômiale X 3-1=(X-1)(X-j)(X-j²), la factorisation dans LK(E) suivante :
f 3-IE=(f-IE)(f-jIE)(f-j²IE).
Il suffit en effet d’appliquer le morphisme classique de K-AlgÈbre reliant K[X] à LK(E) et transformant X en f.
fi
3-IE n’étant pas injectif, son déterminant sera nul et on
en déduit d’aprÈs le théorÈme du produit que det(f-IE).det(f-jIE).det(f-j²IE)=0.
Un des trois facteurs est donc nécessairement nul, ce qui assure la non
injectivité de l’endomorphisme f-aIE pour au moins un a de .
Effectuons
la séquence de manipulations sur les lignes : pour i variant en
décroissant de n à 2. Vu la
relation fondamentale de construction du triangle de Pascal, le coefficient
d’indice j de la ligne i devient :
_ 1-1=0 si j=1.
_ si 2 £j £i
_ si j=i+1.
_ 0 si j >i+1.
En développant alors ce déterminant suivant la premiÈre ligne on obtient
la relation :
det(Tn)=det(Tn-1). On termine
en calculant det(T2)=
Ainsi
n ³2 : det(Tn)=1.
En
utilisant la linéarité par rapport à la derniÈre colonne on peut
d’abord décomposer Dn en
la somme An+Bn
des deux déterminants obtenus en remplaçant respectivement la derniÈre
colonne de la matrice d’origine d’une part par une colonne formée uniquement de
1 et d’autre part par la colonne dont tous les termes sont nuls sauf le
dernier, égal à n.
_ En développant Bn suivant cette mÊme
derniÈre colonne, il vient : Bn=nDn-1.
_ En soustrayant à chaque ligne de An la derniÈre ligne du tableau, on obtient un
déterminant triangulaire inférieur dont les termes de la diagonale principale
sont les entiers 1, 2,, n-1, 1
On en déduit immédiatement An=(n-1)! et par suite la relation de
récurrence :
Dn=(n-1)!+nDn-1
valable pour tout n ³2.
Remarquons alors que cette relation peut s’écrire aussi :
Par sommation, l’indice variant entre 2 et n,
on en déduit l’égalité :
Or D1=2 . On en déduit la
formule :
Politica de confidentialitate | Termeni si conditii de utilizare |
Vizualizari: 2346
Importanta:
Termeni si conditii de utilizare | Contact
© SCRIGROUP 2024 . All rights reserved