Está en la página 1de 112

Prof. Dr.

Vladimir BALAN

ALGEBRĂ LINIARĂ,

py
GEOMETRIE ANALITICĂ
Co
EB
= ediţia a III-a revăzută şi adăugită =
tW
en
ud
St

BUCUREŞTI - 2004
Referenţi ştiinţifici: Prof. Dr. Constantin Drăguşin
Prof. Dr. Constantin Radu

py
Co
EB
tW
en
ud
St
Prefaţă

Acest curs reprezintă un ghid practic, care include noţiunile,


rezultatele teoretice de bază, precum şi tipurile de probleme care apar în
cadrul disciplinei "algebră liniară şi geometrie analitică" predată în
instituţiile de învăţământ superior universitar tehnic şi economic.
În lucrare sunt expuse clar şi cu multe exemple instructive, elemente
de algebră liniară (structuri algebrice, spaţii vectoriale, transformări
liniare, forme pătratice) şi de geometrie analitică (vectori liberi, dreapta şi
planul în spaţiu, conice, cuadrice).
Deşi cartea are un pronunţat caracter teoretic, atât exemplificările ce

py
însoţesc definiţiile şi rezultatele, precum şi exerciţiile propuse la sfârşit de
capitol urmate de răspunsuri sau rezolvări succinte, fac din acest curs un
instrument util de seminarizare. Co
În plus, volumul include un index de noţiuni, deci poate fi utilizat şi
EB
ca memento, iar referinţele bibliografice reprezintă un punct de plecare
pentru un studiu extins al materialului.
Lucrarea este utilă în special studenţilor de la facultăţile tehnice,
tW

inginerilor, cercetătorilor şi cadrelor didactice din învăţământul mediu şi


superior, putând fi consultată şi de elevii de liceu din anii terminali.
Parcurgerea cărţii presupune cunoaşterea noţiunilor şi rezultatelor de
en

algebră, analiză matematică şi geometri predate în învăţământul liceal.


ud
St

19 noiembrie 2004,
Bucureşti.
Autorul.
Cuprins
Algebră liniară

Capitolul 1. Spaţii vectoriale


#1. Grupuri şi corpuri ..................................................…............. 1
#2. Spaţii vectoriale. Subspaţii vectoriale..................................… 3
#3. Dependenţă şi independenţă liniară ........................................ 9
#4. Bază şi dimensiune .............................................................…. 10
#5. Spaţii vectoriale euclidiene ..................................................... 18
#6. Ortogonalitate. Procedeul de ortogonalizare Gram-Schmidt... 22
#7. Probleme propuse.................................................................... 29

py
Capitolul 2. Transformări liniare
#1. Transformări liniare…………………………….................... 39

Co
#2. Nucleu şi imagine ..................................................................
#3. Matricea unei transformări liniare .........................................
#4. Endomorfisme particulare .....................................................
42
46
49
EB
#5. Transformări liniare pe spaţii euclidiene ............................... 52
#6. Izometrii ................................................................................ 56
#7. Probleme propuse.................................................................. 58
tW

Capitolul 3. Valori şi vectori proprii


#1. Valori şi vectori proprii ........................................................ 64
#2. Polinomul caracteristic al unui endomorfism........................ 65
en

#3. Forma diagonală a unui endomorfism................................... 69


#4. Forma canonică Jordan ......................................................... 74
ud

#5. Spectrul endomorfismelor pe spaţii euclidiene ..................... 79


#6. Polinoame de matrice. Funcţii de matrice ............................. 82
St

#7. Probleme propuse.................................................................. 86

Capitolul 4. Forme biliniare şi pătratice


#1. Forme biliniare. Forme pătratice…......................................... 91
#2. Reducerea formelor pătratice la expresia canonică ...........…. 96
#3. Signatura unei forme pătratice reale ....................................... 103
#4. Probleme propuse................................................................... 105
Geometrie analitică în E3

Capitolul 5. Vectori liberi


#1. Spaţiul vectorial al vectorilor liberi……. ......................... 108
#2. Coliniaritate şi coplanaritate ........................................… 112
#3. Proiecţii ortogonale……………….......................………. 114
#4. Produs scalar ..................................................................... 116
#5. Produs vectorial .............................................................… 118
#6. Produs mixt ........................................................................ 121
#7. Probleme propuse............................................................... 123

Capitolul 6. Dreapta şi planul în spaţiu


#1. Reper cartezian ................................................................... 126
#2. Ecuaţiile dreptei în spaţiu ................................................... 127
#3. Ecuaţiile planului în spaţiu ................................................. 129
#4. Unghiuri în spaţiu ............................................................... 134
#5. Distanţe în spaţiu ................................................................ 136
#6. Probleme propuse................................................................ 140

py
Capitolul 7. Schimbări de repere în spaţiu
#1. Translaţia şi rotaţia reperului cartezian .............................. 146
#2. Trecerea de la reperul cartezian la reperul cilindric ........... 151

Co
#3. Trecerea de la reperul cartezian la reperul polar în plan.... 153
#4 Trecerea de la reperul cartezian la reperul sferic ............… 154
#5. Probleme propuse................................................................ 156
EB
Capitolul 8. Conice
#1. Generalităţi ........................................................................ 158
#2. Reducerea la forma canonică a ecuaţiei unei conice ......... 170
tW

#3. Intersecţia dintre o dreaptă şi o conică ...........................… 176


#4. Pol şi polară ....................................................................... 178
#5. Diametru conjugat cu o direcţie dată ................................. 180
#6. Axele unei conice .............................................................. 182
en

#7. Probleme propuse.............................................................. 183


Capitolul 9. Cuadrice
ud

#1. Sfera ……………............................................................. 185


#2. Elipsoidul ......................................................................... 188
#3. Hiperboloizii .................................................................... 190
St

#4. Paraboloizii....................................................................... 193


#5. Alte tipuri de cuadrice………........................................... 195
#6. Cuadrice riglate .......................................................……. 196
#7. Cuadrice descrise prin ecuaţia generală ........................... 197
#8. Reducerea la forma canonică a ecuaţiei unei cuadrice ..... 200
#9. Intersecţia unei cuadrice cu o dreaptă sau cu un plan ...... 202
#10. Probleme propuse........................................................... 205

Index de noţiuni
Algebră liniară………………....................................…..……... 208
Geometrie analitică…………….............................….....……… 211

Bibliografie ....................................……………………..……………… 214


ALGEBRĂ LINIARĂ

Capitolul 1

SPAŢII VECTORIALE

#1. Grupuri şi corpuri

Vom reaminti întâi noţiunile de grup şi de corp comutativ, structuri cunoscute


din manualul de algebră de liceu de clasa a XII-a.

py
1.1. Definiţie. Un grup (G , ∗ ) reprezintă o mulţime G împreună cu o
operaţie binară internă ∗ :( g1 , g 2 ) ∈ G × G → g1 ∗ g 2 ∈ G , care satisface
următoarele condiţii:

∃e ∈ G,∀g ∈ G, e ∗ g = g ∗ e = g ,
Co
∀g1 , g 2 , g 3 ∈ G, g1 ∗ ( g 2 ∗ g 3 )=( g1 ∗ g 2 ) ∗ g 3 (asociativitate)
(element neutru)
(1)
(2)
EB
∀g ∈ G,∃g ′ ∈ G, g ∗ g ′ = g ′ ∗ g = e (element simetric). (3)
Dacă operaţia * satisface condiţia suplimentară
tW

∀g1 , g 2 ∈ G, g1 ∗ g 2 = g 2 ∗ g1 , (comutativitate) (4)


atunci grupul G se numeşte grup comutativ (sau abelian).

Observaţii 1. Elementul e din axioma (2) este unic determinat de proprietatea


en

dată (temă, verificaţi) şi se numeşte element neutru; elementul g ′ care satisface


ud

axioma (3) este unic determinat de g şi se numeşte simetricul lui g.


2. În grupurile uzuale, operaţia de grup se notează fie aditiv, fie multiplicativ. În
St

fiecare din cele două cazuri apar următoarele notaţii şi denumiri:


♦ Într-un grup aditiv, notat prin (G ,+ ) , elementul neutru e se notează cu 0 şi se
numeşte zero, iar elementul simetric g ′ al unui element g se notează cu − g şi se
numeşte opusul lui g . Diferenţa g1 − g 2 se defineşte ca fiind suma g1 + (− g 2 ) .
♦ Într-un grup multiplicativ, notat prin (G ,⋅) , elementul neutru e se notează cu 1 şi se
numeşte unitate, iar g ′ se notează cu g −1 şi se numeşte inversul lui g .

Exemple de grupuri.
1. Grupurile aditive (C,+), (R,+), (Q,+), (Z,+).
2. Grupurile multiplicative (C* = C \ {0},⋅), (R* = R \ {0},⋅), (Q* = Q \ {0},⋅).
 1 0  0 −1  −1 0   0 1
3. (G ,∗ ), unde G =  , , ,  , iar ∗ este înmulţirea
 0 1  1 0   0 −1  −1 0
matricelor.
4. Grupurile ( G = {1, i,−1,−i} ⊂ C ,⋅); (Z 4 ,+).

Algebră liniară 1
5. Mulţimea bijecţiilor definite pe o mulţime A şi cu valori în A formează grup
relativ la compunerea funcţiilor.

1.2. Definiţie. Fie (G , ∗ ) un grup. Se numeşte subgrup al lui grupului G o


submulţime nevidă H ⊂ G care satisface proprietatea
∀g1 , g 2 ∈ H , g1 ∗ g 2′ ∈ H . (5)
În acest caz notăm ( H , ∗ ) ⊂ (G , ∗ ) .

Observaţii. 1. H este un subgrup al grupului (G , ∗ ) dacă şi numai dacă H


este grup în raport cu operaţia indusă de ∗ .
2. Condiţia (5) este echivalentă cu condiţiile
∀g1 , g 2 ∈ H , g1 ∗ g 2 ∈ H ; ∀g ∈ H , g ′ ∈ H .

Exemple de subgrupuri.
1. (Z,+ ) ⊂ (Q,+ ) ⊂ (R,+ ) ⊂ (C,+) ;

py
2. (Q * , ⋅ ) ⊂ (R * , ⋅ ) ⊂ (C* , ⋅ ) ;
3. (Q*+ , ⋅ ) ⊂ (R *+ , ⋅ ) ⊂ (C*+ , ⋅ ) ;
4. Grupul permutărilor de n obiecte ( n ∈ N * ); Co
5. ({e},∗) ⊂ (G,∗); (G,∗) ⊂ (G,∗) , unde e este elementul neutru al grupului G. Aceste
EB
subgrupuri se numesc subgrupuri improprii ale grupului G.
tW

1.3. Definiţii.
a) Fie (G , ∗ ) şi (G ′, o) două grupuri. Se numeşte omomorfism de grupuri o
funcţie ϕ :G → G ' care satisface relaţia ϕ( g1 ∗ g 2 ) = ϕ( g1 ) o ϕ( g 2 ),∀g1 , g 2 ∈ G .
b) Un omomorfism bijectiv se numeşte izomorfism.
en

c) Dacă G = G ' şi ∗ ≡ o, omomorfismul mai poartă numele de endomorfism,


ud

iar izomorfismul, pe cel de automorfism.

Exemple de grupuri izomorfe.


St

1. Grupurile din exemplul 1.1.3 sunt izomorfe;


2. Grupurile (Z n ,+) şi (U n = {z ∈ C z n = 1} , sunt izomorfe prin aplicaţia
mπ mπ
ϕ : Z n → U n , ϕ (mˆ ) = cos + i sin , m = 0, n − 1 .
n n

1.4. Definiţii. a) Se numeşte corp un triplet (K, +, ⋅ ) format dintr-o mulţime


K împreună cu două aplicaţii binare notate prin +, ⋅ ale lui K × K în K (numite
respectiv adunare şi înmulţire), care satisfac condiţiile:
♦ adunarea determină pe K o structură de grup comutativ,
♦ înmulţirea determină pe K \{0} o structură de grup,
♦ înmulţirea este distributivă faţă de adunare.
b) Se numeşte câmp (corp comutativ), un corp pentru care şi înmulţirea este
comutativă.

2 Cap.I. Spaţii vectoriale


În cele ce urmează, vom nota un corp ( K , + , ⋅) prin K, iar corpurile utilizate
vor fi câmpurile (R , + , ⋅) şi (C, + , ⋅) .

Exemple de corpuri.
1. Tripletele (Q, + , ⋅) , (R , + , ⋅) , (C, + , ⋅) sunt corpuri comutative; operaţiile de
adunare şi înmulţire sunt cele obişnuite.
2. Tripletul (Z p ,+, ⋅ ) , unde p este un număr prim, este corp comutativ.

#2. Spaţii vectoriale. Subspaţii vectoriale

Pe lângă diverse structuri algebrice precum cele de monoid, algebră, inel, sau
modul, în studiul disciplinelor aplicate intervine cu prioritate structura de spaţiu
vectorial. Această structură constă dintr-un grup aditiv comutativ V , şi o operaţie de

py
înmulţire externă definită pe K × V cu valori în V care satisface patru axiome, unde K
este un câmp. Vom nota elementele spaţiului vectorial V (numite vectori) prin

Co
u, v , w,... , iar cele ale corpului K (numite scalari), prin a, b, c,K; k , l ,... sau α, β,... .

2.1. Definiţie. Se numeşte spaţiu vectorial peste corpul K un triplet (V,+,⋅ k = f ),


EB
în care
1. V este o mulţime - ale cărei elemente se numesc vectori;
2. operaţia “+” (numită de adunare a vectorilor) determină o structură de grup
tW

comutativ pe V, notată aditiv, (v , w) ∈ V × V → v + w ∈ V ;


3. operaţia “⋅ k ” (numită de înmulţire cu scalari), dată de o funcţie f
f : K × V → V , f (k , v) = kv,
en

ce satisface proprietăţile
ud

k (lv) = (kl )v, ∀k , l ∈ K ,∀v ∈ V (asoc. înmulţirii cu scalari), (1)


(k + l )v = kv + lv, ∀k , l ∈ K ,∀v ∈ V (distrib. faţă de adunarea din K), (2)
St

k (v + w) = kv + kw, ∀k ∈ K ,∀v, w ∈ V (distrib. faţă de adunarea din V) , (3)


1v = v, ∀v ∈ V (4)

Elementele lui K se numesc scalari, iar aplicaţia f se numeşte înmulţirea cu scalari.


În cazul K = R, spaţiul vectorial se numeşte spaţiu vectorial real, iar dacă K = C,
spaţiul vectorial se numeşte spaţiu vectorial complex.

Un spaţiu vectorial (V,+,⋅ k ), se va nota uneori, pe scurt, prin V. În cele ce urmează,


prin corpul K vom înţelege unul din câmpurile R sau C.

2.2. Teoremă. Dacă V este un spaţiu vectorial peste corpul K, atunci


∀u, v , w ∈ V şi ∀k , l ∈ K au loc următoarele proprietăţi:

Algebră liniară 3
(i) 0v = 0, (iv) v + w = v + u ⇒ w = u ,
(ii) k 0 = 0, (v) kv = lv şi v ≠ 0 ⇒ k = l ,
(iii) (−1)v = − v ,
unde elementul 0 din stânga egalităţii (i) reprezintă elementul neutru al corpului K,
iar elementul 0 ∈V din membrul drept reprezintă vectorul nul (elementul neutru al
grupului abelian (V,+) ).

Demonstraţie. i). 0v = (0 + 0)v = 0v + 0v ⇒ 0 = 0v .


ii) k ⋅ 0 = k ⋅ (0 + 0) = k ⋅ 0 + k ⋅ 0 ⇒ 0 = k ⋅ 0 .
iii) v + (−1)v = 1v + (−1)v = (1 + (−1)v = 0v = 0 ⇒ (−1)v = −v .
iv) v + w = v + u ⇒ −v + v + w = −v + v + u ⇒ 0 + w = 0 + u ⇒ w = u .
v) kv = lv ⇒ (k − l )v = 0 ⇒ k = l (în caz contrar, înmulţind cu (k − l ) −1 , rezultă
v = 0 , contradicţie) ‰

py
Corolar. În orice spaţiu vectorial V peste corpul K , pentru
∀k , l ∈ K ,∀v , w ∈ V au loc relaţiile:
a) − (kv) = (− k )v = k (−v) ,
b) (k − l )v = kv + (−l )v = kv + (−lv) = kv − lv , Co
c) k (v − w) = k[v + (−1) w] = kv + (− k ) w = kv + (−kw) = kv − kw .
EB
Demonstraţie. Arătăm, spre exemplu, proprietăţile a). Pe de o parte avem
iii
tW

(− k )v = k (−1) ⋅ v = k ⋅ (−1)v = k ⋅ (−v) .


( 3) i
Pe de altă parte, din egalităţile (− k )v + kv = (− k + k )v = 0 ⋅ v = 0 ⋅ v = −(kv) + kv rezultă,
folosind implicaţia (iv), egalitatea (− k )v = −(kv) . ‰
en

Exemple de spaţii vectoriale.


ud

În fiecare din exemplele următoare, vom preciza mulţimile V şi K, adunarea din V şi


înmulţirea vectorilor cu scalari.
St

1. Spaţiul vectorial K peste corpul K. În acest caz, V=K=corp, adunarea şi


înmulţirea cu scalari este înmulţirea din corpul K.
2. Spaţiul vectorial C peste corpul R. În acest caz, V = C (mulţimea
numerelor complexe), K = R (mulţimea numerelor reale), adunarea este cea din C,
înmulţirea cu scalari este cea uzuală dintre un număr real şi un număr complex.
3. Spaţiul vectorial aritmetic cu n dimensiuni. V = K n , K = corp
comutativ; adunarea şi înmulţirea cu scalari definite prin:

 x + y = ( x1 + y1 , x2 + y2 ,..., xn + yn )
 , ∀x = ( x1 , x2 ,..., xn ), y = ( y1 , y2 ,..., yn ) ∈ K n , ∀k ∈ K
kx = (kx1 , kx2 ,..., kxn ),
4. Spaţiul vectorial al vectorilor liberi. V = V3 , K = R, adunarea vectorilor
liberi prin regula paralelogramului, înmulţirea dintre un număr real şi un vector liber
(vezi cap.V, # 1).

4 Cap.I. Spaţii vectoriale


5. Spaţiul vectorial al matricelor de tipul m × n. V = M m× n (K ) , K = câmp,
adunarea matricelor, înmulţirea dintre un scalar şi o matrice.
6. Spaţiul vectorial al soluţiilor unui sistem algebric liniar omogen. V=
mulţimea soluţiilor unui sistem liniar omogen de m ecuaţii cu n necunoscute privite ca
elemente din K n (n-uple), cu coeficienţi din K, K ∈ {R, C} , adunarea din K n ,
înmulţirea dintre un scalar şi un element din K n .
x + y − z = 0
Spre exemplu, familia V a soluţiilor sistemului  este familia
2 x + z = 0
tripletelor de numere reale de forma ( x , y , z ) = ( λ,−3λ,−2λ), λ ∈ R ; V formează spaţiu
vectorial cu operaţiile definite în exemplul 3.
7. Spaţiul vectorial al funcţiilor cu valori într-un spaţiu vectorial dat. În
acest caz avem V = { f f : S → W }, unde S mulţime nevidă iar W este un spaţiu
vectorial peste câmpul K ∈ {R, C} , iar operaţiile sunt cele de adunare a funcţiilor şi
înmulţire a acestora cu scalari din corpul K.

py
8. Spaţiul vectorial al soluţiilor unei ecuaţii diferenţiale liniare şi omogene.
În acest caz, V = mulţimea soluţiilor unei ecuaţii diferenţiale ordinare, liniare şi

Co
omogene, K = R, adunarea funcţiilor, înmulţirea unei funcţii cu un scalar. Spre
exemplu, pentru λ ∈ R ,
EB
not
V = { f f : R → R, y = f , y ′ − λy = 0} = { f f ( x) = ae λx , a ∈ R}
formează un asemenea spaţiu vectorial.
9. Spaţiul vectorial al tuturor şirurilor reale sau complexe. În acest caz, V =
tW

mulţimea tuturor şirurilor reale sau complexe, K ∈ {R, C} , iar operaţiile sunt:
 x + y = {x1 + y1 ,..., xn + y n ,...}
 ,
kx = {kx1 ,..., kxn ,...}
en

∀x = {x1 ,..., x n ,...}, y = { y1 ,..., y n ,...} ∈ V , ∀k ∈ K .


ud

2.3. Dat fiind un K-spaţiu vectorial, vom studia în cele ce urmează


St

subspaţiile vectoriale ale spaţiului vectorial V , submulţimile acestuia care sunt ele
însele spaţii vectoriale relativ la operaţiile induse din V .

Definiţie. Se numeşte subspaţiu vectorial al lui V o submulţime nevidă W a


lui V , astfel încât au loc proprietăţile
∀u , v ∈ W , u + v ∈W ; (5)
∀k ∈ K ,∀u ∈ W , ku ∈ W . (6)

Observaţii. 1. Aceste condiţii sunt echivalente cu proprietatea


∀u, v ∈ W ,∀k , l ∈ K , ku + lv ∈ W ;
2. Adunarea şi înmulţirea cu scalari pe W sunt restricţiile la W ale operaţiilor
de pe V; de aceea următoarele afirmaţii sunt echivalente :
♦ W este un subspaţiu vectorial al lui V ;
♦ W este un spaţiu vectorial peste K în raport cu operaţiile induse din V.

Algebră liniară 5
Exemple de subspaţii vectoriale
1. Fie V un spaţiu vectorial peste câmpul K. Mulţimile {0} şi V sunt subspaţii
vectoriale ale lui V. Acestea se numesc subspaţii improprii; oricare alt subspaţiu al lui
V se numeşte subspaţiu propriu.
2. Mulţimea W a n-uplelor de forma (0, x 2 ,..., x n ) , ∀x 2 ,..., x n ∈ K este un
subspaţiu vectorial al lui K n . Se observă că are loc egalitatea
W = {x = ( x1 , x 2 ,..., x n ) ∈ K n x 1 = 0}
şi că W formează un subspaţiu vectorial în K n , de tipul spaţiilor vectoriale descrise în
exemplul 2.2.6.
3. Mulţimea funcţiilor impare şi mulţimea funcţiilor pare sunt respectiv
subspaţii ale spaţiului vectorial real al funcţiilor reale definite pe (−a , a ) ,
a ∈ R *+ ∪ {∞} .
4. Fie V = C 0 [a , b] = { f f :[a , b] → R , f continuă pe [a,b]}.
Submulţimea W = { f ∈ C 0 [a , b] f (a ) = f (b)} este un subspaţiu vectorial în V.

py
5. Fie V = R 3 . Dreptele şi planele care conţin originea sunt subspaţii
vectoriale ale lui R 3 . Coordonatele punctelor lor (triplete din R 3 ) sunt familii de

Co
soluţii ale unor sisteme lineare şi omogene de ecuaţii cu trei necunoscute.

2.4. Definiţie. Fie V un spaţiu vectorial peste corpul K şi S o submulţime


EB
nevidă a sa. Se numeşte combinaţie liniară finită de elemente din S un vector v ∈ V
de forma
tW

p
v = ∑ ki vi , unde vi ∈S ,ki ∈ K , i = 1, p .
i =1
en

Teoremă. Dacă S este o submulţime nevidă a lui V, atunci mulţimea tuturor


combinaţiilor liniare finite formate cu vectori din S, este un subspaţiu vectorial al
ud

lui V .
Acest subspaţiu se numeşte de subspaţiul generat de submulţimea S sau
St

acoperirea liniară a lui S şi se notează cu L(S). Dacă S este mulţimea vidă, atunci prin
definiţie L(S)={0}.

Observaţie Diferite submulţimi de vectori din V pot să genereze acelaşi


subspaţiu vectorial. De exemplu, pentru a , b ∈ K , a ≠ 0 , oricare din mulţimile
 t t2 tn 
{1, t , t ,..., t }, 1, , ,..., , {1,(at + b),(at + b) 2 ,...,(at + b) n }
2 n

 1! 2 ! n! 
generează spaţiul vectorial al funcţiilor polinomiale în nedeterminata t care au cel
mult gradul n, notat în cele ce urmează cu Kn[t], iar oricare din mulţimile
 t t2 tn 
{1, t , t ,..., t ,...}, 1, , ,..., ,..., {1,(at + b),(at + b) 2 ,...,(at + b) n ,...}
2 n

 1! 2 ! n! 
generează spaţiul vectorial al tuturor funcţiilor polinomiale în nedeterminata t, notat
cu K[t]. Observăm că W= Kn[t] este subspaţiu vectorial al spaţiului vectorial V= K[t].

6 Cap.I. Spaţii vectoriale


2.5. Teoremă. Dacă U şi W sunt două subspaţii ale spaţiului vectorial V,
atunci
1) suma dintre U şi W , mulţimea
U + W = {v = v1 + v2 v1 ∈ U , v2 ∈ W }
este un subspaţiu vectorial al lui V ;
2) intersecţia U ∩W este un subspaţiu vectorial al lui V ; mai mult, intersecţia
unui număr arbitrar de subspaţii vectoriale ale lui V este tot un subspaţiu
vectorial.
3) reuniunea U UW este un subspaţiu vectorial al lui V dacă şi numai dacă U ⊆ W
sau W ⊆ U (deci U UW nu este în general subspaţiu vectorial al lui V).

Demonstraţie. 1) Adunarea este o operaţie internă; într-adevăr, avem


v, v ′ ∈ U + W ⇔ v = u + w, v ' = u'+ w' ,
cu u, u'∈ U ,w, w'∈ W ; atunci rezultă u + u' ∈ U ,w + w' ∈ W , şi deci

py
v + v ′ = (u + u ′) + ( w + w′) ∈ U + W .
Pentru proprietatea (6), considerăm k ∈ K . Avem

Co
ku ∈ U , kw ∈W ⇒ kv = (ku ) + (kw) ∈ U + W .
2) Din v , v ' ∈ U ∩ W , rezultă v , v '∈ U , v , v '∈ W . Cum U şi W sunt subspaţii
vectoriale, rezultă
EB
kv + lv ' ∈ U , kv + lv ' ∈ W , ∀k, l ∈ K ⇒ kv + lv ' ∈ U ∩W .
3) Presupunem că nu are loc nici una dintre incluziunile U ⊆ W , W ⊆ U . Fie deci
u ∈ U \W , w ∈ W \ U . Rezultă
tW

u + w ∉ U , u + w ∉ W ⇒ u + w ∉ U UW ,
deci, în acest caz, precizată nu este subspaţiu vectorial. Dacă U ⊆ W , atunci
U UW = W , şi deci W ⊆ W este subspaţiu vectorial (subspaţiul total) al spaţiului
en

vectorial V = W . Cazul W ⊆ U se demonstrează analog. ‰


ud

Exemple. 1. Dacă U şi W sunt două subspaţii ale spaţiului vectorial V,


atunci acoperirea liniară L(U UW ) a mulţimii U UW este exact subspaţiul vectorial
St

U + W (temă, verificaţi).
2. Fie U = L(v1 = (1,0)),W = L(v2 = (0,1)); U ,W ⊂ R 2 .
Atunci U ∩W ={0}, U + W = R 2 ⊂ R 2 (deci suma este întregul spaţiu vectorial) iar
reuniunea U ∪ W nu este subspaţiu vectorial în R 2 , deoarece
v1 ∈ U , v2 ∈ W , v1 + v2 ∉ U ∪ W = {( x, y ) xy = 0} .
3. Fie subspaţiile U,W ⊂ R 2 generate respectiv de vectorii
u1 = (1,4), u2 = (−1,2), u3 = (2,0) şi w1 = (1,5), w2 = (−2,−10), w3 = (3,15)
din R 2 . Determinăm subspaţiile U + W şi U ∩W . Subspaţiul sumă U + W este
acoperirea liniară a mulţimii de vectori {u1 , u 2 , u 3 , w1 , w2 , w3 } ,
U + W = L({u1 , u2 , u3 , w1 , w2 , w3 }) ,
adică orice vector v ∈ U + W este de forma
v = k1w1 + k 2 w2 + k3 w3 + k 4u1 + k5u2 + k6u3 ; k1 , k2 , k3 , k4 , k5 , k6 ∈ K .

Algebră liniară 7
Subspaţiul U ∩W conţine acei vectori care admit scrierea simultană
v = α1 w1 + α 2 w2 + α 3 w3 = β1u1 + β 2 u2 + β 3 u3 .
Folosind operaţiile cu vectori din R 2 obţinem prin înlocuire şi identificare pe
componente, sistemul
α 1 − 2α 2 + 3α 3 = β1 − β 2 + 2β 3

5α 1 − 10α 2 + 15α 3 = 4β1 + 2β 2 .
Rangul matricei sistemului este unu, iar compatibilitatea este asigurată de anularea
determinantului caracteristic β1 − 7β 2 + 10β 3 = 0 . Obţinem
β1 = 7λ − 10µ, β2 = λ, β3 = µ, λ, µ ∈ R .
Atunci vectorii spaţiului U ∩W sunt de forma
(7λ − 10µ)u1 + λu2 + µu3 = (6λ − 8µ,30λ − 40µ) = (6λ − 8µ)(1,5), λ, µ ∈ R ,
şi deci U ∩ W = L({v ' = (1,5)}) .

2.6. Teoremă. Fie U , W subspaţii vectoriale. Următoarele afirmaţii sunt

py
echivalente:
(i) pentru orice vector v ∈ U + W , există o unică descompunere

(ii) U ∩W = {0} .
Co
v = v1 + v 2 , v1 ∈ U , v 2 ∈ W ;
EB
Demonstraţie. (ii)⇒(i). Fie v = v1 + v 2 = v1′ + v 2′ . v1 , v1′ ∈ U , v2 , v2′ ∈ W ⇒
u = v1 − v1′ = v 2′ − v 2 ∈ U ∩ W = {0} ⇒ v1 = v1′ , v 2 = v 2′ . Reciproc, prin absurd, dacă
tW

are loc (i), dar U ∩W ≠ {0} , fie w ∈ U ∩W \ {0} ≠ ∅ . Atunci


w = 0 + w = w + 0 ∈ U + W reprezintă două descompuneri simultane ale lui w, în care
0, w ∈ U ; 0, w ∈ W . Din unicitatea descompunerii, rezultă w=0, contradicţie. ‰
en

2.7. Definiţii. Fie U şi W două subspaţii vectoriale ale lui V.


ud

a) Dacă U ∩W = {0} , atunci suma U + W se numeşte sumă directă şi se notează


U ⊕W = U +W .
St

b) Dacă suma U + W este directă şi avem în plus U + W = V , atunci U şi W se


numesc subspaţii suplimentare. Noţiunile de sumă şi sumă directă se pot extinde în
mod natural la cazul unui număr finit de subspaţii vectoriale.

Exemple. 1. Subspaţiile U = {( x,0) x ∈ R},W = {(0, y ) y ∈ R} au suma


U + W = R 2 şi intersecţia U ∩W = {(0,0)} = {0 R 2 } , deci sunt suplementare în R2.
Într-adevăr, descompunerea unui vector din R2 după cele două subspaţii este unică:
∀( x, y ) ∈ R 2 , ( x, y ) = ( x,0) + (0, y ) ∈ U + W .
2. Subspaţiul funcţiilor pare
U = { f : I → R f ( x ) = f (− x ), ∀x ∈ I }
şi respectiv impare
W = { f : I → R f ( x ) = − f (− x ), ∀x ∈ I } ,

8 Cap.I. Spaţii vectoriale


unde I=(-a,a) este un interval simetric real, sunt suplementare în spaţiul vectorial real
V al funcţiilor reale definite pe I, întrucât intersecţia conţine numai funcţia constantă
nulă şi are loc descompunerea
f ( x) + f (− x) f ( x) − f (− x)
f ( x) = + , ∀x ∈ I ,
2 2
deci orice funcţie f :(− a , a ) → R este suma dintre o funcţie pară şi una impară, ceea
ce probează incluziunea nebanală V ⊂ U + W .

#3. Dependenţă şi independenţă liniară

3.1. Definiţii. Fie S o submulţime de vectori din K-spaţiul vectorial V,


unde K ∈ {R, C} .
a) Spunem că mulţimea S este liniar dependentă dacă există o familie finită de
vectori distincţi din S, spre exemplu v1 , v2 ,..., v p ∈ S şi scalarii

py
k1 , k 2 ,..., k p ∈ K , cu cel puţin unul nenul, astfel încât să aibă loc relaţia (numită
relaţie de dependenţă liniară):
Co
k1v1 + k 2 v2 +...+ k p v p = 0 .
EB
b) Spunem că mulţimea S este liniar independentă dacă nu este liniar dependentă,
adică dacă ∀vi ∈ S , i = 1, p (p arbitrar, p ∈ N ), ∀k i ∈ K , i = 1, p , are loc
tW

implicaţia
k1v1 + k 2 v2 +...+ k p v p = 0 ⇒ ki = 0, i = 1, p .
en

Notaţii. În cazul dependenţei liniare a familiei S, vom nota dep(S); în caz


contrar, ind(S).
ud

Observaţii. 1. Mulţimea S din definiţie poate fi o mulţime finită sau infinită.


2. Deşi liniar dependenţa şi liniar independenţa sunt proprietăţi specifice unei
St

familii de vectori, vom spune despre vectorii familiei că sunt vectori liniar
dependenţi, respectiv vectori liniar independenţi.

Exemple. 1. Mulţimea S = {v}, pentru v ∈V \ {0}arbitrar fixat, este finită,


liniar independentă.
2. Mulţimea S = {λv λ ∈ K } , pentru v ∈V \ {0} arbitrar fixat, este infinită,
liniar dependentă.
3. Mulţimea S = {0} este finită, liniar dependentă, căci are loc relaţia 1 ⋅ 0 = 0 ,
(relaţie de dependenţă în care intervine coeficientul nenul 1).
4. Dacă 0 ∈ S , atunci mulţimea S este liniar dependentă.
5. Dacă în S există un vector care se poate exprima ca un multiplu scalar al
unui alt vector, atunci S este liniar dependentă.
6. Fie S = {v1 , v 2 , v3 } ⊂ C ∞ (R ) , unde
v1 (t ) = et , v2 (t ) = ch t ≡ (et + e-t )/ 2, v3 (t ) = sh t ≡ (et -e-t ) / 2 .
Algebră liniară 9
Deoarece 1 ⋅ e t − 1 ⋅ ch t − 1 ⋅ sh t = 0 , mulţimea {v1 , v2 , v3} este liniar dependentă.
7. Mulţimea S = { X 1 , X 3 , X 5 ,..., X 2 k +1 ,K} ⊂ R[ X ] este infinită, linear
independentă.

3.2. Teoremă. Fie L(S) acoperirea liniară a o mulţimii liniar


independente S = {v1 , v2 ,..., v p } ⊂ V , p ∈ N . Atunci orice familie de p + 1 vectori din
L(S) este liniar dependentă.

Demonstraţie. Fie p+1 vectori arbitrari din L(S), a căror descompunere după baza
{v1 ,Kvn } este
p
wi = ∑ aij v j , i = 1, p + 1.
j =1

Considerăm relaţia
k1w1 + k 2 w2 +...+ k p+1w p+1 = 0 .

py
Înlocuind expresiile vectorilor w1 , w2 ,...w p +1 relativ la vectorii din S, în relaţie, avem
p +1
 p  p
 p +1 

i =1
k i  ∑ ij j 

 j =1
a v 

= 0 ⇔ ∑
Co
 ∑ k i aij  v j = 0 ;
j =1  i =1 
Dar vectorii v j , j = 1, p fiind liniar independenţi, rezultă anularea tuturor
EB
coeficienţilor combinaţiei liniare nule, deci rezultă relaţiile
k1a1 j + k2 a2 j + ... + k p +1a p +1 j = 0, j = 1, p .
tW

Acestea formează un sistem liniar omogen cu p ecuaţii şi p + 1 necunoscute, deci


admite şi soluţii nebanale k1 , k 2 ,..., k p+1 ∈ K . , care înlocuite în relaţia iniţială, o
transformă într-o relaţie de dependenţă liniară, şi deci vectorii wi , i = 1, p + 1 sunt
en

liniar dependenţi. ‰
ud

#4. Bază şi dimensiune


St

4.1. Definiţii. Fie V un K-spaţiu vectorial, K ∈ {R, C} .


a) O submulţime de vectori B ⊂ V se numeşte bază pentru V dacă B este liniar
independentă şi generează pe V - deci, pe scurt, B satisface condiţiile ind(B) şi
L(B)=V.
b) Spaţiul vectorial V se numeşte finit dimensional dacă admite o bază finită sau
dacă V = {0}. În caz contrar, V se numeşte infinit dimensional.

Observaţie. Utilizând axioma alegerii [RAD_1] se poate demonstra că orice


spaţiu vectorial diferit de spaţiul vectorial nul {0} admite o bază.

4.2. Teoremă. Fie V un spaţiu vectorial finit dimensional. Oricare două baze
B, B ′ ale lui V au acelaşi număr de elemente.

10 Cap.I. Spaţii vectoriale


Demonstraţie. Fie n numărul de vectori din B şi n ′ numărul de vectori din B ′ . Dar B
este liniar independentă şi generează spaţiul V = L(B ′) . Dacă B ar avea mai multe
elemente decât B ′ n > n′ , ar rezulta conform teoremei 3.2, linear dependenţa familiei
B, contradicţie, deoarece B este o bază; în concluzie n ≤ n′ .
Un raţionament similar aplicat mulţimii liniar independente B ′ ⊂ V = L(B ) conduce
la n ′ ≤ n ; deci n = n′. ‰

Definiţii. a) se numeşte dimensiunea spaţiului vectorial finit-dimensional V ,


numărul
 n − dacă V admite o bază formată din n vectori (deci V ≠ {0}) ,
dim V = 
 0 − dacă V = {0}.
b) Un spaţiu vectorial de dimensiune n finită spunem că este n-dimensional şi îl
notăm cu Vn .

py
Exemple. 1. Fie K n spaţiul vectorial aritmetic n-dimensional. Vectorii
e1 = (1,0,0,...,0), e2 = (0,1,0,...,0),..., en = (0,0,...,0,1) ∈ K n

independentă, deoarece Co
determină o bază B = {e1 , e2 ,..., en } a spaţiului K n . Într-adevăr, B este liniar

k1e1 + k 2e2 + ... + k n en = 0 ⇔ (k1 , k 2 ,..., k n ) = (0,0,...,0) ,


EB
de unde rezultă k1 = k 2 = ... = k n = 0 . Pe de altă parte ∀ x = ( x1 , x2 ,..., xn ) ∈ K n , avem
x = x1e1 + x2 e2 +...+ xn en ∈ L( B ) ,
tW

deci K ⊂ L(B) ; incluziunea inversă este banală, deci B generează pe V = K n .


n

2. Spaţiul vectorial K n [ X ] = { p ∈ K [ X ] grad p ≤ n} al tuturor polinoamelor


de grad cel mult (inclusiv) n, are dimensiunea n + 1. Într-adevăr, observăm că familia
en

de polinoame B = {1 ≡ X 0 , X 1 , X 2 ,..., X n } este liniar independentă, deoarece


k 0 + k1 X + k 2 X 2 +...+ k n X n = 0 ⇒ k 0 = k1 = k 2 =... = k n = 0
ud

şi orice polinom de grad mai mic sau egal cu n este o combinaţie liniară finită de
monoamele mulţimii B.
St

3. Spaţiul vectorial K[ X ] al tuturor polinoamelor în nedeterminata X este


infinit dimensional şi admite baza {1, X , X 2 ,..., X n ,...} .
4. Spaţiul vectorial M m× n (K ) al matricelor dreptunghiulare cu m linii şi n
coloane şi coeficienţi în corpul K are dimensiunea mn, admiţând baza
B = {Eij ,1 ≤ i ≤ m, 1 ≤ j ≤ n},
E ij fiind matricea care are coeficientul 1 la intersecţia liniei i cu coloana j, iar
ceilalţi coeficienţi sunt nuli.
5. Dacă V este un C-spaţiu vectorial, atunci spaţiul vectorial real RV care
coincide cu V ca grup aditiv şi cu înmulţirea cu numere reale definită exact ca în V ,
se numeşte trecerea în real a spaţiului V . În particular, trecând în real spaţiul
vectorial complex n-dimensional V = C n , se obţine R-spaţiul vectorial R C n ≡ R 2 n ,
de dimensiune 2n. O bază a acestuia este {e1 , e2 ,..., en , ie1 , ie2 ,..., ien }⊂ R C n , obţinută
prin trecerea în real a bazei {e1 , e2 ,..., en } ⊂ C n .
Algebră liniară 11
4.3. Teoremă. Fie Vn un spaţiu vectorial n-dimensional. Atunci au loc
afirmaţiile:
1) O mulţime liniar independentă din Vn este o submulţime a unei baze din Vn .
2) Fie S = {v1 , v 2 ,..., v n } ⊂ Vn o mulţime formată din n vectori din Vn .
Atunci următoarele afirmaţii sunt echivalente:
(i) S este bază în Vn ;
(ii) S este familie liniar independentă (ind(S));
(iii) S este sistem de generatori pentru Vn (L(S)= Vn ).

Demonstraţie. 1) Dată fiind o mulţime liniar independentă S = {v1 , v 2 ,..., v p } din Vn ,


avem următoarele situaţii: fie L(S) = Vn şi deci S este o bază, fie L(S) este o
submulţime proprie a lui Vn . În al doilea caz există măcar un vector v ∈ Vn \ L(S ) , şi
atunci S ' = S ∪ {v} este linear independentă (temă, verificaţi). Dacă L( S ′) = Vn , atunci
S ′ este o bază ce conţine pe S (deci baza căutată), iar dacă L( S ′) este o submulţime

py
proprie a lui Vn , atunci se reia acelaşi raţionament pentru S:=S'. După un număr finit
de paşi (căci numărul de vectori dintr-o familie linear independentă nu poate fi mai

Co
mare decât n), obţinem o bază B ⊂ Vn ce conţine familia S. În concluzie, orice
familie linear independentă S poate fi prelungită sau completată până la o bază a
spaţiului vectorial Vn .
EB
2) Implicaţiile (i) ⇒ (ii), (i) ⇒ (iii) sunt evidente. Demonstrăm implicaţia (ii) ⇒ (i).
Avem ind(S) ⇒ S bază în L(S) ⇒ dim L(S) = n = dim Vn . Dar L( S ) ⊆ Vn , deci L(S)
tW

= Vn ; rezultă S bază în Vn .
Demonstrăm implicaţia (iii) ⇒ (i). Fie L(S) = Vn ; dacă avem prin absurd dep(S),
atunci ar rezulta că orice bază a spaţiului L(S) are < n vectori, deci n = dim Vn = dim
en

L(S) < n, contradicţie. ‰


ud

Exemplu. Familia de vectori S = {v1 = (1,1), v2 = (1,−1)} ⊂ R 2 este liniar


independentă. Cum S are 2 vectori, iar dim R 2 = 2 , rezultă conform teoremei că S
St

este bază în R 2 .

4.4. Teoremă. Fie Vn un spaţiu vectorial n-dimensional şi fie


B = {e1 , e2 ,..., en } o bază în acest spaţiu. Atunci orice vector x ∈ Vn admite o
exprimare unică de forma
n
x = ∑ xi ei , xi ∈ K, i = 1,n (*)
i =1

(numită descompunerea lui x după vectorii bazei B).

Demonstraţie. Deoarece V = L(B), orice vector x ∈ V poate fi scris ca o combinaţie


n
liniară de vectorii bazei, adică x = ∑ xi ei , iar această descompunere este unică.
i =1

12 Cap.I. Spaţii vectoriale


n
Într-adevăr, dacă vectorul x ar admite şi descompunerea x = ∑ xi′ei , atunci prin
i =1
n
scădere ar rezulta combinaţia lineară nulă 0 = ∑ (xi − xi′ )ei . Dar B fiind bază, este
i =1

formată din vectori linear independenţi, deci rezultă anularea coeficienţilor


combinaţiei,
xi − xi′ = 0, i = 1, n ⇒ xi = xi′, i = 1, n ,
deci descompunerea este unică. ‰

Definiţie. a) Se numesc coordonatele vectorului x în raport cu baza B ,


numerele x1 ,K , x n , asociate vectorului x ∈ Vn prin descompunerea (*).
b) Se numeşte sistem de coordonate pe Vn asociat bazei B, bijecţia

f : Vn → K n , f ( x) = ( x1 , x 2 ,..., x n ) ∈ K n .

py
În cele ce urmează vom identifica un vector cu coordonatele sale relativ la o

Co
bază fixată. Atunci, pentru x ≡ ( x1 , x 2 ,..., x n ), y ≡ ( y1 , y 2 ,..., y n ) ∈ Vn ≡ K n , operaţiile
spaţiului vectorial se rescriu pe componente
EB
 x + y ≡ ( x1 + y1 , x2 + y2 ,..., xn + yn )

kx ≡ (kx1 , kx2 ,..., knn ), ∀k ∈ K.
tW

Exemplu. Aflăm coordonatele vectorului v = (1,0) ∈ R 2 relativ la baza


S = {v1 = (1,1), v2 = (1,−1)} ⊂ R 2
en

din exemplul precedent. Relaţia v = α v1 + β v2 conduce la α = β = 1 / 2 , deci


coordonatele vectorului v relativ la baza S sunt (1 / 2; 1 / 2) .
ud

În ceea ce priveşte posibilitatea de a completa o familie de vectori liniar


St

independenţi la un sistem de generatori folosind un sistem prescris de generatori,


avem următoarea

Teoremă (teorema înlocuirii, Steinitz).

Fie Vn un K-spaţiu vectorial,


S = {v1 ,..., vn } ⊂ Vn
un sistem de generatori ai spaţiului Vn , şi fie
S0 = {w1 ,..., wr } ⊂ Vn , (r ≥ 0)
un sistem de vectori liniar independenţi.
Atunci are loc inegalitatea r ≤ n şi există familia de vectori S + ⊂ S care
conţine n − r vectori astfel încât S 0 ∪ S + să fie sistem de generatori pentru Vn .

Algebră liniară 13
Se observă ca în urma teoremei 3.2, avem cu necesitate m ≥ n .

Un rezultat deosebit de util ([POP]) în cazul unui spaţiu vectorial de


dimensiune arbitrară, care face posibilă completarea la o bază a unei familii liniar
independente, folosind vectorii unei baze cunoscute, este

Teorema completării. Dacă S0 ⊂ V este un sistem liniar independent în K-


spaţiul vectorial V , atunci S0 se poate completa la o bază a lui V .

Corolar. Fie S = B = {e1 ,..., en } ⊂ Vn o bază în K-spaţiul vectorial Vn , şi fie


S 0 = {w1 ,..., wr } ⊂ Vn , (r ≥ 0)
un sistem liniar independent de vectori din Vn . Atunci r ≤ n şi S0 se poate completa
cu n − r vectori ai unei subfamilii S + ⊂ B la o altă bază B′ = S0 ∪ S + a spaţiului Vn .

py
Exemplu. Completaţi familia de vectori
S 0 = {w1 = (1,1,1,1), w2 = (1,−1,1,−1)}
la o bază a spaţiului vectorial V = R 4 . Co
EB
Soluţie. Famlia S0 este liniar independentă (temă, verificaţi). Considerăm
baza canonică
S = B = { e1 = (1,0,0,0), e2 = (0,1,0,0), e3 = (0,0,1,0), e4 = (0,0,0,1)} ⊂ R 4 ,
tW

şi observăm că din cele A42 = 4 ⋅ 3 = 12 selecţii ordonate de 2 vectori din B putem


alege, spre exemplu, vectorii S + = {e1 , e3} , iar vectorii familiei
B′ = S0 ∪ S + = {w1 , e1 , w2 , e3}
en

sunt liniar independenţi, şi sunt în număr de 4 în spaţiul R 4 (a cărui dimensiune este


tot 4), deci conform teoremei 4.3 rezultă că B′ este o bază. În plus, prin construcţie,
ud

baza B′ conţine familia S0 şi vectori din familia S.


St

4.5. Teoremă (Grassmann).


Dacă U şi W sunt două subspaţii de dimensiuni finite ale spaţiului vectorial
V, atunci are loc relaţia

dim U + dim W = dim(U ∩ W ) + dim(U + W ) .

Corolar. Dacă U şi W sunt două subspaţii suplementare de dimensiuni finite


ale spaţiului vectorial V, atunci are loc relaţia

dim U + dim W = dimV .

14 Cap.I. Spaţii vectoriale


Matricea asociată unei familii de vectori relativ la o bază dată.
Fie Vn un K-spaţiu vectorial şi B = {e1 , e2 ,..., en } o bază în Vn . Considerând
un sistem de p vectori v1 , v 2 ,..., v p ∈ Vn , atunci aceştia se descompun relativ la baza
B, după cum urmează
n n n
v1 = ∑ ai1ei , v2 = ∑ ai 2 ei ,..., v p = ∑ aip ei .
i =1 i =1 i =1
Vectorilor v1 , v 2 ,..., v p li se ataşează matricea formată din coeficienţii celor p
descompuneri, aşezaţi succesiv pe coloane:
 a11 a12 K a1 p 
 
 a21 a22 K a2 p 
A= ,
M M O M 
 
a 
 n1 an 2 K anp 
numită matricea asociată familiei de vectori S relativ la o baza B. Vectorii
v1 , v2 ,..., v p pot fi identificaţi cu coloanele matricei A şi notăm această matrice cu

py
A = [ S ]B = [v1 , v2 ,..., v p ]B .

Co
4.6. Teoremă. Fie B = {e1 , e2 ,..., en } o bază a lui Vn , S = {v1 , v 2 ,..., v p } o
EB
familie de p vectori din Vn şi A = [ S ] B matricea asociată acestei familii.
Fie rang A = m ≤ min( p, n) , şi fie 1 ≤ i1 < i2 < ... < im ≤ p indicii coloanelor unui
minor care dă rangul matricii A. Atunci au loc următoarele afirmaţii:
tW

(i) familia de vectori S ' = {vi1 ,..., vim } este bază a subspaţiului L(S) (deci avem
ind ( S ') şi L( S ) = L( S ') ); în particular, rang A = dim L( S ) .
(ii) v j ∈ L( S ' ) , pentru orice j ∈ 1, p \ {i1 , i2 ,..., im }, .
en
ud

Exemplu. Pentru subspaţiile date în exemplul 3 al teoremei 2.5., dimensiunea


subspaţiului U + W coincide cu rangul matricei
St

1 − 2 3 1 − 1 2
[ w1 , w2 , w3 , u1 , u2 , u3 ] =  ,
 5 − 10 15 4 2 0 
deci dim(U + W ) = 2 . Un vector oarecare din subspaţiul U ∩W este de forma
(6λ − 8µ, 30λ − 40µ) = (6λ − 8µ)v ', λ, µ ∈ R, v '= (1,5),
astfel încât (dim U ∩V ) = 1. Se observă că avem relaţiile
W = U ∩ W ⊂ U = U + W = R2 .
Întrucât dim W = 1, dim U = 2 , teorema Grassmann se verifică, având loc egalitatea

dim U + dim W = 2 + 1 = 1 + 2 = dim(U ∩ W ) + dim(U + W ) .

Corolar. Fie B = {e1 , e2 ,..., en } o bază a lui Vn şi fie


n
S = { e′j = ∑ cij ei , j = 1, n }
i =1

o familie de n vectori din Vn . Atunci următoarele afirmaţii sunt echivalente:


Algebră liniară 15
(i) S este bază a lui Vn ;
(ii) det(cij ) ≠ 0 .
Rezultă că o familie S ⊂ Vn reprezintă o bază a spaţiului Vn dacă matricea
[ S ]B = (cij ) a familiei S relativ la o bază B oarecare a spaţiului este pătratică şi
nesingulară.

Exemplu. Vectorii B ′ = {u = (1,1), v = (1,−1)} determină o bază a spaţiului


vectorial V2 = R 2 = L(B), B = {e1 = (1,0), e2 = (0,1)} , deoarece
1 1
det [u , v] ≡ = −2 ≠ 0 .
1 −1

4.7. Schimbarea bazei într-un spaţiu vectorial Vn .


Fie B = {e1 , e2 ,..., en } şi B ′ = {e1′ , e2′ ,..., en′ } două baze distincte în spaţiul

py
vectorial Vn . Atunci vectorii bazei B ′ se pot exprima relativ la baza B prin relaţiile:
n
e′j = ∑ cij ei , j = 1, n .
i =1
Co
Fie ( x1 ,..., xn ) respectiv ( x '1 ,..., x 'n ) coordonatele unui vector arbitrar x ∈ Vn
EB
n
în raport cu baza B respectiv B ′ , deci au loc descompunerile x = ∑ xi ei respectiv
i =1
n
x = ∑ x′j e′j . Folosind relaţiile existente între vectorii celor două baze, obţinem
tW

j =1
n
n  nn 
x = ∑ x′j  ∑ cij ei  = ∑ ∑ cij x′j ei .
j =1  i =1  i =1  j =1 
en

Din unicitatea descompunerii vectorului x în raport cu baza B, prin identificarea


coeficienţilor, rezultă relaţiile
ud

n
xi = ∑ cij x′j , i = 1,n . (*)
j =1
St

Notând coordonatele vectorului x relativ la cele două baze respectiv prin


X = t ( x1 , x2 ,..., xn ) , X ′ = t ( x1′ , x2′ ,..., xn′ ) relaţiile (*) se scriu condensat sub formă
matriceală
X = CX ′ . (**)

Definiţii. a) Matricea pătratică C = [B ′] B = (cij ) i , j =1,n , ale cărei coloane


sunt coordonatele vectorilor bazei B ′ în raport cu baza B, se numeşte matricea de
trecere de la baza B la baza B ′ .
b) Relaţiile (*) descriu transformarea coordonatelor vectorului x la o
schimbarea bazei B în baza B ′ .

Exemple. 1. Să se determine coeficienţii polinomului p = 1 − t 2 ∈ R 2 [t ]


relativ la baza B′ = {t ,1 + t 2 ,−1} .

16 Cap.I. Spaţii vectoriale


Soluţie. Coeficienţii polinomului p relativ la baza naturală B = {1, t , t 2 } a
spaţiului vectorial R 2 [t ] sunt daţi de vectorul coloană X =t (1,0,−1) . De asemenea,
matricea coeficienţilor vectorilor noii baze B' relativ la baza B este (temă, verificaţi),
 0 1 − 1
 
C = [B' ]B =  1 0 0  .
0 1 0 
 
Coordonatele lui p relativ la B' formează vectorul X ′ ce satisface relaţia (**)
X = CX ′ , deci prin calcul direct rezultă coeficienţii X ′ = t (0,−1,−2) , adică p admite
relativ la B' descompunerea:
p = 0 ⋅ t + (−1) ⋅ (1 + t 2 ) + (−2) ⋅ (−1) .
2.. Aflaţi coordonatele vectorului v = t (−1,2) ∈ R 2 relativ la baza
B′ = {v1 = (1,2), v2 = (3,−4)} .
Soluţie. Matricea de trecere de la baza canonică B = {e1 = (1,0), e2 = (0,1)} a
1 3 

py
spaţiului vectorial R 2 la baza B′ este C =   , iar coordonatele X' ale
 2 − 4

Co
vectorului v = (−1,2) relativ la baza B ′ sunt X ' = C −1 X = t (1 / 5;−2 / 5) , unde X = v .
Altfel, relaţia v = α v1 + β v2 conduce la coeficienţii α = 1 / 5, β = −2 / 5 ai vectorului v
relativ la baza B ′ .
EB

4.8. Spaţii vectoriale izomorfe.


tW

Definiţii. a) Fie V şi W două K -spaţii vectoriale. Se numeşte transformare


liniară de la V la W , o aplicaţie T :V → W care satisface condiţiile
 T ( x + y ) = T ( x) + T ( y ), ∀x, y ∈ V

 T (kx) = kT ( x), ∀x ∈ V , ∀k ∈ K
en

b) O transformare liniară bijectivă se numeşte izomorfism.


ud

Exemplu. Un sistem de coordonate pe Vn reprezintă un izomorfism canonic


St

între Vn şi K n .

Teoremă. Două K-spaţii vectoriale de dimensiuni finite V şi W sunt izomorfe


dacă şi numai dacă dimensiunile lor coincid.

Demonstraţie. "⇒". Fie V = Vn şi W = Wm sunt izomorfe, deci există o


transformare liniară bijectivă T :Vn → W m . Avem
T (0) = T (0 + 0) = 2T (0) ⇒ T (0) = 0 .
Fie B = {e1 , e2 ,..., en }o bază a lui Vn . Mulţimea
T (B) = {T (e1 ), T (e2 ),..., T (en )}⊂ Wm
este liniar independentă, deoarece:
k1T (e1 )+k 2T (e2 )+ ... +k nT (en ) = 0 ⇒ T (k1e1 + k 2 e2 + ... +k n en ) = T (0) ;
dar T injectivă şi B bază, deci rezultă
k1e1 + k 2 e2 +...+ k n en = 0 ⇒ k1 = k 2 =... = kn = 0 .
Algebră liniară 17
Pe de altă parte, T (B) generează Wm , căci T fiind surjectivă, avem că pentru orice
n
w ∈ Wm , există o combinaţie liniară v = ∑ vi ei ∈ Vn astfel încâtT (v) = w , şi deci
i =1
n
w = ∑ vi T (ei ) ∈ T (B) . În concluzie n = dim T (B) = dim Wm = m.
i =1

"⇐" . Fie V = Vn şi W = Wn . Sistemele de coordonate f :Vn → K n şi g:Wn → K n ,


asociate unor baze arbitrar fixate în Vn , respectiv Wm , produc izomorfismul
T = g −1 o f : Vn → W n ,
deci cele două spaţii vectoriale sunt izomorfe. ‰

Exemplu. Spaţiile vectoriale M 2 x 3 (R ) , R 5 [ X ] şi R 6 sunt izomorfe, având


toate dimensiunea 6.

#5. Spaţii vectoriale euclidiene

py
În cele ce urmează, vom adăuga la structura de spaţiu vectorial o nouă operaţie

◊ lungimea unui vector,


Co
cu vectori - cea de produs scalar, cu ajutorul căreia vom puta defini:
EB
◊ unghiul format de doi vectori, ortogonalitatea a doi vectori,
◊ proiecţia unui vector pe un alt vector sau pe un subspaţiu vectorial, etc.
tW

5.1. Definiţii. a) Fie V un C-spaţiu vectorial. Se numeşte produs scalar


(complex), sau încă, produs scalar hermitic pe V, o funcţie < ⋅,⋅ > :V × V → C care,
pentru ∀u , v, w ∈ V , ∀k ∈ C , are proprietăţile
en

♦ < v, w >= < w, v > (hermiticitate)


♦ < u , v + w >=< u , v > + < u , w > (aditivitate/distributivitate)
ud

♦ k < v, w >=< kv, w > (omog. în primul argument)


♦ < v, v > ≥ 0; < v, v >= 0 ⇔ v = 0 . (pozitivitate)
St

b) Un spaţiu vectorial complex pe care s-a definit un produs scalar se numeşte


spaţiu vectorial euclidian complex.

Observaţie Din aceste proprietăţi decurg relaţiile


♦ < v, kw >= k < v, w > ,
♦ < u + v, w >=< u , w > + < v, w > ,
♦ < v, v >∈ R ,
♦ < 0,0 >=< 0, u >=< u,0 >= 0 , ∀ u,v,w ∈ V , ∀k ∈ C ,
deci un produs scalar hermitic nu este în general omogen în al doilea argument, şi este
aditiv în ambele argumente.

18 Cap.I. Spaţii vectoriale


Teoremă. În orice spaţiu euclidian complex V este satisfăcută inegalitatea
Cauchy-Schwarz
2
< v, w > ≤ < v, v > ⋅ < w, w >, ∀v, w ∈ V ;
relaţia devine egalitate dacă şi numai dacă v şi w sunt liniar dependenţi.

Demonstraţie. Dacă v = 0 sau w = 0 , relaţia este evidentă. Fie deci v, w ∈ V \ {0} şi


fie α ∈ C un scalar arbitrar. Folosind pozitivitatea produsului scalar, avem
0 ≤< v − αw, v − αw >=: E (α ) ,
< v, w >
şi E (α ) = 0 ⇔ v = αw . Pentru α = obţinem deci
< w, w >
2
< v, w >
E (α ) =< v, v > − ≥ 0,
< w, w >
2
de unde rezultă inegalitatea. De asemenea, < v, w > =< v, v >< w, w > ⇔ E (α) = 0 ,

py
cu α fixat ca mai sus, deci avem v = αw, α =< v, w > / < w, w > ; reciproc, dacă
2 2 2
v = αw , avem < v, v >< w, w >= α < v, v > 2 = < v, αv > = < v, w > . ‰

Co
5.2. Vom considera în continuare cazul când V este un spaţiu vectorial real.
EB
Definiţii. a) Fie V un spaţiu vectorial real. Se numeşte produs scalar (real) pe
V, o funcţie
tW

< ⋅,⋅ >:V × V → R


care pentru ∀u, v, w ∈ V ,∀k ∈ R , are proprietăţile
♦ < v, w >=< w, v > (simetrie)
♦ < u , v + w >=< u , v > + < u , w >
en

(aditivitate/distributivitate)
♦ k < v, w >=< kv, w > (omog. în primul argument)
ud

♦ < v, v > ≥ 0; < v, v >= 0 ⇔ v = 0 . (pozitivitate)


b) Un spaţiu vectorial real pe care s-a definit un produs scalar se numeşte
St

spaţiu vectorial euclidian real.

Observaţie. Din aceste proprietăţi decurg relaţiile (temă, verificaţi):


♦ < v, kw >= k < v, w >
♦ < u + v, w >=< u, w > + < v, w >
♦ < 0,0 >=< 0, u >=< u,0 >= 0 , ∀u , v, w ∈ V, ∀k ∈ R ,
deci un produs scalar real este omogen şi aditiv în ambele argumente.

Teoremă. În orice spaţiu euclidian real V este satisfăcută inegalitatea


Cauchy-Schwarz
< v, w > 2 ≤ < v, v >< w, w >, ∀v, w ∈ V .
Relaţia devine egalitate dacă şi numai dacă v şi w sunt liniar dependenţi.

Algebră liniară 19
Exemple de spaţii vectoriale euclidiene.
1. Funcţia cu valori reale definită pe spaţiul vectorial V = R n prin
< x, y >= x1 y1 + x 2 y 2 + ... + x n y n , ∀x = ( x1 , x 2 ,..., x n ), y = ( y1 , y 2 ,..., y n ) ∈ R n
este un produs scalar pe R n , determinând o structură de spaţiu euclidian real pe R n .
2. Spaţiul vectorial complex V = C n este un spaţiu vectorial euclidian
complex în raport cu produsul scalar
< x, y >= x1 y 1 + x 2 y 2 + ... + x n y n , ∀x = ( x1 , x 2 ,..., x n ), y = ( y1 , y 2 ,..., y n ) ∈ C n
3. Spaţiul euclidian real V = C 0 [a , b] al tuturor funcţiilor cu valori reale,
b
continue pe un interval [a , b], cu produsul scalar dat de < f , g >= ∫ f ( x) g ( x)dx.
a
0
4. Spaţiul euclidian complex V = C ([a, b], C) al tuturor funcţiilor cu valori
complexe, continue pe un interval [a , b], cu produsul scalar dat de
b
< f , g >= ∫ a
f ( x) g ( x) dx.
5. Spaţiul euclidian real V al şirurilor reale x = {x1 ,..., xn ,...} ⊂ R cu

py

proprietatea că ∑ xi2 este serie convergentă, cu produsul scalar
i =1

< x, y > = ∑ xi yi , ∀x, y ∈ V .
i =1
Co
EB
6. Spaţiul euclidian complex V al şirurilor complexe x = {x1 ,..., xn ,...} ⊂ C

∑ xi
2
cu proprietatea că este serie convergentă, cu produsul scalar
tW

i =1

< x, y >= ∑ xi y i , ∀x, y ∈ V .
i =1

7. Spaţiul euclidian real V al matricilor pătratice M n× n (R ) , cu produsul


en

scalar
< A, B >= Tr ( At B), ∀A, B ∈ M n× n (R ) ,
ud

unde am notat prin Tr (C ) urma unei matrici pătratice C:


Tr (C ) = c11 + c22 + K + cnn , ∀C = (cij )i , j =1, n ∈ M n× n (R ) .
St

5.4. Definiţie. Fie V un K-spaţiu vectorial euclidian. Se numeşte normă pe V,


o aplicaţie : V → R + care satisface relaţiile
v ≥ 0, ∀v ∈ V şi v = 0 ⇔ v = 0 (pozitivitate)
kv = k v , ∀v ∈ V , ∀k ∈ K (omogenitate)
v + w ≤ v + w , ∀v , w ∈ V (inegalitatea triunghiului).
Inegalitatea triunghiului devine egalitate doar v şi w sunt coliniari şi de acelaşi sens.

Teoremă. Fie V un K-spaţiu vectorial euclidian. Funcţia : V → R+ ,


definită prin
v = < v, v > , ∀v ∈ V

20 Cap.I. Spaţii vectoriale


este o normă pe V.
Norma definită în teoremă se numeşte norma euclidiană. Astfel, orice spaţiu
vectorial euclidian este în particular spaţiu vectorial normat.

Demonstraţie. Presupunem că V este un spaţiu vectorial complex. Inegalitatea


(v , v ) ≥ 0 implică v ≥ 0 , cu egalitate dacă şi numai dacă v este vectorul nul. Avem,
de asemenea, pentru ∀v ∈ V , ∀k ∈ C :
2
kv = < kv, kv > = k k < v, v > = k < v, v > = k < v , v > = k v .
Inegalitatea triunghiului se demonstrează astfel:
2
v + w =< v + w, v + w >=< v, v > + < v, w > + < v, w > + < w, w > ≤
2 2
≤ v +2v w + w = ( v + w ) 2 , ∀v, w ∈ V .
unde am ţinut seama de inegalitatea Cauchy-Schwarz (v , w) ≤ v w , şi de
inegalitatea < v, w > +< v, w > = 2 Re < v, w >≤ 2 < v, w > , ∀v, w ∈ V . ‰

py
Exemplu. Norma euclidiană canonică a spaţiului R 3 este dată de
v = < v, v > = Co
x 2 + y 2 + z 2 , ∀v = ( x, y, z ) ∈ V .
EB
Definiţii. a) Un spaţiu vectorial normat în care norma provine dintr-un produs
scalar se numeşte spaţiu prehilbertian.
b) Un spaţiu prehilbertian complet (în sensul că orice şir Cauchy de elemente
tW

din spaţiu este un şir convergent) se numeşte spaţiu Hilbert.

Observaţii. 1. Primele două proprietăţi ale normei asigură că orice element v


en

1
din V\{0} poate fi scris în forma v = v e, unde e = v are proprietatea e = 1 şi se
v
ud

numeşte versorul asociat vectorului nenul v. În general, un vector e cu proprietatea


e = 1 se numeşte versor.
St

2. Fie V un spaţiu vectorial euclidian real. Pentru v , w ∈ V \ {0}, inegalitatea


Cauchy-Schwarz, < v, w > ≤ v w , se poate rescrie sub forma
< v, w >
−1 ≤ ≤ 1,
v w
dublă inegalitate care justifică următoarea definiţie a unghiului format de doi vectori.

Definiţie. Fie V un spaţiu vectorial euclidian real, şi v , w doi vectori nenuli


din V. Se numeşte unghiul dintre vectorii v şi w, numărul θ ∈ [0, π ] definit de
egalitatea
< v, w >
cos θ = .
v w

Se observă că în definiţie este esenţial să avem K = R .


Algebră liniară 21
5.5. Definiţie. Fie M o mulţime. Se numeşte distanţă (metrică) pe M, o
aplicaţie d (⋅,⋅): M × M → R + , care pentru ∀u, v, w ∈ M satisface relaţiile
d (u , v) ≥ 0; d (u , v) = 0 ⇔ u = v (pozitivitate)
d (u , v) = d (v, u ) (simetrie)
d (u , v) ≤ d (u, w) + d ( w, v) (inegalitatea triunghiului)
În acest caz spunem că mulţimea M are o structură de spaţiu metric.

Teoremă. Fie V un spaţiu vectorial normat. Atunci funcţia reală


d (⋅,⋅):V × V → R + definită prin
d (u , v) = u − v , ∀u , v ∈ V
este o distanţă pe V.
Deci orice spaţiu vectorial normat este un spaţiu metric.Dacă norma este
normă euclidiană, atunci distanţa definită cu ajutorul ei se numeşte distanţă
euclidiană.

py
Exemplu. Fie P2 spaţiul euclidian real al funcţiilor polinomiale reale de grad

Co
cel mult doi înzestrat cu produsul scalar <⋅,⋅>: P2 × P2 → R ,
< p, q >= a0b0 + 2a1b1 + 2a2b2 , ∀p, q ∈ P2 ,
pentru p( x) = a0 + a1 x + a2 x 2 , q( x) = b0 + b1 x + b2 x 2 . Fie vectorii
EB
p1 ( x) = 3 + x 2 , p 2 ( x) = 1 − x, p3 ( x) = 1 + x − x 2 , p 4 ( x) = 2 x 2 ∈ P2 .
Aflaţi un vector p0 echidistant faţă de cei patru vectori şi calculaţi distanţă comună.
tW

Soluţie. Fie p0 ( x ) = a + bx + cx 2 ; aflăm coeficienţii a , b, c din condiţia ca


distanţele de la acest polinom la celelalte patru, să coincidă,
p1 − p0 = p2 − p0 = p3 − p0 = p4 − p0 ;
en

obţinem (temă, verificaţi)


a = 15 / 26, b = 14 / 26, c = 23 / 26 ,
ud

deci p0 = (15 + 14 x + 23 x ) / 26 . Distanţa cerută este prin urmare


2

2 2 2
St

 15   14   29  1262
d = p3 − p0 = < p3 − p0 , p3 − p0 > =  −  + −  +  = .
 26   26   26  26

#6. Ortogonalitate. Procedeul de ortogonalizare Gram-Schmidt

6.1. Definiţii. Fie V un spaţiu vectorial euclidian.


a) Doi vectori din V se numesc ortogonali dacă produsul lor scalar este nul.
b) O submulţime S ⊂ V se numeşte ortogonală dacă vectorii săi sunt
ortogonali doi câte doi, adică < v, w >= 0, ∀v, w ∈ S , v ≠ w .
c) O mulţime ortogonală se numeşte ortonormată dacă fiecare element al său
are norma egală cu unitatea.

22 Cap.I. Spaţii vectoriale


Teoremă. Fie V un K-spaţiu euclidian şi S o submulţime din V formată din
vectori nenuli. Atunci au loc următoarele afirmaţii:
1) Dacă S este mulţime ortogonală, atunci este liniar independentă.
2) Dacă dim V = n iar S conţine exact n vectori, atunci S este o bază a lui V.

Demonstraţie. 1) Dacă S ⊂V \ {0} este mulţime ortogonală, iar


k1v1 + k 2 v 2 + ... + k p v p = 0 ,
o combinaţie liniară finită nulă de elemente din S. Aplicând acestei egalităţi de vectori
produsul scalar cu v j , rezultă
k1 < v1 , v j > + k 2 < v 2 , v j > +... + k p < v p , v j >= 0, j ∈ 1, p .
S fiind ortogonală, cele p relaţii obţinute devin egalităţile k j < v j , v j >= 0, j ∈ 1, p .
Dar vectorii v j , j ∈ 1, p sunt nenuli, deci
< v j , v j >= v j ≠ 0, j ∈ 1, p ,

py
de unde rezultă k j = 0, j ∈ 1, p , şi deci mulţimea S este liniar independentă.
2) rezultă imediat din prima afirmaţie şi din teorema 4.3. ‰

Co
Observaţie. În spaţiile vectoriale euclidiene este comod să se exprime vectorii
în raport cu baze ortonormate. Faptul că o bază B = {e1 , e2 ,..., en } ⊂ Vn este
EB
ortonormată se poate rescrie
 1, pentru i = j
< ei , e j >= δ ij =  , i , j = 1, n ,
tW

0, pentru i ≠ j
unde simbolul δ ij se numeşte simbolul lui Kronecker.
en

Exemplu. În spaţiul vectorial euclidean real V = C 0 [0, π] al funcţiilor reale,


continue, definite pe intervalul [0, π] înzestrat cu produsul scalar
ud

π
< f , g >= ∫ f ( x) g ( x)dx ,
0
St

considerăm următoarea submulţime de funcţii trigonometrice S = { f 0 , f 1 , f 2 ,...}, cu


S = { f 0 ( x) = 1} ∪ { f 2 n −1 ( x) = cos 2nx, f 2 x ( x) = sin 2nx,n ≥ 1} .
Mulţimea S este ortogonală, căci < f i , f j >= 0,∀i ≠ j , i. j ∈ N (temă, verificaţi).
Deoarece S nu conţine elementul nul al spaţiului C 0 [0, π ] (funcţia identic nulă),
rezultă conform teoremei de mai sus că S este liniar independentă. Însă S nu este
ortonormată, căci normele vectorilor săi sunt diferite de 1, anume:

 π
 f 0 = f 0 , f 0 = ∫0 dx = π ,

 π
 f 2 n −1 = ∫0 cos 2nxdx = π / 2,
2


 π
 f 2 n = ∫0 sin 2nxdx = π / 2 , n ∈ N *
2

Algebră liniară 23
Împărţind fiecare funcţie prin norma sa, obţinem mulţimea ortonormată
{g 0 , g1 , g 2 ,...} de mai jos:
1 2 2
g 0 ( x) = , g 2 n −1 ( x) = cos2nx, g 2 n ( x) = sin 2nx, n ∈ N * .
π π π

6.2. Definiţie. Fie V un spaţiu vectorial euclidian şi un vector w ∈ V \ {0} .


a) Se numeşte proiecţia vectorului v ∈V pe w, vectorul
< v, w >
pr w v = w.
< w, w >
b) Se numeşte mărimea algebrică a proiecţiei lui v ∈V pe w, numărul real
< v, w >
prw v = ,
w
unde norma este cea euclidiană asociată produsului scalar considerat.

py
Teoremă. Fie spaţiul vectorial euclidian V = Vn . Fie B = {e1 , e2 ,..., en } o
n
bază pentru V şi x = ∑ xi ei ∈ V . Au loc următoarele afirmaţii:
i =1

1) Dacă B este bază ortogonală atunci xi =


Co < x, ei >
< ei , ei >
, i = 1, n .
EB
2) Dacă B este bază ortonormată, atunci xi =< x, ei >, i = 1, n .
tW

Demonstraţie. 1) Orice vector x ∈ Vn se descompune relativ la baza B, deci


n
x = ∑ x j e j . Înmulţind scalar această relaţie cu vectorul ei , i = 1, n , obţinem
j =1
en

n
< x, ei >
< x, ei >= ∑ x j < e j , ei >= xi < ei , ei > ⇒ xi = , i = 1, n .
j =1 < ei , ei >
ud

2) Dacă baza {ei }i =1,n este ortonormată, atunci < ei , ei >= 1 ⇒ xi =< x, ei >, i = 1, n . ‰
St

Observaţie. În cazul al doilea din teoremă, orice vector x ∈ Vn admite


n
reprezentarea unică x = ∑ < x, ei > ei . Coordonatele xi =< x, ei >, i = 1, n ale
i =1

vectorului x reprezintă exact mărimile algebrice ale proiecţiilor vectorului x (pe scurt,
proiecţii) pe versorii ei şi se numesc coordonate euclidiene.

6.3. Teoremă. Fie Vn este un spaţiu vectorial euclidian complex şi


B = {e1 , e2 ,..., en } este o bază ortonormată în Vn ; atunci
1) produsul scalar a doi vectori x, y ∈ Vn are expresia
n
< x, y >= ∑ x j y j , unde x j =< x, e j >, y j =< y, e j >, j = 1, n ;
j =1
n 2
= ∑ xj .
2
2) norma satisface relaţia x
j =1

24 Cap.I. Spaţii vectoriale


Demonstraţie. 1) Baza fiind ortonormată, avem < ei , e j >= δ ij ; fie
n n
x = ∑ x j e j , y = ∑ y j e j ∈ Vn .
j =1 j =1

Folosind proprietăţile produsului scalar, obţinem


n n n n n n n
< x, y >= ∑ x j e j ,∑ y k ek = ∑∑ x j y k < e j , ek >=∑∑ x j y k δ jk = ∑ x j y j .
j =1 k =1 j =1 k =1 j =1 k =1 j =1

2) Înlocuind y = x în expresia produsului scalar, rezultă relaţia. ‰

6.4. Definiţii. Fie V un spaţiu vectorial euclidian şi S o submulţime a sa.


a) Un vector din V se numeşte ortogonal lui S dacă este ortogonal pe fiecare
element din S.
b) Mulţimea tuturor vectorilor ortogonali relativ la submulţimea S se numeşte “S
ortogonal” şi se notează cu S ⊥ . Se observă că S ⊥ este un subspaţiu vectorial al lui V,
indiferent dacă S este sau nu un subspaţiu al lui V.

py
c) În cazul când S este un subspaţiu vectorial, subspaţiul vectorial S ⊥ se numeşte
complementul ortogonal al lui S.

Teoremă. Fie V
Co
un spaţiu vectorial euclidian şi W = W n un subspaţiu
EB
vectorial n- dimensional al lui V; atunci:
1) Are loc descompunerea în sumă directă V = W ⊕ W ⊥ .
2) Fie v ∈ V , v = w + w ⊥ ∈ V = W ⊕ W ⊥ . Atunci vectorul v satisface relaţia
tW

(numită şi teorema Pitagora)


2 2 2
v = w + w⊥ .
Vectorul w din descompunerea de mai sus se numeşte proiecţia vectorului v ∈ V
en

pe subspaţiul W al lui V. În cazul când subspaţiul este finit-dimensional, acesta este


dat de suma proiecţiilor sale pe vectorii unei baze ortogonale a subspaţiului.
ud

Demonstraţie. 1) Fie B = {e1 , e2 ,..., en } o bază ortonormată a lui Wn şi fie


St

n
w = ∑ < v, ei > ei
i =1

proiecţia vectorului v ∈V pe subspaţiul Wn . Notând w ⊥ = v − w rezultă


< w ⊥ , w > = < v, w > − < w, w >=
n n n
= v , ∑ < v , ei > ei − ∑ < v, e i > ei ∑ < v , e j > e j =
i =1 i =1 j =1
n n n
= ∑ < v, ei > 2 −∑∑ < v, ei >< v, ei >< ei , e j >=
i =1 i =1 j =1
n n n
= ∑ < v, ei > 2 −∑∑ < v, ei >< v, e j > δ ij = 0
i =1 i =1 j =1

şi deci w ∈W . Exprimarea unică v = w + w⊥ arată că V = W ⊕ W ⊥ .


⊥ ⊥

2) Teorema Pitagora rezultă din următoarele egalităţi:

Algebră liniară 25
2
v =< v, v >=< w + w ⊥ ,w + w ⊥ >=
2 2
=< w, w > +2 < w, w ⊥ > + < w ⊥ , w ⊥ >= w + w ⊥ . ‰

Fie în continuare V un spaţiu vectorial euclidian. Vom arăta că din orice


mulţime liniar independentă de vectori S din V se poate construi o mulţime
ortonormată S ' (mulţime ortogonală ai cărei vectori au norma egală cu 1) care să
genereze L(S). Această mulţime ortonormată rezultă prin normarea vectorilor unei
mulţimi ortogonale S ". Modul de obţinere al mulţimii orogonale S ", cunoscut sub
numele de procedeul de ortogonalizare Gram-Schmidt, este descris în cele ce
urmează.

6.5. Teoremă. Fie V un spaţiu vectorial euclidian de dimensiune n , iar


B = {v1 , v 2 ,..., v n } o bază a lui V. Atunci există o bază B ′ = {e1 , e2 ,..., en } care are

py
următoarele proprietăţi:
a) baza B ′ este ortonormată ;

Co
b) mulţimile {v1 , v 2 ,..., v k } şi {e1 , e2 ,..., ek } generează acelaşi subspaţiu vectorial
Wk = L({v1 , v 2 ,..., v k }) = L({e1 , e2 ,..., ek }) ⊂ V
pentru fiecare k ∈ 1, n.
EB
Demonstraţie. Mai întâi construim o mulţime ortogonală B ′′ = {w1 , w2 ,..., wn } ce
satisface proprietatea b), şi apoi îi normăm elementele. Mulţimea ortogonală
tW

{w1 , w2 ,..., wn } se construieşte din {v1 , v2 ,..., vn } în felul următor:


♦ Se consideră w1 = v1.
♦ Se alege w2 = v 2 + kw1. Vectorul w2 nu este zero deoarece ind(B) ⇒ ind{v1 , v 2 } . Se
en

determină k din condiţia ca w2 să fie ortogonal lui w1 , adică


< v 2 , w1 > < v 2 , w1 >
ud

0 =< w2 , w1 >=< v 2 + kw1 , w1 >⇒ k = − ⇒k =−


< w1 , w1 > < w1 , w1 >
de unde rezultă
St

w2 = v 2 − pr w1 v 2 .
♦ Vectorul w3 este luat de forma w3 = v 3 + k1 w1 + k 2 w2 ; el este nenul deoarece ind(B)
⇒ ind{v1 , v2 , v3} . Scalarii k1 , k 2 sunt determinaţi din condiţiile ca w3 să fie ortogonal
lui w1 şi lui w2 ,
 < v3 , w1 >
 k1 = −
0 =< w3 , w1 >=< v3 , w1 > + k1 < w1 , w1 >  < w1 , w1 >
 ⇒
0 =< w3 , w2 >= (v3 , w2 > + k 2 < w2 , w2 > k = − < v3 , w2 >
 2 < w2 , w2 >
< v3 , w1 > < v 3 , w2 >
şi deci w3 = v3 − w1 − w2 , adică w3 = v3 − pr w1 v3 − pr w2 v3 .
< w1 , w1 > < w2 , w2 >
Repetăm procedeul până obţinem o mulţime de n vectori ortogonali
B ′′ = {w1 , w2 ,..., wn } .

26 Cap.I. Spaţii vectoriale


Se observă că procedeul de ortogonalizare Gram-Schmidt descris mai sus
poate fi sintetizat astfel:

w1 = v1 ,

w2 = v 2 − pr w1 v 2

w3 = v3 − pr w1 v3 − pr w2 v3

.......................................
w = v − pr v − pr v − ... − pr v
 n n w1 n w2 n wn −1 n

deci fiecare vector wk se construieşte scăzând din omologul său v k proiecţiile


acestuia pe vectorii {w1 , K, wk −1 } anterior determinaţi. Mulţimea ortonormată
B ′ = {e1 , e2 ,..., en } se obţine prin normarea vectorilor bazei B ′′ ,

py
w
ei = i , i = 1, n .
wi

Co
Din modul de obţinere a noii baze B ′ din baza B, rezultă relaţiile
Wk = L{v1 , v 2 ,..., v k } = L{e1 , e2 ,..., ek } , k ∈ 1, n. ‰
EB
Observaţie. Teorema se poate aplica şi pentru B = S = familie liniar
independentă din V. Cum S este bază pentru L(S), procedeul Gram-Schmidt produce o
tW

nouă bază (ortogonală !) B ′ =S' a subspaţiului vectorial L(S).

Exemplu. Determinaţi baza ortonormată B ′ asociată bazei B a spaţiului


canonic cu trei dimensiuni R 3 , unde
en

B = {v1 = (−1,0,1),v 2 = (1,1,2),v3 = (0,1,−1)} ⊂ R 3 .


ud

Soluţie. Utilizând procedeul Gram-Schmidt, construim o bază ortogonală


B ′′ = {w1 , w2 , w3 } formată din vectorii
St

w1 = v1 = (−1,0,1)
< v2 , w1 > 1
w2 = v2 − w1 = (1,1,2) − (−1,0,1) = (3 / 2;1;3 / 2 )
< w1 , w1 > 2
< v3 , w1 > < v3 , w2 >
w3 = v3 − w1 − w2 =
< w1 , w1 > < w2 , w2 >
(−1) − 1/ 2
= (0,1,−1) − (−1,0,1) − (3 / 2;1;3 / 2) = (− 4 / 11;12 / 11;−4 / 11)
2 11 / 2
Împărţim fiecare vector din baza ortogonală prin norma sa şi obţinem o bază
w  −1 1 
ortonormată B′ = {e1′, e2′ , e3′ } formată din vectorii e1′ = 1 =  ,0, ,
w1  2 2
w2  3 2 3  w3  1 − 3 1 
e2′ = = , ,  şi e3′ = = , , .
w2  22 22 22  w3  11 11 11 

Algebră liniară 27
Observaţie. O simplificare considerabilă a calculului, care conduce la o bază
ortogonală B ′′ cu proprietăţi similare, şi în final la baza ortonormată B ′ , este
următoarea: după ortogonalizare, deci după determinarea celor trei vectori ai bazei
B ′ , aceştia pot fi înlocuiţi prin multipli convenabili ai lor. Acest fapt nu influenţează
rezultatul, deoarece au loc următoarele proprietăţi:
1. < u, v >= 0 ⇒ < u, kv >= 0, ∀u, v ∈ Vn , ∀k ∈ K = R ;
2. kl pr v u = pr lv ku, ∀u, v ∈ Vn , ∀k , l ∈ K = R ,
adică, pe scurt, pentru un sistem ortogonal dat, orice alt sistem format din multipli
nenuli ai vectorilor acestuia este tot ortogonal.

În cazul nostru putem înlocui, spre exemplu, prin amplificările indicate:

w = (−1,0,1) → w1 = (1,0,−1)
 1 ⋅( −1)

py
w2 = (3 / 2;1;3 / 2) → w2 = (3,2,3)
⋅2

w
 3 = ( −4 / 11;12 / 11; −4 / 11) → w3 = (1,−3,1)

Observăm că sistemul B ′′ = {w1 , w2 , w3 } conduce


Co
⋅( −11 / 4 )

la baza ortonormată
EB
B ′ = {−e1 , e2 ,−e3 } , ce satisface proprietăţile teoremei 8.1.
tW

6.6. Considerând cazul infinit dimensional, generalizăm teorema 6.5 astfel:

Teoremă. Fie B={v1 , v2 ,...} ⊂ V o mulţime finită sau infinită în spaţiul


vectorial euclidian V şi fie L(v1 ,..., vk ) subspaţiul generat de primii k vectori ai
en

acestei mulţimi.
Atunci există o mulţime B ′ = {w1 , w2 ,...} ⊂ V astfel încât:
ud

1) vectorul wk este ortogonal pe L(v1 , v 2 ,..., v k −1 ) ,∀k ∈ N


2) L{w1 ,..., wk } = L{v1 ,..., v k } ,∀k ∈ N
St

3) vectorii w1 , w2 ,... cu proprietăţile 1) şi 2) sunt unic determinaţi, abstracţie


făcând de sens (de o posibilă amplificare cu -1).

Observaţie Vectorii w1 , w2 ,..., wk din teoremă sunt determinaţi recursiv prin


relaţiile:
r
w1 = v1 ,wr +1 = v r +1 − ∑ pr wi v r +1 , r = 1, k − 1
i =1

pentru k ∈ N . Din mulţimea ortogonală {w1 , w2 ,...} se poate obţine mulţimea


 w w 
ortonormată  1 , 2 ,... , ai cărei vectori au proprietăţile 1) şi 2) din teoremă, şi
 w1 w2 
sunt unic determinaţi, abstracţie făcând de semn. ‰

28 Cap.I. Spaţii vectoriale


Exerciţiu. Fie V spaţiul vectorial euclidian al funcţiilor polinomiale reale
definite pe intervalul [−11
, ], cu produsul scalar dat de
1
< v, w >= ∫ v(t ) w(t )dt , ∀v, w ∈ V .
−1

Aplicaţi procedeul Gram-Schmidt bazei canonice B = {v n }n∈N ⊂ V , v n (t ) = t n , n ∈ N .

Soluţie. Aplicând acestei baze, procedeul Gram-Schmidt, obţinem baza


ortogonală B' = {wn } n∈N formată din polinoamele Legendre,
1 3 n! d n 2
w0 (t ) = 1, w1 (t ) = t , w2 (t ) = t 2 − , w3 (t ) = t 3 − t ,..., wn (t ) = n
(t − 1) n ,...
3 5 (2n)! dt

#7. Probleme propuse

py
1. Fie mulţimea R 3 pe care definim operaţiile
(i) x + y = ( x1 + y1 , x2 + y2 , x3 + y3 ),∀x, y ∈ R 3 ,

(iii) kx = (kx1 ,0, kx3 ),∀k ∈ R,∀x ∈ R 3 , Co


(ii) x + y = ( x1 + y1 , x 2 + y 2 , x 3 − y 3 ), ∀x , y ∈ R 3 ,

(iv) kx = (kx1 , kx2 , kx3 ),∀k ∈ R,∀x ∈ R 3 .


EB
a) Formează R 3 un spaţiu vectorial real faţă de operaţiile (i) şi (iii)?
b) Dar faţă de (i) şi (iv) ?
tW

c) Dar faţă de (ii) şi (iv) ?


R: a) nu; b) da; c) nu.

2. Determinaţi dacă mulţimile următoare reprezintă spaţii vectoriale cu


en

operaţiile de adunare a vectorilor şi înmulţire cu scalari descrise alăturat


 ( x1 ,x 2 ) ⊕ ( y1 ,y 2 )=( x1+y1 ,x 2+|y 2|)
ud

a) (V = R 2 ,⊕,⊗) , 
 λ ⊗ ( x1 ,x 2 ) = ( λ ⋅ x1 ,0), ∀( x1 ,x 2 ) ,( y1 ,y 2 ) ∈ R ,∀λ ∈ R.
2
St

b) (V = { p ∈ R[ X ] grad p = 4},+,⋅ R ) .
c) (V = R 2 [ X ] ≡ { p ∈ R[ X ] grad p ≤ 2},+,⋅ R ) .
d) (V = C 2 (a, b) = { f f : (a, b) → R, f derivabilă de 2 ori, f ′′ continuă },+,⋅ R ) ,

( f + g )( x) = f ( x) + g ( x)

(λf )( x) = λf ( x), ∀x ∈ (a, b), ∀f , g ∈ V, ∀λ ∈ R
R: a) nu, b) nu, c) da, d) da.

3. a) Să se arate că mulţimea tuturor şirurilor convergente cu trermeni din K


( K ∈ {R , C} ) formează un spaţiu vectorial peste K relativ la adunarea a două şiruri şi
înmulţirea dintre un număr şi un şir.
b) Să se stabilească dacă mulţimea V a tuturor funcţiilor reale de clasă C k pe
U ⊂ R n este spaţiu vectorial real în raport cu adunarea funcţiilor şi înmulţirea dintre
un număr şi o funcţie, descrise prin
Algebră liniară 29
( f + g )( x ) = f ( x ) + g ( x )
( kf )( x ) = kf ( x ), ∀k ∈ R , ∀f , g ∈ V
c) Arătaţi că mulţimea V a funcţiilor integrabile pe [a, b], a < b ∈ R , este
un spaţiu vectorial real în raport cu operaţiile descrise mai sus.
R: b) da.

4. Fie V un spaţiu vectorial real. Pe V × V definim operaţiile


( u, v ) + ( x , y ) = ( u + x , v + y )
(a + ib)(u, v ) = (au − bv , bu + av ), ∀a + ib ∈ C, ∀u, v , x , y ∈ V .
Să se arate că V × V este un spaţiu vectorial peste C (acest spaţiu se numeşte
complexificatul lui V şi îl notăm cu C V ).

5. Să se verifice care dintre următoarele submulţimi W reprezintă subspaţii


vectoriale în spaţiile vectoriale specificate :

py
a) W = {( x1 , x 2 ) x1 + x 2 − a = 0} ⊂ R 2 ,
b) W = R 2 [ X ] ⊂ R 4 [ X ] ,
c) W = R 3 [ X ] ⊂ R[ X ] ≡ toate
nedeterminata X. Co
polinoamele

d) W = { p ∈ R[ X ] p (1) + p (−1) = 0} ⊂ R[ X ]
cu coeficienţi reali în
EB
e) W = { p ∈ R[ X ] p (0) = 1} ⊂ R[ X ] .
R. a) da ⇔ a = 0 , b) da, c) da, d) da, e) nu.
tW

6. Să se stabilească dacă mulţimile


A = { p ∈ R n [ X ] ∃q ∈ R n [ X ] , a.î. p ( x) = q(2 x + 1) − q (2), ∀x ∈ R}
en

B = { p ∈ R n [ X ] p ( x ) = p ( 3 x 2 ) + 7 , ∀x ∈ R }
sunt subspaţii vectoriale ale spaţiului vectorial R n [ X ] al polinoamelor cu coeficienţi
ud

reali, de grad cel mult n .


R: a) da, b) nu.
St

7. Considerăm subspaţiile vectoriale Vi , i ∈ Λ (unde Λ este o familie arbitrară


de indici) ale spaţiului vectorial V .
Să se arate că ∩ Vi este subspaţiu vectorial al lui V .
i∈Λ

8. Fie I = (a, b) ⊂ R un interval real şi mulţimile:


i) Mulţimea funcţiilor continue pe I ,
C 0 ( I ) = { f : I → R f continuă pe I },
ii) Mulţimea funcţiilor diferenţiabile de clasă C k pe I ( k ∈ N * ),
C k ( I ) = { f : I → R f derivabilă de k ori pe I, cu f (k ) continuă pe I },
iii) Mulţimea funcţiilor diferenţiabile de clasă C ∞ pe I ,
C ∞ ( I ) = { f : I → R f derivabilă de k ori pe I, ∀ k ∈ N }.

30 Cap.I. Spaţii vectoriale


Arătaţi că:
a) C ( I ), C k ( I ) şi C ∞ (I ) formează spaţii vectoriale reale cu operaţiile
0

( f + g )( x) = f ( x) + g ( x), (λf )( x) = λf ( x), ∀x ∈ I .



b) C (I ) este subspaţiu vectorial în C k ( I ), ∀k ∈ N ;
c) C k (I ) este subspaţiu vectorial în C l ( I ), ∀k ≥ l ∈ N ;
d) C ∞ (I ) = ∩ C k (I ) .
k∈N

9. Fie S , S ′ ⊂ V două familii de vectori. Arătaţi că:


a) S ⊂ L(S ) ;
b) S ⊂ L( S ′) ⇒ L( S ) ⊂ L( S ′) ;
c) Dacă S este subspaţiu vectorial al lui V, atunci L( S ) = S ;
d) L( S ) = I W ;
S ⊂W ⊂V
W subsp.vec.

e) L( S ∪ S ′) = L( S ) + L( S ′) ;

py
f) Dacă S ⊂ S ′ , atunci ind ( S ′) ⇒ ind ( S ) ;
g) Dacă S ⊂ S ′ , atunci dep( S ) ⇒ dep( S ′) .
Co
10. Să se cerceteze dacă vectorul v = (1,−2,0,3) ∈ R 4 este o combinaţie liniară
EB
a vectorilor u1 = (3,9,−4,−2), u2 = (2,3,0,−1), u3 = (2,−1,2,1).
R: da, v = u1 − 3u2 + 2u3 .
tW

11. Să se determine dacă următoarele familii de vectori sunt dependente sau


independente liniar. În cazul dependenţei liniare indicaţi o relaţie de dependenţă .
a) v1 = (1,2,0), v 2 = (1,1,1), v3 = (−1,0,−2) ∈ R 3 ,
en

b) p1 = 1 + x, p 2 = 1 − x + x 2 , p3 = 3 + x + x 2 ∈ R 2 [ X ] ⊂ R[ X ] ,
c) f1 = ch, f 2 = sh, f 3 = exp ∈ C ∞ (R ) , unde
ud

C ∞ (R ) ≡ { f f : R → R, f derivabilă de oricâte ori pe R },


St

1 0  1 1 0 0  1 1
d) m1 =  , m2 =  , m3 =  , m4 =   ∈ M 2 (R ) ,
0 2  0 1 0 0  1 1
e) S = { f n f n ( x) = cos n x, n ∈ N} ⊂ C ∞ (R ) .
R. a) dep{v1 , v 2 , v3 }, v1 = 2 v 2 + v3 , b) dep{ p1 , p 2 , p3 }, p3 = 2 p1 + p 2 ,
c) dep{ f1 , f 2 , f 3 }, f 3 = f1 + f 2 ,
d) dep{m1 , m2 , m3 , m4 }, 0 ⋅ m1 + 0 ⋅ m2 + 1 ⋅ m3 + 0 ⋅ m4 = 0 , e) ind S .

12. Să se stabilească care dintre următoarele submulţimi ale spaţiului vectorial



C ( R) sunt liniar dependente / liniar independente:
S = {1,cos 2 x ,cos2 x}, S ' = {e x , e − x , ch x}, S " = {e x , xe x ,..., x n−1e x }.
R: dep(S): −1 ⋅ 1 − 1 ⋅ cos 2 x + 2 ⋅ cos 2 x = 0 ; dep(S’): 1 ⋅ e x + 1 ⋅ e − x − 2 ⋅ chx = 0; ind(S”).

Algebră liniară 31
13. Să se arate că familia de polinoame S = {1, X , X 2 ,..., X n ,...} ⊂ K [ X ] este
o mulţime liniar independentă, unde K [ X ] este spaţiul tuturor polinoamelor în
nedeterminata X , cu coeficienţi în corpul K..

14. Să se determine dacă următoarele familii de vectori reprezintă sau nu baze


în spaţiile vectoriale indicate :
a) {e k e k ≡ (0,0,...,0, 1↑ ,0,...,0), k = 1, n} ⊂ R n ,
k

b) {eij eij ≡ (δ ik δ jl ) k =1, m;l =1, n , i = 1, m; j = 1, n} ⊂ M m×n (R ) ,


c) { X k k = 0, n} ⊂ R n [ X ] ,
d) {cos at , sin at} ⊂ { y = f (t ) y ′′ + a 2 y = 0} , unde a ∈ R * .
R. a) da, b) da, c) da, d) da.

15. Determinaţi dacă următoarele familii de vectori din R 4 determină baze. În

py
caz afirmativ, determinaţi descompunerea vectorului v relativ la baza respectivă
(coeficienţii vectorului v relativ la baza B ′ = {v1 , v 2 , v3 , v 4 } ).
t t
Co
a) v1 = (1,1,0,0 ), v2 = (1,−1,0,1), v3 = (0,2,0,0 ), v4 = (0,0,1,1), v = t (5,1,2,5) ,
t t

b) v1 = t (1,1,1,1), v 2 = t (1,1,−1,−1), v3 = t (1,−1,1,−1), v 4 = t (1,−1,−1,1); v = t (1,2,1,1) ,


EB
c) v1 = t (1,1,0,1), v 2 = t (2,1,3,1), v3 = t (1,1,0,0), v 4 = t (0,1,−1,−1); v = t (0,0,0,1) .
R. În toate cele trei cazuri, det[v1 , v 2 , v3 , v 4 ] ≠ 0 , deci cei 4 vectori sunt linear
tW

independenţi în spaţiul vectorial de dimensiune 4, R 4 ; prin urmare, baze.


a) Coeficienţii relativ la noua bază sunt [v]B ′ = t (2,3,2,2) . b) t (5 / 4,1 / 4,−1 / 4,−1 / 4) .
c) t (1,0,−1,0) .
en

16. Aflaţi câte o bază a subspaţiului W, şi dimensiunea acestuia, unde:


ud

a) W = L({u = (2,1,3,1), v = (1,2,0,1), w = (−1,1,−3,0)}) ⊂ R 4 ,


b) W = L({v1 = (2,0,1,3,−1), v2 = (1,1,0,1,−1), v3 = (4,2,1,5,−3) ,
St

v 4 = (1,−3,2,9,−5)}) ⊂ R 5 ,
c) W = L({a = (2,1,3,−1), b = (−1,1,−3,1), c = (4,5,3,−1),
d = (1,5,−3,1)}) ⊂ R 4 ,
  x 0 y 
d) W =  A A =  , y = u − 3v; x, y, u, v ∈ R  ⊂ M 2×3 (R ) .
 u v 0  
R. În cazurile a, b, c minorul care dă rangul matricii formate din coeficienţii
vectorilor generatori (aşezaţi pe coloane, spre exemplu), determină o familie
liniar independentă de generatori ai spaţiului W, deci o bază. a) BW = {u , v} .
b) BW = {v1 , v 2 } . c) BW = {a, b} . d) Rezolvăm sistemul (format dintr-o singură
ecuaţie) iar generatorii soluţiilor sistemului sunt vectori linear independenţi;
aceştia formează deci baza
 1 0 0  0 0 1  0 0 −3
BW =  0 0 0,  1 0 0,  0 1 0  .
 
32 Cap.I. Spaţii vectoriale
17. Dându-se subspaţiile W şi U generate respectiv de vectorii w1 = (2,3,11,5) ,
w2 = (1,1,5,2), w3 = (0,1,1,1) , u1 = (2,1,3,2),u2 = (1,1,3,4),u3 = (5,2,6,2) , să se arate că
aceste subspaţii sunt suplimentare şi să se găsească descompunerea vectorului
v = (2,0,0,3) pe aceste subspaţii.
R: v = (u1 + u2 ) + (− w1 + w2 ) ∈ U + W .

18. Fie S = { f 1 , f 2 ,..., f n } ⊂ C ∞ (R ) o mulţime de funcţii.


Se numeşte wronskianul funcţiilor f 1 , f 2 ,..., f n , determinantul
w( S ) = det[ f j( i −1) ], i = 1, n ,
unde am notat f j ( 0) = f j , ∀j = 1, n . Să se arate că:

a) dacă dep(S) atunci w(S)=0 (echivalent, w( S ) ≠ 0 ⇒ ind S );


b) reciproca proprietăţii a) nu este adevărată;

py
19. Se dau subspaţiile vectoriale U şi W ale lui R 3 . În situaţiile de mai jos, să
se determine câte o bază în subspaţiile U , W , U + W , U ∩ W şi să se verifice
relaţia
Co
dim U + dim W = dim (U + W ) + dim (U ∩ W ),
EB
a) U = L({ f1 = (1,2,−1,−2), f 2 = (3,1,1,1), f 3 = (−1,0,1,−1)}) ,
W = L({g1 = (2,5,−6,−5), g 2 = (−1,2,−7,−3)}) ⊂ R 4 ,
tW

b) U = L({ f1 = (1,2,1,0), f 2 = (−1,1,1,1)}) ,


W = L({g1 = (2,−1,0,−1), g 2 = (1,−1,3,1)}) ⊂ R 4 ,
c) U = L({ f 1 = (1,1,0,0), f 2 = (10,1,1)}) ,
en

W = L({g1 = (0,0,1,1), g 2 = (0,1,1,0)}) ⊂ R 4 ,


d) U = {( x, y, z ) x + y − 2 z = 0} ,
ud

W = L({w1 = (1,1,1), w2 = (1,0,0), w3 = (3,2,2)}) ⊂ R 3 ,


R. a) U ∩ W = W , BW = {g 1 , g 2 }, BU = BU +W = {g 1 , g 2 , f 1 } , 3+2=3+2.
St

b) BU ∩W = {u = (5,−2,−3,−4)}, BU = {u , f 1 }, BW = {u , g1 }, BU +W = {u , f1 , g1 } ,
2+2=1+3. c) U ∩ W = {0}, BU = { f1 , f 2 }, BW = {g 1 , g 2 }, U + W = R 4 ; subspaţiile U
şi W sunt suplementare; 2+2=0+4. d) BU = {v1 = (2,0,1), v 2 = (−1,1,0)}, BV = {w1 , w2 } ,
BU +W = {v 2 , w1 , w2 }, U + W = R 3 ; BU ∩W = {w = (1,1,1)} , 2+2=3+1.

20. Să se găsească o bază a sumei şi o bază a intersecţiei subspaţiilor


vectoriale U= L({u 1 , u 2 , u 3 }) şi W = L({w1 , w2 , w3 }) , unde
u1 = (2,−1,1), u2 = (1,1,1), u3 = (1,−2,0);
.
w1 = (3,−3,1), w2 = (0,1,0), w3 = (6,0,2).
R. BU = {u1 , u2 }, BW = {w1 , w2 }, BU ∩W = {w1}; BU +W = {u1 , u2 , w2 }, (U + W = R 3 ) .

Algebră liniară 33
21. Să se completeze familia F de mai jos la o bază a spaţiului vectorial
corespunzător . Verificaţi în prealabil liniar independenţa sistemului F
a) F = {v1 = (1,1,1), v 2 = (0,1,−1)} ⊂ R 3
b) F = { p1 = x − x 2 , p 2 = 1 − x 3 } ⊂ R 3 [ X ] .
R. a) B R 3 = {v1 , v 2 , v3 = (1,0,0)} , b) B R 3 [ X ] = { p1 , p2 , p3 = x 3 , p4 = x 2 } .

22. Să se arate că dacă U 1 , U 2 , U 3 ⊂ V sunt subspaţii vectoriale în V, atunci


are loc relaţia U 1 + (U 2 ∩ U 3 ) = (U 1 + U 2 ) ∩ U 3 .

23. Arătaţi că C 0 [0,1] = ( ⊕ U a ) ⊕ U b , unde b ∈ [0,1] arbitrar fixat, iar


a∈R

U a = { f ∈ C [0,1] f ( x) = a, ∀x ∈ [0,1]} , U b = { f ∈ C 0 [0,1] f (b) = 0} .


0

24. Fie p 0 ∈ R[ X ] \ {0} un polinom fixat. Arătaţi că

py
R[ X ] = { p ∈ R[ X ] grad p ≤ n} ⊕ { p ∈ R[ X ] p 0 divide p} .

Co
25. Fie V5 spaţiul vectorial real al polinoamelor în cos x care au cel mult
gradul 4. Să se scrie transformarea de coordonate care permite trecerea de la baza
B = {1,cos x ,cos2 x ,cos3 x ,cos 4 x} la baza B′ = {1,cos x ,cos 2 x ,cos 3x ,cos 4 x } şi să se
EB
găsească inversa acestei transformări.
1 0 −1 0 1 
tW

 
0 1 0 −3 0 
R: X = CX ', unde C =  0 0 2 0 − 8  ; matricea transformării inverse este
 
0 0 0 4 0 
en

0 0 0 0 8 

ud

C-1 iar X ' = C −1 X .

26. Să se arate că următoarele familii de vectori B ′ si B ′′ sunt baze în spaţiul


St

vectorial specificat şi să se determine matricea de trecere de la baza B ′ la B ′′ (notată


C B′B′′ ) şi coordonatele vectorului v (exprimat în baza canonică) relativ la baza B ′

a) B ′ = { f 1 = t (1,0,1), f 2 = t (1,0,−1), f 3 = t (1,1,0)} ⊂ R 3


B ′′ = {g1 = t (1,1,1), g 2 = t (1,1,0), g 3 = t (1,0,0)} ⊂ R 3 ; v = (−1,3,7)
b) B ′ = {q1 = 1 + x, q2 = 1 − x 2 , q3 = 1} ⊂ R 2 [ X ]
B ′′ = {r1 = 1 + x + x 2 , r2 = x 2 , r3 = 1 + x 2 } ⊂ R 2 [ X ]; v = 1 − x + x 2

R: a) CB ′B ′′ = C ′−1C ′′, C ′ = [ f1 , f 2 , f 3 ], C ′′ = [ g1 , g 2 , g 3 ] ; [v]B ′ = C ′−1 ⋅ t (−1,3,7) .


 1 1 1 1 0 1 
b) CB′B′′ = C ′ C ′′, C ′ = 1 0 0 , C ′′ = 1 0 0  ; [v]B ′ = C ′−1 ⋅ t (1,−1,1) .
−1  
   
 0 −1 0  1 1 1 

34 Cap.I. Spaţii vectoriale


27. Fie spaţiul vectorial complex n -dimensional C n şi fie R C n trecerea în real
a lui C n . Ştiind că oricărui vector z = (a1 + ib1 , a2 + ib2 ,..., an + ibn ) din C n îi
corespunde vectorul (a1 , a2 ,..., an , b1 , b2 , ..., bn ) din R C n , să se stabilească vectorul din
R
C n care este asociat lui iz .
R: (−b1 ,−b2 ,...,−bn , a1 , a 2 ,..., a n ) .

28. Să se arate că aplicaţiile (, ): R n [ X ] × R n [ X ] → R definite prin formulele

n
a) < p, q >= ∑ ak bk ,
k =0
n n n
1
b) < p, q >= ∑ ak bk , ∀p = ∑ ak X , q = ∑ bk X k ∈ R n [ X ] ,
k

k = 0 k! k =0 k =0

sunt respectiv produse scalare. Pentru n ≥ 2 , să se calculeze unghiul dintre

py
polinoamele p şi q faţă de produsul scalar (1), respectiv (2), unde
p = −3 + 4 X 2 , q = 2 − 3 X + 3 X 2 ∈ R n [ X ].
R: a) < p, q >= 6 , b) < p, q >= 0 .
Co
29. Determinaţi dacă următoarele operaţii reprezintă produse scalare:
EB
a) < x, y >= x1 y1 + ax 2 y 2 , ∀x, y ∈ R 2
b) < u , v >= u1v 2 , ∀u , v ∈ C 2 .
tW

R: a) da ⇔ a > 0 , b) nu.

30. Să se verifice că următoarele operaţii determină produse scalare pe spaţiile


en

vectoriale specificate:
ud

a) < x, y >= x1 y1 + x 2 y 2 + x3 y 3 , ∀x, y ∈ R 3


b) < x, y >= x1 y1 + x 2 y 2 , ∀x, y ∈ C 2
St

b
c) < f , g >= ∫ f (t ) g (t )dt , ∀f , g ∈ C 0 [a, b] = { f f : [a, b] → R, f continuă }
a
1
d) < p, q >= ∫ p (t )q (t )dt , ∀p, q ∈ R 2 [ X ] ≡ P2 ⊂ C 0 [−1,1]
−1

e) < p, q >= p 0 q0 + p1 q1 + p 2 q 2 ,
∀p = p 0 + p1 x + p 2 x 2 , q = q 0 + q1 x + q 2 x 2 ∈ R 2 [ X ]
f) < A, B >= Tr ( A t B), ∀A, B ∈ M 2 (R ) , unde
Tr (C ) = c11 + K + c nn , ∀C = (cij ) i , j =1,K,n ∈ M n (R )

31. Folosind produsele scalare canonice din exerciţiul precedent, pentru


fiecare din cazurile următoare să se calculeze:

♦ normele celor doi vectori;


♦ pentru punctele a, c, d, e, f, unghiul celor doi vectori;
Algebră liniară 35
♦ determinaţi dacă cei doi vectori sunt ortogonali;
♦ aflaţi proiecţia celui de-al doilea vector pe primul.

a) u = (1,2,−1), v = (−1,3,1) ∈ R 3 .
b) u = (1 + i, i ), v = (1, i − 2) ∈ C 2 .
c) f ( x) = e x , g ( x) = e − x ; f , g ∈ C 0 [0,1] .
d) p = 1 + x, q = 1 − x 2 ∈ P2 .
e) p = 1 + x, q = 1 − x 2 ∈ R 2 [ X ] .
1 0   1 0
f) A =  , B =   ∈ M 2 (R ) .
1 1   −1 1
R. Temă: b,c,d,e,f. a) u = 6 , v = 11, < u , v >= 4 , deci u nu este ortogonal pe v;
4 2 4 2
ϕ ≡ ∠(u , v) = arccos ∈ [0, π]; pr u v =  , ,−  .
66 3 3 3

py
32. Ortonormaţi următoarele familii de vectori folosind produsele scalare

Co
canonice (sau cele indicate, după caz) ale spaţiilor vectoriale considerate:

a) F = {v1 = (1,1,0 ), v 2 = (1,0,1), v 3 = ( 0,0 ,1)} ⊂ R 3 ,


EB
b) F = { p1 = 1 + x , p 2 = 1 − x 2 , p3 = x + x 2 } ⊂ R 2 [ x ] , unde
1
< p, q >= ∫ p(t )q(t )dt , ∀p, q ∈ R [ x] ≡ P2 ⊂ C 0 [−1,1]
tW

2
−1

c) F = {v1 = (1 + i,0,1), v 2 = (1,1,-i), v3 = (0, i, i)} ⊂ C 3 .


en

R. Temă. b,c). a) În urma ortogonalizării (Gram-Schmidt) şi normării familiei F,


rezultă baza ortonormată:
ud

 1 1   1 1 2   1 1 1 
g1 =  , , 0 , g 2 =  ,− , , g 3 =  − , ,  .
 2 2   6 6 6  3 3 3
St

33. Aflaţi o familie ortonormată de soluţii ale sistemului liniar


3 x − y − z + v = 0
 .
x + 2 y − z − v = 0
R. Se rezolvă sistemul,se află o bază în spaţiul soluţiilor, se ortogonalizează şi apoi se
normează această bază. Spre exemplu, o asemenea bază ortonormată este
1 1
v1 = (1,0,2,−1), v 2 = (1,12,8,17) .
6 498

34. Completaţi următorul sistem de vectori la o bază ortogonală, verificând în


prealabil că aceasta este formată din vectori ortogonali
F = {v1 = ( 2,1, − 1), v 2 = ( − 1,1, − 1)} ⊂ R 3 .
R. B ′ = {v1 , v 2 , v3 }, ∀v3 ∈ L(v = (0,1,1)) \ {0} .

36 Cap.I. Spaţii vectoriale


35. Fie spaţiul vectorial euclidian real V = C 0 [0,4] cu produsul scalar dat de
4
< f , g >= ∫ f ( x) g ( x)dx, ∀f , g ∈ V .
0

a) Să se scrie inegalitatea lui Cauchy-Schwarz pentru acest produs scalar.


b) Să se calculeze d ( f , g ) şi g , unde
 x, x ∈ [0,2]
f ( x ) = 1, g ( x ) = 
2 − x , x ∈ (2,4].
( ∫0 f ( x) g( x)dx) (∫ )( ∫ g ( x)dx) ;
4 2 4 4
R: a) ≤ 0
f 2 ( x )dx 0
2

b) d ( f , g ) = 2 13 / 3; g = 4 / 3 .

36. Determinaţi proiecţia ortogonală v ′ = pr W v a vectorului v pe subspaţiul W


precum şi componenta sa ortogonală v ⊥ a vectorului relativ la subspaţiul W, în
fiecare din următoarele cazuri:

py
a) v = (1,0,2),W = L({w1 = (0,1,0), w2 = (0,1,1)} ⊂ R 3 ;
b) v = (1,−1,1),W = L( S ) ,
S = {w1 = (1,0,−2), w2 = (1,1,0), w3 = (3,2,−2)} ⊂ R 3 ;
not
Co
EB
c) v = p = 1 + x, W = L({ p1 = 1 − x, p 2 = 1 − x 2 }) ⊂ R 2 [ x] ;
d) v = (1,1,−1),W = {( x, y, z ) x + y − z = 0} ⊂ R 3 ;
e) v = (5,2,−2,2),W = L({w1 = (2,1,1,−1), w2 = (1,1,3,0)} ⊂ R 4 .
tW

R. Temă: a,c. b) v′ = prW v = (-23/45; 5/45; 56/45) ,


v ⊥ = v − v′ = (68/45; - 10/9; - 11/45) . d) W = L({(1,0,1), (−1,1,0)} ,,
en

Bortog ,W = {w1 = (1,0,1), w2 = (1,−2,−1)} v ′ = prw1 v + prw2 v = (0,0,0) , deci


ud

v⊥W , v ⊥ = v = (1,1,−1) . e) v ′ = prW v = (3,1,-1,-2), v ⊥ = (2,1,−1,4) .


St

37. Determinaţi complementul ortogonal W ⊥ al subspaţiului vectorial W,


unde W = L({w1 = (1,1,0,0), w2 = (1,−1,1,1)} ⊂ R 4 .
R. W ⊥ = L({(−1,1,2,0), (0,0,−1,1)} .

38. Se dă familia de vectori B = {v1 , v 2 , v 3 } din spaţiul vectorial euclidian


canonic cu trei dimensiuni R3, unde v1 = (1,0,2), v 2 = (0,1,−1), v 3 = (−11
, ,0) .
3
a) Arătaţi că B este o bază a spaţiului R .
b) Să se ortonormeze baza B.

R: b) Se obţine baza ortonormată


 1 1   1 −1 3  ′  −3 3 2 
B ′ = {e1′ , e2′ , e3′ }, e1′ =  , ,0 , e′2 =  , , , e 3 =  , ,  .
 2 2   11 11 11   22 22 11 

Algebră liniară 37
39. Fie spaţiul vectorial euclidian V al funcţiilor polinomiale definite pe
intervalul [−11]
, , cu produsul scalar definit prin aplicaţia
1
< p, q >= ∫ p ( x)q( x)dx .
−1

Ortogonalizând mulţimea S = {1, x , x ,..., x n ,...} se obţine familia S ′ a polinoamelor


2

Legendre. Să se afle primele cinci polinoame ale acestei familii.


 1 3 6 3 10 5 
R: 1, x, x 2 − , x 3 − x, x 4 − x 2 + , x 5 − x 3 + x  ⊂ S ′ .
 3 5 7 35 9 21 

40. Fie V un spaţiu vectorial euclidean real şi doi vectori x, y ∈ V . Să se


verifice următoarele proprietăţi:
2 2 2
a) x⊥y ⇔ x + y = x + y ,
b) x = y ⇒ ( x + y ) ⊥( x − y ) .
c) x+ y
2
+ x− y
2
=2 (x 2
+ y
2
).

py
41. Fie V un spaţiu vectorial euclidean complex şi doi vectori x, y ∈ V . Să se
verifice următoarele proprietăţi:
a) x⊥y ⇔ ax + by = ax
2 2 2
Co
+ by , ∀a, b ∈ C ,
EB
2 2 2 2
b) 4 < x, y >= x + y − x− y + i x + iy − i x − iy .
tW

42. Fie V un spaţiu vectorial euclidean real şi {v1 ,K vn } ⊂ V o familie de


vectori. Să se arate că:
a) Dacă {w1 ,K wn } ⊂ V reprezintă familia obţinută din {v1 ,K vn } în urma
en

aplicării procesului de ortogonalizare Gram-Schmidt, atunci au loc relaţiile


vi ≥ wi , ∀i = 1, n ;
ud

2 2
b) Au loc relaţiile G (v1 ,K vn ) = G ( w1 ,K wn ) şi G (v1 ,K vn ) ≤ v1 ⋅ K ⋅ vn ,
unde prin G (v1 ,K vn ) = det (< vi , v j >)i , j =1, n am notat determinantul Gram al familiei
St

de vectori {v1 ,K vn } .
R. a) Pentru i = 1 , avem v1 = w1 ⇒ v1 = w1 . Pentru i ≥ 2 , se aplică teorema lui
Pitagora vectorului sumă vi = wi + prW vi , unde W = L( w1 ,K wi −1 ) .
b) Pentru prima relaţie, se demonstrează succesiv egalităţile
G (v1 , v2 , v3 ,K vn ) = G ( w1 , v2 , v3 ,K vn ) = G ( w1 , w2 , v3 ,K vn ) = K = G ( w1 ,K wn ) ,
folosind operaţii cu determinanţi şi expresiile care leagă cele două familii de vectori.
Pentru a doua relaţie, aplicăm punctul a) şi prima relaţie, observând că
2 2
G ( w1 ,K wn ) = det(diag (< w1 , w1 >,K, < wn , wn >)) = w1 ⋅ K ⋅ wn .

38 Cap.I. Spaţii vectoriale


CAPITOLUL 2

TRANSFORMĂRI LINIARE

#1.Transformări liniare

1.1. Definiţii. Fie V şi W două spaţii vectoriale peste corpul K.


a) Se numeşte transformare liniară de la V la W (sau încă, operator liniar sau
morfism de spaţii vectoriale), o funcţie T :V → W care satisface proprietăţile
T ( x + y ) = T ( x) + T ( y ),∀x, y ∈ V, (1)
T (kx) = kT ( x), ∀k ∈ K ,∀x ∈V (2)
b) Se numeşte izomorfism de spaţii vectoriale, orice transformare liniară bijectivă.
c) Se numeşte endomorfism al spaţiului liniar V,orice aplicaţie liniară T :V → V .

py
d) Se numeşte automorfism al spaţiului liniar V,orice endomorfism bijectiv.
e) Se numeşte formă liniară, o transformare liniară T :V → K (unde K = K 1 este

Co
considerat ca spaţiu vectorial cu o dimensiune peste K).

Observaţie. Cele două condiţii, (1) şi (2), din definiţia unei transformări
EB
liniare sunt echivalente cu condiţia
T ( kx + ly ) = kT ( x) + lT ( y ), ∀k , l ∈ K ,∀ x, y ∈ V . (3)
Într-adevăr, dacă T :V → W este liniară, atunci conform definiţiei avem
tW

T ( kx + ly ) = T (kx) + T (ly ) = kT ( x) + lT ( y ), ∀k , l ∈ K ,∀ x, y ∈ V .
Reciproc, condiţia (3), pentru k = l = 1 implică (1), iar pentru l = 0 implică (2).
en

Notaţii.
♦ Vom nota prin L(V,W ) mulţimea tuturor transformărilor liniare definite pe V cu
ud

valori în W.
♦ Vom nota prin End (V ) mulţimea endomorfismelor spaţiului vectorial V .
St

♦ Vom nota prin Aut (V ) mulţimea automorfismelor spaţiului vectorial V .


♦ Uneori în loc de T ( x) vom scrie, pe scurt, Tx .

Exemple de transformări liniare.


1. Aplicaţia T ∈ L(R, R ), T ( x) = ax , unde a∈R, este liniară.
2. Aplicaţia nulă, T ∈ L(V , W ) , T ( x) = 0, ∀x ∈ V este transformare liniară.
3. Aplicaţia de incluziune T ∈ L(U ,V ), T ( x) = x, ∀x ∈ U , unde U este subspaţiu
vectorial în V (privit ca spaţiu vectorial cu structura indusă din V), este aplicaţie
liniară. Ca un caz particular, aplicaţia identitate
J ∈ End (V ), J ( x) = x, ∀x ∈ V ,
este aplicaţie liniară.

Algebră liniară 39
4. Aplicaţia T ∈ L(R n , R m ), T ( x) = Ax, ∀x =t ( x1 ,K, xn ) ∈ R n , unde matricea
A∈Mm×n(R) este dată, este o transformare liniară. Spre exemplu, pentru m=2, n=3,
aplicaţia
T ∈ L(R 2 , R 3 ), T ( x1 , x 2 ) = (2 x1 ,− x 2 ,3x1 + x 2 )
este de această formă,
2 0   x1 
T ( x1 , x2 ) =  0  x    t

−1  1  =
 x  x2  = (2 x1 ,− x2 ,3 x1 + x2 ) ,
3 1  2 
 x3 
abstracţie făcând de transpunerea vectorului imagine. T este transformare liniară,
deoarece avem
T (( x1 , x 2 ) + ( y1 , y 2 )) = T ( x1 + y1 , x 2 + y 2 ) =
= (2( x1 + y1 ),−( x 2 + y 2 ),3( x1 + y1 ) + x 2 + y 2 ) =
= (2 x1 ,− x 2 ,3 x1 + x 2 ) + (2 y1 ,− y 2 ,3 y1 + y 2 ) =
= T ( x1 , x 2 ) + T ( y1 , y 2 ), ∀( x1 , x 2 ), ( y1 , y 2 ) ∈ R 2

py
T (k ( x1 , x 2 )) = T (kx1 , kx 2 ) =
= (2kx1 ,− kx 2 ,3kx1 + kx 2 ) =
= k (2 x1 ,− x 2 ,3x1 + x 2 ) = Co
= kT ( x1 , x 2 ),∀k ∈ R , ∀( x1 , x 2 ) ∈ R 2 .
EB
5. Aplicaţia T ∈ L(C 1 (a, b), C 0 (a, b)), T ( f ) = f ′, ∀f ∈ C 1 (a, b) , este liniară.
b
6. Aplicaţia T ∈ L( C 0 [a, b], R ), T ( f ) = ∫ f (t )dt , ∀f ∈ C 0 [a, b] , este liniară.
tW

7. Aplicaţia T ∈ L( M m×n ( K ), M n×m ( K )), T ( A)= t A, ∀A ∈ M m×n ( K ) , este liniară.

1.2. Teoremă. Orice transformare liniară T ∈ L(V , W ) are următoarele


en

proprietăţi:
ud

1) T (0) = 0 .
2) Dacă U este un subspaţiu vectorial al lui V, atunci T (U ) este un subspaţiu
St

vectorial al lui W.
3) Dacă vectorii x1 , x2 ,..., xn ∈ V sunt liniar dependenţi, atunci şi vectorii
T ( x1 ), T ( x 2 ),..., T ( x n ) ∈ W sunt de asemenea liniar dependenţi.
4) Daţi fiind vectorii x1 , x2 ,..., xn ∈ V , dacă vectorii T ( x1 ), T ( x 2 ),..., T ( x n ) ∈ W sunt
liniar independenţi, atunci şi vectorii x1 , x 2 ,..., x n sunt liniar independenţi.

Demonstraţie. 1) Avem T (0) = T (0 + 0) = T (0) + T (0) ⇒ T (0) = 0 .


2) Fie u = T ( x), v = T ( y ) ∈ T (U ), cu x, y ∈ V , şi k , l ∈ K . Atunci avem
ku + lv = kT ( x) + lT ( y ) = T (kx + ly ) ∈ T (U )
deci T (U ) este un subspaţiu vectorial al lui W. 3) Aplicând transformarea T unei
relaţii de dependenţă k1 x1 + k 2 x2 +...+ k n xn = 0V şi folosind proprietatea de liniaritate
(3) a transformarii T, rezultă relaţia de dependenţă
k1T ( x1 ) + k 2T ( x 2 ) + ... + k nT ( x n ) = 0W .

40 Cap.II. Transformări liniare


4) Procedând ca în cazul 3., rezultă anularea coeficienţilor k1 , k 2 ,..., k n , deci
independenţa vectorilor x1 , x 2 ,..., x n . ‰

1.3. Observaţie. Dacă V şi W sunt două spaţii vectoriale peste corpul K,


putem defini adunarea şi înmulţirea cu scalari pe mulţimea de transformări
liniare L(V,W ) , ca şi în cazul spaţiilor vectoriale care au funcţii drept vectori. Mai
exact, pentru S,T ∈ L(V,W ), k ∈ K , avem
( S+T )( x) = S ( x) + T ( x),

(kS )( x) = kS ( x), ∀x ∈ V .
În raport cu aceste operaţii mulţimea L(V,W ) este un spaţiu vectorial peste corpul K.
Spaţiul vectorial L(V, K ) se numeşte dualul lui V , iar vectorii săi se numesc forme
liniare definite pe V cu valori în corpul K.

1.4. Teoremă. Fie Vn şi W două spaţii vectoriale peste corpul K, fie

py
B = {e1 , e2 ,..., en } o bază a lui Vn , iar w1 , w2 ,..., wn o familie de vectori din W.
1) Există o unică transformare T ∈ L(Vn , W ) astfel încât T (ei ) = wi , i = 1, n .

Co
2) Dacă avem ind{w1 , w2 ,..., wn }, atunci această transformare este injectivă.
EB
n n
Demonstraţie. 1) Fie x = ∑ xi ei ∈ Vn . Asocierea x ∈ V → T ( x) = ∑ xi wi ∈ W
i =1 i =1

defineşte o funcţie T:Vn → W , cu proprietatea T (ei ) = wi , i = 1, n . Asocierea T este


tW

o transformare liniară, deoarece pentru


n n n
x = ∑ xi ei , y = ∑ y i ei ∈ Vn , k , l ∈ K , kx + ly = ∑ (kxi + ly i )ei ∈ Vn ,
i =1 i =1 i =1
en

n n n
obţinem T (kx + ly ) = ∑ (kxi + ly i ) wi = k ∑ xi wi + l ∑ y i wi = kT ( x) + lT ( y ) .
ud

i =1 i =1 i =1

Pentru a verifica unicitatea transformării liniare T astfel determinate,


fie S ∈ L(Vn ,W ) satisfăcând de asemenea relaţiile S (ei ) = wi , i = 1, n .
St

n
Atunci, pentru orice x = ∑ xi ei ∈ Vn , avem
i =1
n n n n
S ( x ) = S ( ∑ x i ei ) = ∑ x i S ( e i ) = ∑ x i T ( e i ) = T ( ∑ x i ei ) = T ( x )
i =1 i =1 i =1 i =1
n n
2) Fie x = ∑ xi ei , y = ∑ yi ei ∈ Vn . Folosind relaţiile T (ei ) = wi , i = 1, n şi liniar
i =1 i =1
independenţa vectorilor w1 , w2 ,..., wn , avem
n
T ( x) = T ( y ) ⇒ ∑ ( xi − y i ) wi = 0 ⇒ xi = y i , i = 1, n ⇒ x = y . ‰
i =1

Observaţii. 1. Compunerea a două transformări liniare, definită ca şi în cazul


funcţiilor obişnuite, se numeşte înmulţire (produs) şi produce tot o transformare
liniară. Evident compunerea nu este în general comutativă, dar este asociativă.
Algebră liniară 41
2. Fie A,B,C transformări liniare . Dacă au sens A+B, AC şi BC , atunci
(kA + lB )C = kAC + lBC , ∀k , l ∈ K ,
iar dacă au sens A+B, CA şi CB, atunci
C (kA + lB ) = kCA + lCB , ∀k , l ∈ K .
3. Fie T ∈ End (V ) . Puterile naturale ale lui T se definesc inductiv:
T 0 = J ,T n = TT n −1 , n ≥ 1 ,
unde J este transformarea identică.
4. Fie T ∈ L(U ,V ) o transformare liniară bijectivă (inversabilă). Atunci
inversa T −1 ∈ L(V , U ) este tot o transformare liniară.
Într-adevăr, pentru w 1 = Tv 1 , w 2 = Tv 2 , obţinem
T (kw1 + lw2 ) = T −1 (kTv1 + lTv 2 ) = T −1T (kv1 + lv 2 ) = kv1 + lv 2 = kT −1 w1 + lT −1 w2 .
−1

5. Dacă T ∈ L(U ,V ) şi S ∈ L(V,W ) sunt transformări liniare bijective,


atunci
♦ S o T ∈ L(U ,W ) este o transformare liniară bijectivă;

py
♦ are loc relaţia ( S o T ) −1 = T −1 o S −1 .

Co
#2. Nucleul şi imaginea unei transformări liniare
EB
Fie V şi W două K -spaţii vectoriale şi T ∈ L(V,W ) . Vom studia în cele ce
urmează
tW

• mulţimea soluţiilor ecuaţiei T ( x) = 0, x ∈ V şi


• mulţimea valorilor transformării, { y = T ( x) ∈ W x ∈ V } .
en

W
ud

V
Im T
St

Ker T →(T ) → •
0W

2.1. Definiţii. a) Se numeşte nucleul transformării liniare T ∈ L(V,W ) ,


mulţimea KerT = {x x ∈ V , T ( x) = 0} ⊂ V .

b) Se numeşte imaginea lui V prin T (sau imaginea transformării liniare T),


mulţimea Im T = T (V ) ⊂ W .

42 Cap.II. Transformări liniare


2.2. Teoremă. Fie T ∈ L(V,W ) o transformare liniară.
1) Nucleul transformării T este un subspaţiu vectorial al lui V.
2) Imaginea lui V prin T este un subspaţiu vectorial al lui W.
3) Soluţia generală a ecuaţiei T (v) = w (pentru w arbitrar fixat în ImT⊂W),
este suma dintre soluţia generală a ecuaţiei T (v) = 0 şi o soluţie particulară a
ecuaţiei T (v) = w .

Demonstraţie. 1.Avem x, y ∈ KerT ⇒ T ( x) = T ( y ) = 0 . Liniaritatea lui T implică


T (kx + ly ) = 0, ∀k, l ∈ K ⇒ kx + ly ∈ KerT ,∀k , l ∈ K .
2. Se aplică teorema 1.2, punctul 2, pentru U = V.
3. Se arată prin dublă incluziune că T−1(w)=KerT+{v0}, unde v0 este o soluţie arbitrară
fixată a ecuaţiei T (v) = w . ‰

Exemplu. Pentru T : R 2 → R 3 , T ( x1 , x 2 ) = (2 x1 ,− x 2 ,3x1 + x 2 ) obţinem

py
KerT = {( x1 , x 2 ) ∈ R 2 (2 x1 ,− x 2 ,3 x1 + x 2 ) = (0,0,0)} = {(0,0)} ,
Im T = {( y1 , y2 , y3 ) ∈ R 3 ∃( x1 , x2 ) ∈ R 2 , (2 x1 ,− x2 ,3x1 + x2 ) = ( y1 , y2 , y3 )} =

= {( y1 , y2 , y3 ) ∈ R 3 3 y1 − 2 y2 − 2 y3 = 0} =  2

Co
 2 y + 2 y3
3
 
, y2 , y3  y2 , y3 ∈ R  =
 
EB
= {y2 (2 / 3;1,0) + y3 (2 / 3;0,1) y2 , y3 ∈ R} = L({(2 / 3;1,0), (2 / 3;0,1)}) ⊂ R . 3

Se observă că T este injectivă (temă, verificaţi), dar nu este surjectivă.


tW

2.3. Teoremă. Dacă T ∈ L(V,W ) este o transformare liniară, atunci


următoarele afirmaţii sunt echivalente.
(i) T este injectivă.
en

(ii) Aplicaţia T supusă restricţiei de codomeniu T : V → T (V ) este inversabilă.


(iii) KerT = { 0} .
ud

Demonstraţie. Echivalenţa dintre (i) şi (ii) este evidentă. Arătăm că (i) este
St

echivalentă cu (iii). Fie KerT = { 0} . Avem


T ( x) =T ( y ) ⇒T ( x) −T ( y ) = 0 ⇒T ( x − y ) = 0 ⇒
⇒ x − y ∈ Ker T = {0} ⇒ x − y = 0 ⇒ x = y
deci T este injectivă, şi astfel (iii) ⇒ (i). Reciproc, presupunem (i), deci că T este
injectivă. Atunci x ∈ KerT ⇔ T ( x) = 0 ⇔ T ( x) = T (0) ⇒ x = 0 ceea ce implică
T inj

KerT ⊂ {0} . Cum T (0) = 0 ⇒ 0 ∈ KerT , deci incluziunea inversa are loc, rezultă
proprietatea (iii). ‰

Observaţie. Nucleul şi imaginea unei transformări liniare nu determină


transformarea liniară. Spre exemplu, orice automorfism T ∈ Aut (V ) are nucleul nul,
KerT = {0} (fiind injectiv) iar imaginea sa este întregul spaţiu vectorial Im T = V
(fiind surjectiv).

Algebră liniară 43
Definiţii. a) Dimensiunea nucleului lui T se numeşte defectul lui T.
b) Dimensiunea imaginii lui V prin transformarea liniară T se numeşte rangul lui T.

2.4. Teoremă (teorema rangului pentru transformări liniare).


Dacă V, W sunt spaţii vectoriale, spaţiul vectorial V este finit dimensional şi
T ∈ L(V,W ) , atunci şi spaţiul vectorial ImT este finit dimensional şi are loc relaţia
dim KerT + dim ImT = dim V .
Deci suma dintre defectul şi rangul transformării T este egală cu dimensiunea
domeniului.

Demonstraţie. Fie n = dimV şi p = dimKer T ≤ n . Dacă p = 0 , atunci


dimKer T = 0 ⇒ Ker T = {0} , deci T injectivă ⇒ aplicaţia T : V → T (V ) este
inversabilă, deci izomorfism de spaţii vectoriale ⇒ dim ImT = dim V, care este exact
relaţia dorită, căci dimKer T = 0 . Dacă p ≥ 1, alegem o bază {e1 , ..., e p } în Ker T , pe

py
care o extindem la o bază B = {e1 ,..., e p , e p+1 ,..., en } a întregului spaţiu vectorial V.
n
Pentru orice y ∈ Im T există un x = ∑ xi ei ∈V astfel încât y = T (x) ; cum însă
T (e1 ) = ... = T (e p ) = 0 , rezultă
 n  n
i =1

Co
EB
y = T ( x) = T  ∑ xi ei  = ∑ xi T (ei ) = x p +1T (e p +1 ) + ... + x nT (en ) .
 i =1  i =1
Deci T (e p +1 ),..., T (en ) generează pe Im T . Aceşti vectori sunt liniar independenţi,
tW

deoarece avem k p +1T (e p +1 ) + ... + k nT (en ) = 0 ⇒ T (k p +1e p +1 + ... + k n en ) = 0 , de unde


k p +1e p +1 + ... + k n en ∈ Ker T ; deci
k p +1e p +1 + ... + k n e n = k1 e1 + ... + k p e p ⇒ k p +1 e p +1 + ... + k n en − k1 e1 − ... − k p e p = 0 ;
en

folosind liniar independenţa bazei din V rezultă k1 =... = k p = k p+1 =... = k n = 0 .


Deci {T (e p +1 ),..., T (en )} este bază în Im T , spaţiul vectorial Im T este finit
ud

dimensional (cu dimensiunea n-p) şi avem relaţia: dim Im T = dim V − dim Ker T. ‰
St

Exerciţiu. Determinaţi nucleul şi imaginea endomorfismului T :R 3 → R 3 ,


T ( x) = ( x1 + 2 x2 − x3 , 2 x1 + 4 x2 − 2 x3 ,3x1 + 6 x2 − 3x3 ), x = ( x1 , x2 , x3 ) .

Soluţie. Pentru a determina nucleul, rezolvăm sistemul liniar T ( x) = 0 ;


aceasta se reduce la ecuaţia x1 + 2 x 2 − x3 = 0 , şi deci vectorii x ∈Ker T sunt de forma
x = ( x1 , x 2 , x1 + 2 x 2 ) = x1 (1,0,1) + x 2 (0,1,2) .
Vectorii e1 = (1,0,1) şi e2 = (0,1,2) sunt liniar independenţi şi generează pe Ker T, deci
aceştia determină o bază în Ker T ⇒ dim Ker T = 2 . Spaţiul Im T este generat de
vectorii {T (e1 ) = (1,2,3), T (e2 ) = (2,4,6), T (e3 ) = (−1,−2,−3)} , linear dependenţi, din
care extragem - folosind teorema privind rangul matricii unui sistem de vectori,
baza B ImT = {w = T (e1 ) = (1,2,3)} , şi deci dim ImT = 1. Dimensiunile nucleului şi
imaginii satisfac relaţia din teoremă: dim Ker T + dim Im T = dim R 3 (2+1=3).

44 Cap.II. Transformări liniare


2.5. Teoremă. Fie T ∈ L(V,W ) , dim V = n . Atunci următoarele afirmaţii
sunt echivalente.
(i) T este injectivă.
(ii) Dacă e1 ,..., e p ∈ V (p ≤ n) este o familie de vectori liniar independentă,
atunci şi familia de T (e1 ),..., T (e p ) ∈ T (V ) ⊂ W este liniar independentă.
(iii) dimT (V ) = n .
(iv) Dacă {e1 , ..., en } este bază pentru V, atunci {T (e1 ),..., T (en )} este
bază pentru T (V ) .

Demonstraţie. Demonstrăm echivalenţele ciclic: (i) ⇒ (ii) ⇒ (iii) ⇒ (iv) ⇒ (i).


(i)⇒(ii). Fie T injectivă şi S = {e1 ,..., e p } ⊂ V astfel încât să avem ind(S). Atunci
k1T (e1 ) + ... + k p T (e p ) = 0, k i ∈ K , i = 1, p ⇒ T (k1e1 + ... + k p e p ) = 0 ,

py
deci, conform teoremei 2.3,
k1e1 + ... + k p e p ∈ Ker T = {0} ⇒ k1e1 + ... + k p e p = 0 ⇒ k1 = ... = k p = 0 .

Co
(ii)⇒(iii). Fie (ii) adevărată ∀p ≤ n şi fie B={e1 ,..., en } o bază în V; deoarece ind{B},
pentru p = n rezultă ind {T (e1 ),..., T (en )} , deci dim T (V ) ≥ n ; pe de altă parte din
teorema 2.4 avem dim T (V ) ≤ n , deci dim T (V ) = n , deci (iii).
EB
(iii)⇒(iv). Fie (iii) şi B = {e1 ,..., en } o bază în V. Pentru orice y ∈ T (V ) există
n n
x = ∑ xi ei ∈ V astfel încât y = T ( x) = ∑ xi T (ei ) ; deci T (V ) = L({T (e1 ),..., T (en )}) .
tW

i =1 i =1

Cum însă dim T (V ) = n , rezultă că {T (e1 ),..., T (en )} este o bază a lui T (V ) , deci
(iv). (iv)⇒(i). Fie (iv), deci dim ImT = dim V = n; folosind relaţia din teorema 2.4
rezultă dim KerT=0, deci conform teoremei 2.3, T este injectivă, deci (i). ‰
en
ud

Observaţie. Coloanele matricii [T (e1 ),..., T (en )] sunt formate din coeficienţii
vectorilor care generează subspaţiul ImT.
St

2.6. Teoremă. Fie transformarea liniară T :Vn → Wn , între spaţii vectoriale


de aceeaşi dimensiune. Atunci următoarele afirmaţii sunt echivalente:
(i) T este injectivă;
(ii) T este surjectivă;
(iii) T este bijectivă.

Demonstraţie. Evident (iii)⇒(i), (iii)⇒(ii). Arătăm (i)⇒(iii). T este injectivă ⇒


Ker T = {0} ⇒ dim Ker T = 0 ; cu teorema 2.4, rezultă dim Im T = n .
Dar ImT ⊂ W n , deci Im T = W n , adică T este şi surjectivă. Arătăm (ii)⇒(iii). T este
surjectivă ⇒ ImT = W n , deci dim Im T = n = dim Vn ; cu teorema 2.4,
rezultă dim Ker T = 0 ⇒ Ker T = {0} , deci cu teorema 2.3, T este şi injectivă. ‰

Algebră liniară 45
Observaţie. Teorema este aplicabilă şi în cazul particular al endomorfismelor
pe spaţii vectoriale finit dimensionale. În acest caz, se observă că un endomorfism
este bijectiv (deci este automorfism, deci inversabil) dacă şi numai dacă matricea sa
relativ la o bază a spaţiului Vn este pătratică (deci W n = V n ) şi nesingulară.

Exemplu. Fie transformarea liniară T : R 3 → R 3 ,


T ( x) = ( x1 + x 2 , x 2 + x3 , x3 + x1 ), x = ( x1 , x 2 , x3 ) ∈ R 3 .
Vom arăta că această transformare este bijectivă, şi îi vom calcula inversa.
Într-adevăr, T fiind endomorfism iar spaţiul vectorial R 3 fiind finit-
dimensional, este suficient să arătăm că T este injectivă. Ecuaţia T ( x) = 0 este
echivalentă cu sistemul liniar şi omogen
 x1 + x2 = 0  x1 = 0
 
 x2 + x3 = 0 ⇔  x2 = 0 ⇔ x = 0 .
 
 x3 + x1 = 0  x3 = 0

py
Deci Ker T = {0} , T injectivă. Conform teoremei 2.6, T rezultă bijectivă, deci
inversabilă. Putem determina acest lucru altfel, folosind observaţia de mai sus, şi

1 1 0 Co
constatarea (verificaţi !) că matricea transformării este nesingulară,
A = [T ]B =  0 1 1 , det A = 2 ≠ 0.
1 0 1
EB
Se observă că surjectivitatea transformării T asigură existenţa unei soluţii pentru
sistemul T ( x) = y , iar injectivitatea asigură unicitatea acestei soluţii. Pentru a
tW

determina transformarea inversă rezolvăm ecuaţia T ( x) = y , unde


y = ( y1 , y2 , y3 ) ∈ R , echivalentă cu sistemul liniar
3

 x1 + x2 = y1  x1 = ( y1 − y2 + y3 ) / 2
 
en

 x2 + x3 = y2 ⇔  x2 = ( y1 + y2 − y3 ) / 2 ,
 
 x3 + x1 = y3  x3 = (− y1 + y2 + y3 ) / 2
ud

deci T −1 ( x) = (( y1 − y 2 + y 3 ) / 2, ( y1 + y 2 − y 3 ) / 2, (− y1 + y 2 + y 3 ) / 2 ) .
St

#3. Matricea unei transformări liniare

Fie Vn şi Wm două K -spaţii vectoriale de dimensiune n respectiv m, şi fie


T ∈ L( Vn , W m ) o transformare liniară. Dacă B={v1 , v 2 ,..., v n } este o bază fixată a lui
Vn , iar B’={w1 , w2 ,..., wm } este o bază fixată a lui Wm , atunci avem descompunerile
m
T (v j ) = ∑ t ij wi , j = 1, n . (1)
i =1

Coeficienţii (t ij ) i =1, m, j =1,n definesc o matrice unică A = (t ij ) i =1,m, j =1,n ∈ M m×n ( K ) cu


elemente din K. Vectorii imagine T (v j ) ∈ W m determină unic transformarea liniară T,
şi prin urmare, considerând fixate bazele B şi B ', matricea A determină unic
transformarea liniară T.

46 Cap.II. Transformări liniare


Definiţie. Matricea A ai cărei coeficienţi sunt daţi de relaţia (1) se numeşte
matricea asociată transformării liniare T în raport cu perechea de baze considerate.

Notaţii. Vom scrie A = [T ] B,B′ ., sau, atunci când bazele B şi B' se subânţeleg,
A = [T ] . Dacă T este endomorfism al spaţiului Vn şi B’ = B, notăm A = [T ] B sau,
atunci când baza B se subânţelege, A = [T ] .

n m
3.1. Teoremă. Dacă x = ∑ x j e j are imaginea T ( x) = y = ∑ y i wi , atunci au
j =1 i =1
loc relaţiile dintre coeficienţii vectorului x şi cei ai vectorului imagine y=T (x) :
n
yi = ∑ t ij x j , i = 1,m . (2)
i =1
Notând X = t ( x1 , x 2 ,..., x n ), Y = t ( y1 , y 2 ,..., y m ) relaţia (2) se rescrie matriceal
Y = AX . (3)

py
n
Demonstraţie. Fie x = ∑ x j v j ∈ V . Aplicând acestei egalităţi transformarea T şi

folosind relaţiile (2), rezultă


n
j =1

n
 m  m  n
Co 
T ( x) = ∑ x j T (v j ) = ∑ x j  ∑ t ij wi  = ∑  ∑ t ij x j  wi .
EB
j =1 j =1  i =1  i =1  j =1 
m
Cu notaţiile din enunţ avem T ( x) = ∑ y i wi , deci, din unicitatea descompunerii
tW

i =1
n
relativ la baza B’, obţinem yi = ∑ tij xi , i = 1,m . ‰
j =1
en

Observaţii. 1. Fie L(Vn ,W m ) mulţimea tuturor transformărilor liniare de la


ud

Vn la Wm şi M m×n ( K ) mulţimea tuturor matricelor de tipul m × n cu elemente din


K. Fixăm bazele B în Vn şi B’ în Wm . Funcţia care asociază fiecărei transformări
St

lineare T matricea sa relativ la bazele fixate,


µ B,B′ : L(Vn ,W m ) → M m×n ( K )
definită prin
µ B,B′ (T ) = A = [T ] B,B′
este un izomorfism de spaţii vectoriale. Drept consecinţă, spaţiul vectorial L(Vn ,W m )
are dimensiunea mn, egală cu cea a spaţiului vectorial M m×n ( K ) .

2. Izomorfismul µ are proprietăţile:


♦ [ ST ] = [ S ][T ] , dacă compunerea ST are sens;
♦ Endomorfismul S : Vn → Vn este inversabil dacă şi numai dacă matricea [ S ]
este matrice inversabilă şi, în acest caz, [ S −1 ] = [ S ] −1 .

Algebră liniară 47
Fie în cele ce urmează Vn un K -spaţiu vectorial n-dimensional şi
T ∈ End (Vn ) un endomorfism. Fixând baze diferite în Vn , endomorfismului T i se
asociază matrice pătratice diferite. Relaţia dintre aceste matrici este dată de
următoarea

3.2. Teoremă. Matricele A şi A′ , pătratice de ordinul n, cu elemente din K,


reprezintă aceeaşi transformare liniară T ∈ End (Vn ) relativ la bazele B.B ′ ⊂ V n
dacă şi numai dacă există o matrice nesingulară C astfel încât are loc relaţia
A'= C −1 AC . (4)
În acest caz, matricea C este exact matricea de trecere de la baza veche B la
baza nouă B' unde A = [T ] B , A′ = [T ] B′ .

Demonstraţie. Fie B={e1 , e2 ,..., en } şi B'={e1′ , e2′ ,..., e3′ } două baze în Vn , iar

py
n
C = [cij ] matricea de trecere de la prima bază la a doua, adică e′j = ∑ cij ei , j = 1, n . Fie
i =1

B, adică au loc relaţiile


n
Co
T :V n → V n o transformare liniară. Fie A = [aij ] matricea lui T relativ la prima bază

T ( e j ) = ∑ aij ei , j = 1, n ,
EB
i =1
şi A' = [a ' ij ] matricea lui T relativ la a doua bază B', adică
tW

n
T ( e′j ) = ∑ aij′ ei′ , j = 1, n .
i =1
Ţinând cont de relaţiile de mai sus, imaginile vectorilor din a doua bază admit
următoarele expresii
en

n n
 n  n  n 
T ( e′j ) = ∑ aij′ ei′ = ∑ aij′  ∑ c ki ek  = ∑  ∑ c ki aij′ ek ,
 k =1  k =1  i =1 
ud

i =1 i =1

 n
 n n
 n
 n  n 
T ( e′j ) = T  ∑ c ij ei  = ∑ cij T (ei ) = ∑ cij  ∑ a ki ek  = ∑  ∑ a ki cij ek ,
St

 i =1  i =1 i =1  k =1  k =1  i =1 
din care, prin egalarea coeficienţilor descompunerilor relativ la baza B, obţinem
n n
∑ cki a 'ij = ∑ a ki cij ,
i =1 i =1
sau, în scriere matriceală, CA' = AC , de unde rezultă A'= C −1 AC . ‰

Exemplu. Se dau endomorfismele T1 , T2 ∈ End ( R 3 ) ,


T1 ( x) = (5 x1 − x2 − 5 x3 , 20 x1 − 15 x2 + 8 x3 , 3x1 − 2 x2 + x3 ) ,
T2 ( x) = (10 x1 − 10 x2 + 10 x3 , 0, 5 x1 − 5 x2 + 5 x3 ), ∀x = ( x1 , x2 , x3 ) ∈ R 3 .
Să se afle matricea sumei celor două endomorfisme T = T1 + T2 relativ la baza
B′ = {v1 = (2,3,1), v2 = (3,4,1), v3 = (1,2,2)} ⊂ R 3 .
Soluţie. Prin sumarea celor două expresii analitice, obţinem
T ( x) = (T1 + T2 )( x) = T1 ( x) + T2 ( x) =
= (15 x1 − 11x2 + 5 x3 , 20 x1 − 15 x2 + 8 x3 , 8 x1 − 7 x2 + 6 x3 ).
48 Cap.II. Transformări liniare
Rezultă că imaginea bazei canonice
B = {e1 = (1,0,0), e2 = (0,1,0), e3 = (0,0,1), }
a spaţiului vectorial R 3 prin T este
T (e1 ) = (15,20,8), T (e2 ) = (−11,−15,−7), T (e3 ) = (5,8,6) ,
deci matricea lui T = T1 + T2 relativ la această bază este
 15 − 11 5 
 
A = [T ]B = [T (e1 ), T (e2 ), T (e3 )]B =  20 − 15 8  .
 8 − 7 6
 
Matricea de trecere de la baza canonică B la baza B ′ = {vi ,i = 1,3} este
2 3 1
C = [ '] B = [v1 , v2 , v3 ] B =  3 4 2  ,
B
1 1 2
deci rezultă conform teoremei 3.2 că matricea transformării T = T1 + T2 , relativ la
baza B' este
0 0 0

py
 
A′ = [T ]B ′ = C AC =  0 2 0  .
−1

 0 0 3

Co  
Se poate verifica uşor (temă) că avem A′ = A1′ + A2′ , unde A1′ = [T1 ] B′ , A2′ = [T2 ] B′ .
EB
Definiţie. Două matrici A, B ∈ M n×n ( K ) se numesc asemenea dacă există o
matrice nesingulară C ∈ M n×n (K ) astfel încât să aibă loc relaţia B = C −1 AC .
tW

Observaţii. 1. Asemănarea matricelor este o relaţie de echivalenţă pe spaţiul


vectorial M n×n (K ) . Fiecare clasă de echivalenţă corespunde unui endomorfism
T ∈ End ( V n ) şi conţine toate matricile asociate endomorfismului T relativ la bazele
en

spaţiului vectorial V n .
2. Matricile asemenea au următoarele proprietăţi:
ud

♦ Deoarece C este nesingulară, matricele B = C −1 AC şi A au acelaşi rang; acest


număr se mai numeşte rangul endomorfismului T şi este asociat clasei de asemănare
St

a matricii A.
♦ Deoarece det B = det(C −1 ) ⋅ det A ⋅ det(C ) = det A , toate matricele unei clase de
echivalenţă au acelaşi determinant. Astfel, putem defini determinantul unui
endomorfism al spaţiului V n , ca fiind determinantul matricei asociate
endomorfismului relativ la o bază dată.

#4. Endomorfisme particulare

Fie V un K-spaţiu vectorial şi End (V ) mulţimea endomorfismelor lui V.


Observăm că mulţimea End (V ) se poate structura simultan ca:
♦ spaţiu vectorial peste corpul K , relativ la adunarea endomorfismelor şi
înmulţirea dintre un scalar şi un endomorfism;
♦ inel, relativ la adunarea şi compunerea endomorfismelor.

Algebră liniară 49
4.1. Definiţii. Fie V un K-spaţiu vectorial. Endomorfismul T ∈ End (V ) se
numeşte
a) automorfism, dacă este bijectiv;
b) proiecţie, dacă satisface relaţia T 2 = T ;
c) involuţie (sau structură produs) dacă T 2 = J , unde J ∈ End (V ) este
transformarea identitate;
d) structură complexă, dacă T 2 = − J ;
e) endomorfism nilpotent de indice p, dacă T p = O ( p ≥ 2 ), unde O este
morfismul nul;
f) structură tangentă, dacă T este un endomorfism nilpotent de indice doi şi de
rang maxim.

Observaţie. Automorfismele Aut (V ) ale spaţiului vectorial V formează o


submulţime în End (V ) , notată şi prin GL(V ) . Această submulţime nu reprezintă un
subspaţiu al spaţiului vectorial End (V ) , deoarece adunarea nu este operaţie internă,

py
dar formează grup relativ la compunerea automorfismelor, numit grupul liniar
general.

Co
Exemplu. Orice structură aproape produs T ∈ End (V ) este automorfism.
Într-adevăr fixând o bază în V, matricea asociată transformării T este nesingulară:
EB
T 2 = J ⇒ [T 2 ] = [ J ] ⇒ [T ] 2 = [ J ] ⇒ det[T ] 2 = det[ J ] ⇒ (det[T ]) 2 = 1 ⇒ det[T ] ≠ 0 ,
deci folosind 3.1-observaţia 2, rezultă T inversabilă, deci automorfism.
tW

4.2. Teoremă. Pentru orice proiecţie T ∈ End (V ) , are loc descompunerea


V = Ker T ⊕ Im T .

KerT Demonstraţie. Fie v ∈V ,T (v) ∈ Im T . Notând


en

J-T w = v − T (v) ∈ V , avem



T ( w) = T (v − T (v)) = T (v) − T 2 (v) = 0 ,
ud

v T adică w ∈ Ker T . Deci V = Ker T + Im T .


w Pe de altă parte, pentru u ∈ Ker T ∩ Im T , rezultă

St

u u ∈ Im T ⇒ ∃v ∈ V, u = T (v) ;
ImT dar u ∈ KerT ⇒ 0 = T (u ) = T (T (v)) = T (v) = u ,
deci KerT ∩ ImT = {0} . ‰

Observaţii. 1. Numele de proiecţie provine din interpretarea geometrică a


relaţiei
V = Ker T ⊕ ImT .
Dat fiind vectorul v ∈ V , sunt unic determinaţi termenii descompunerii v = w + u :
♦ w ∈ Ker T - vector de-a lungul căruia se face proiecţia - satisface relaţia T ( w) = 0 ,
♦ u ∈ Im T - rezultatul proiecţiei - satisface relaţia T (v) = u .
Deci (vezi figura), T proiectează vectorul v ∈ V pe subspaţiul Im T de-a
lungul subspaţiului Ker T .

50 Cap.II. Transformări liniare


2. Dacă T este o proiecţie, atunci şi J − T este o proiecţie, unde J este
transformarea identică a spaţiului vectorial V. În plus au loc relaţiile
Ker( J − T ) = Im T , Im( J − T ) = KerT ,
de unde rezultă T Im T = J Im T , ( J − T ) KerT = J KerT .

Corolar. Dacă Ti : V → V , i = 1, p sunt proiecţii astfel încât au loc relaţiile


p

∑T
i =1
i =J şi TiT j = 0, ∀i ≠ j , i, j = 1, p,

atunci are loc descompunerea V = Im T1 ⊕ ... ⊕ Im T p .

Exemplu. În spaţiul V = R 3 , proiecţiile


T1 ( x) = ( x1 ,0,0), T2 ( x) = (0, x2 ,0), T3 ( x) = (0,0, x3 ), ∀x = ( x1 , x2 , x3 ) ∈ R 3 ,
conduc la descompunerea în sumă directă
R 3 = L({(1,0,0)}) ⊕ L({(0,1,0)}) ⊕ L({(0,0,1)}) .

py
4.3. Teoremă. Dacă T ∈ End (V ) este un endomorfism nilpotent de indice p

Co
şi x0 ∈ V \ {0} astfel încât T p −1 ( x0 ) ≠ 0 , atunci vectorii {x0 , T ( x0 ),..., T p −1 ( x0 )} sunt
liniar independenţi.
EB
p −1
Demonstraţie. Considerăm relaţia ∑k T
i =1
i
i
( x0 ) = 0, k i ∈ K , i = 0, p − 1 . Aplicând
tW

succesiv acestei egalităţi endomorfismul T de p − 1 ori şi folosind proprietăţile


T p = O , T p −1 ( x 0 ) ≠ O , rezultă k 0 = 0 ; folosind din nou relaţiile obţinute, rezultă
k1 =... = k p−1 = 0 , deci vectorii x0 , T ( x 0 ),..., T p−1 ( x0 ) sunt liniar independenţi. ‰
en

Observaţie. Fie x0 ∈ V \ {0} cu proprietăţile din teoremă şi L(S) acoperirea


ud

liniară a mulţimii S = {x0 ,T ( x0 ),..., T p−1 ( x 0 )} . Atunci se poate arăta [UDR] că există
un subspaţiu U ⊂ V , invariant faţă de T, astfel încât are loc descompunerea în sumă
St

directă V = U ⊕ L( S ) .

4.4. Teoremă. Pentru orice endomorfism T ∈ End (Vn ) , există două


subspaţii vectoriale U,W ⊂ Vn , invariante faţă de T astfel încât
1) Vn = U ⊕ W ,
2) restricţia T/ U este nilpotentă,
3) restricţia T/ U este inversabilă, dacă W ≠ {0}.

Exemple. 1. Endomorfismul T ∈ End (R 3 ) definit prin matricea


 − 4 − 7 − 5
 
[T ] =  2 3 3 
 1 2 1 

este un endomorfism nilpotent de indice 3, deoarece [T ]3 = O (temă, verificaţi).
Algebră liniară 51
2. Endomorfismul dat de derivarea funcţiilor polinomiale de grad cel mult n,
D ∈ End (R n [ X ]), D( p) = p′, ∀p ∈ R n [ X ] ,
unde p ′ este derivata polinomului p, este un endomorfism nilpotent de indice n + 1,
deoarece derivata de ordinul n + 1 a unui polinom p (care are gradul cel mult n) este
polinomul nul.

4.5. Teoremă. Un spaţiu vectorial real finit dimensional V admite o structură


complexă dacă şi numai dacă dimensiunea sa este pară.

Exemplu. Spaţiul vectorial real R 2 n admite structura complexă


T ∈ End (R 2n ) , T ( x) = ( x n +1 , K , x 2 n ,− x1 , K,− x n ), ∀x = ( x1 ,K , x 2 n ) ∈ R 2 n .
Se constată uşor că are loc relaţia (temă, verificaţi) [T ] 2 = − I 2 n .

py
#5. Transformări liniare pe spaţii euclidiene

Co
5.1. Definiţii. Fie V şi W două spaţii vectoriale euclidiene complexe. Vom nota
în acelaşi mod produsele scalare (şi normele induse de acestea) ale celor două spaţii.
a) Fie T : V → W o transformare liniară. Transformarea liniară T ∗ : W → V ,
EB
definită prin relaţia
< x, Ty >=< T ∗ x, y >, ∀x ∈ W, ∀y ∈ V
tW

se numeşte adjuncta transformării liniare T .


b) Un endomorfism T ∈ End (V ) se numeşte hermitian dacă T = T ∗ .
c) Un endomorfism T ∈ End (V ) se numeşte antihermitian dacă T = −T ∗ .
en

5.2. Teoremă. Endomorfismul T ∈ End (V ) este hermitian dacă şi numai dacă


ud

produsul scalar < x, Tx > este real ∀x ∈ V .


St

Demonstraţie. Dacă T = T ∗ , atunci < x, Tx >=< Tx, x >= < x, Tx > (bara înseamnând
conjugare complexă), deci < x, Tx >∈ R, ∀x ∈ V . Reciproc, dacă < x, Tx > este real,
atunci < x, Tx >= < x, Tx > = < T ∗ x, x > =< x, T ∗ x >⇒< x, (T − T ∗ ) x >= 0, ∀x ∈ V .
Notând S=T − T ∗ şi înlocuind pe x cu x + αy , (α ∈ C, y ∈ V arbitrare ), rezultă
2 Re(α < x, Sy >) = 0, ∀α ∈ C . Înlocuind α = 1 şi α = i în relaţia obţinută, obţinem
< y, Sx >= 0 , ∀x, y ∈ V . Punând y = Sx rezultă Sx = 0, ∀x ∈ V ⇔ S = 0 ⇔ T=T ∗ . ‰

Exemplu. Arătăm că următorul endomorfism T ∈ End (C 2 ) este hermitian


T ( x) = (2 x1 + (1 + i ) x 2 ,(1 − i ) x1 + 3 x 2 ), ∀x = ( x1 , x 2 ) ∈ C 2 .
Într-adevăr, folosind proprietăţile produsului scalar complex, obţinem
< Tx, x >= (2 x1 + (1 + i ) x2 ) x1 + ((1 − i ) x1 + 3 x2 ) x 2 =
2 2
= 2 x1 + (1 + i ) x2 x1 + (1 − i ) x1 x 2 + 3 x2 =

52 Cap.II. Transformări liniare


2 2
= 2 x1 + (1 + i ) x2 x 1 + ((1 + i ) x2 x1 ) + 3 x2 .
Deoarece ∀z ∈ C avem z + z ∈ R , rezultă < Tx, x >∈ R, ∀x ∈ C2 .

5.3. Teoremă. Fie endomorfismele hermitiene T,S ∈ End (V ) şi scalarul k ∈ R .


1. Endomorfismul kT + S este hermitian.
2. Dacă T este inversabil, atunci şi endomorfismul T −1 este hermitian.
3. Endomorfismul TS este hermitian dacă şi numai dacă TS = ST .
Demonstraţie. Prima afirmaţie rezultă din proprietăţile (T+S ) ∗ = T ∗ + S ∗ şi
(kT ) ∗ = kT ∗ , iar a doua rezultă din (T −1 ) ∗ = (T ∗ ) −1 .
3. Folosind relaţia (TS ) ∗ = S ∗T ∗ = ST , au loc echivalenţele: TS este hermitian ⇔
(TS)∗ = TS ⇔ TS = ST . ‰

5.4. Definiţie. Se numeşte transformare (liniară) unitară, o transformare liniară

py
T ∈ L(V , W ) care păstrează produsul scalar, adică
< Tx, Ty >=< x, y > , ∀x, y ∈V .

Co
Teoremă. 1) O transformare liniară T ∈ L(V ,W ) este unitară dacă şi numai
dacă păstrează norma, adică
EB
Tx = x , ∀x ∈ V .
2) Orice transformare unitară T : V → W este injectivă.
tW

Demonstraţie. 1) Dacă T este unitară, atunci < Tx, Ty >=< x, y >,∀x, y ∈ V ; în


2 2
particular pentru y = x avem < Tx, Tx >=< x, x >, adică Tx = x şi deci Tx = x .
Reciproc, dacă presupunem că are loc relaţia Tx = x ,∀x ∈ V , folosind egalitatea
en

2 2 2 2
< x, y > = { x + y − x − y + i x + iy − i x − iy } / 4
ud

rezultă
[ 2 2 2
< Tx, Ty >= T ( x + y ) − T ( x − y ) + i T ( x + iy ) − i T ( x − iy )
2
] / 4 = < x, y > .
St

2) Fie T transformare unitară. Folosind proprietăţile normei euclidiene şi proprietatea


de la punctul anterior, avem x ∈ Ker T ⇔ Tx = 0 ⇔ 0 = Tx = x ⇔ x = 0 ; rezultă
Ker T = {0} , deci T este injectivă.
‰

Observaţii. 1. Din teoremă rezultă uşor faptul că orice endomorfism unitar


T ∈ End (Vn ) pe un spaţiu euclidian complex finit dimensional, este izomorfism.
2. Condiţia ca un endomorfism T să fie unitar, < Tx, Ty >=< x, y >,∀x, y ∈ V ,
este echivalentă cu TT ∗ = T ∗T = J , unde J este transformarea identică pe Vn .

Algebră liniară 53
5.6. Definiţii. Presupunem că V şi W sunt spaţii euclidiene complexe n-
dimensionale şi că în fiecare s-a fixat o bază ortonormată. Relativ la aceste baze,
ataşăm transformării liniare T ∈ L(V , W ) matricea asociată A.
a) Matricea A∗ = t A ataşată lui T ∗ se numeşte adjuncta matricei A.
b) Dacă A = t A , atunci matricea pătratică A se numeşte hermitică.
c) Dacă A = −t A , atunci matricea pătratică A se numeşte antihermitică.
d) Dacă A t A = I , (I fiind matricea unitate), atunci matricea A se numeşte unitară.

Teoremă. Un endomorfism T ∈ End (V n ) este hermitian dacă şi numai dacă


matricea sa relativ la o bază ortonormată este hermitică.
Demonstraţie. Fie B={e1 ,..., en } ⊂ Vn o baza ortonormată şi A = [T ] B = (t ij ) i , j =1,n
matricea lui T relativ la aceasta. " ⇒" . Fie T hermitian. Înmulţind scalar cu ei relaţia
n
T e j = ∑ t kj ek , care dă descompunerea vectorilor din imaginea bazei, obţinem

py
k =1
n
< Te j , ei >= ∑ t kj < ek , ei >= t ij ;

analog rezultă (temă, verificaţi) < T e j , ei >= t ij∗ . Deci avem



k =1
Co
EB
t ij∗ = < T ∗ e j , ei >=< e j , T ei >= < T ei , e j > = t ji ,
şi cum A∗ = A rezultă tij = t ji adică A = t A . " ⇐" . Fie A = t A ; atunci
n n n n
tW

< x, Tx >=< ∑ x j e j ,∑ x k ek >= ∑x j x k < e j , T (e k ) >= ∑x j x k < T (ek ), e j >=


j =1 k =1 j , k =1 j , k =1
n n

∑x j x k ⋅ t jk = ∑x j x k ⋅ t kj = < x, Tx > .
en

j , k =1 j , k =1

adică < x, Tx > ∈ R şi deci T este hermitian. ‰


ud

În continuare prezentăm un exemplu care arată că pentru verificarea


St

hermiticităţii folosind matricea asociată transformării relativ la o bază, este esenţial ca


baza să fie ortonormată.

Exemplu. Fie endomorfismul T ∈ End (C 2 ) , a cărui matrice relativ la baza


 −1 0  −1 0
B ′ = {v1 = (1,0),v 2 = (1,1)} ⊂ C 2 este A′ =   . Deoarece t
A′ =   ≠ A′
 2 3  2 3
matricea A’ nu este hermitică şi totuşi endomorfismul T este hermitian. Arătăm că
matricea lui T relativ la baza canonică a spaţiului B = {e1 = (1,0),e2 = (0,1)} ⊂ C 2
(bază ortonormată relativ la produsul scalar canonic al spaţiului vectorial C 2 !) este
−1
hermitică. Din relaţiile v1 = e1 , v2 = e1 + e2 , obţinem matricea de trecere C =  1 1 de
 0 1
 
la baza B’ la B. Rezultă că matricea lui T relativ la baza canonică va fi
1 2 t
A = C −1 A′C =   = A (deci matrice hermitică), ceea ce probează afirmaţia.
2 1
54 Cap.II. Transformări liniare
Observaţii. Analog cu teorema de mai sus, putem arăta că:
1. Un endomorfism T ∈ End (Vn ) este unitar dacă şi numai dacă matricea lui
în raport cu o bază ortonormată a spaţiului este unitară.
2. Un endomorfism T ∈ End (Vn ) este antihermitic dacă şi numai dacă
matricea lui în raport cu o bază ortonormată a spaţiului este antihermitică.

Exemplu. Arătaţi că endomorfismul T : C 2 → C 2 ,


T ( x) = ( x1 cos α − x 2 sin α, x1 sin α + x 2 cos α), x = ( x1 , x 2 ),α ∈ [0,2π]
este un endomorfism unitar.
Soluţie. Matricea endomorfismului T relativ la baza canonică ortonormată
cos α − sin α 
B={e1 = (1,0), e2 = (0,1) } este A = [T ] B =   . Această matrice este unitară,
 sin α cos α 
 cos α sin α  1 0
căci A∗ =   şi deci AA∗ =   = I .

py
 − sin α cos α  0 1

Co
5.7. În cele ce urmează, presupunem că V şi W sunt două spaţii vectoriale
euclidiene reale, ale căror produse scalare (respectiv norme asociate) le notăm la fel.
Fie T ∈ L(V ,W ) o transformare liniară.
EB
Definiţii. a) Transformarea liniară T ∗ : W → V definită prin relaţia
tW

< x, Ty >=< T ∗ y, x >, ∀x ∈ W ,∀y ∈ V


se numeşte transpusa transformării liniare T .
b) Un endomorfism T ∈ End (V ) se numeşte simetric dacă T = T ∗ .
en

c) Un endomorfism T ∈ End (V ) se numeşte antisimetric dacă T = -T ∗ .


d) Transformarea liniară T ∈ L(V ,W ) se numeşte ortogonală dacă păstrează
ud

produsul scalar, deci dacă satisface relaţia < Tx, Ty >=< x, y >, ∀x, y ∈ V .
St

Observaţii. 1. Păstrarea produsului scalar este echivalentă cu conservarea


normei, adică T ∈ End (V ) este transformare ortogonală dacă şi numai dacă satisface
relaţia (temă, verificaţi): Tx = x ,∀x ∈ V .

2. Dacă spaţiile vectoriale V şi W sunt finit dimensionale şi dacă în fiecare s-a


fixat o bază ortonormată, atunci transformării T : V → W i se ataşează matricea A, iar
transpusei T ∗ , matricea t A . Prin urmare, relativ la o bază ortonormată
♦ unui endomorfism simetric îi corespunde o matrice simetrică,
♦ unui endomorfism antisimetric îi corespunde o matrice antisimetrică,
♦ unui endomorfism ortogonal îi corespunde o matrice ortogonală.
3. Transformările simetrice / antisimetrice/ ortogonale au proprietăţi analoage
proprietăţilor transformărilor hermitiene / antihermitiene / unitare.

Algebră liniară 55
#6. Izometrii

S-a văzut că transformările ortogonale ale unui spaţiu vectorial euclidian real
V păstrează distanţa euclidiană şi au drept punct fix originea (duc vectorul nul în
vectorul nul, fiind transformări liniare). Vom introduce o altă funcţie pe V care
păstrează distanţa euclidiană, dar nu este lineară.

6.1. Definiţie. Funcţia T a : V → V definită prin


Ta ( x) = x + a, ∀x ∈ V ,
unde a ∈ V este un vector arbitrar fixat, se numeşte translaţia de vector a.

Teoremă. Au loc următoarele proprietăţi:

1) Ta o Tb = Tb o Ta = Ta +b , ∀a, b ∈ V ;
2) T0 = J V ;

py
3) ∀a ∈ V, Ta este transformare inversabilă, şi avem (Ta ) −1 = T− a , ∀a ∈ V ,

Co
unde prin J V am notat transformarea identică a spaţiului vectorial V.

Demonstraţie. 1) Translaţiile comută; într-adevăr, avem


EB
Ta o Tb ( x) = Ta ( x + b) = x + a + b = Ta +b ( x) = b + x + a = Tb ( x + a) = Tb o Ta ( x) ,
∀a, b ∈ V . 2) T0 ( x) = x + 0 = x = J ( x) . Prin calcul direct se obţine:
3) Ta o T−a ( x) = ( x − a) + a = x = J ( x) = ( x + a ) − a = T−a o Ta ( x), ∀x ∈ V . ‰
tW

Observaţie. Rezultă că produsul (compunerea) defineşte pe mulţimea Tr(V) a


tuturor translaţiilor lui V o structură de grup comutativ (Tr(V), ° ) numit grupul
en

translaţiilor. Acest grup este izomorf cu grupul abelian aditiv (V,+), prin
izomorfismul ϕ : V → Tr (V ), ϕ(a) = Ta , ∀a ∈ V .
ud

6.3. Teoremă. Orice translaţie T = Ta , a ∈ V păstrează distanţa euclidiană,


St

adică satisface relaţia:


d (T ( x), T ( y )) = d ( x, y ),∀x, y ∈ V .

Demonstraţie. d (T ( x), T ( y )) = ( y + a) − ( x + a) = y − x = d ( x, y ),∀x, y ∈ V . ‰

Definiţie. O funcţie surjectivă F : V → V care păstrează distanţa euclidiană, adică


d ( F ( x), F ( y )) = d ( x, y ),∀x, y ∈ V ,
se numeşte izometrie. Notăm mulţimea izometriilor spaţiului vectorial V prin Iz(V).

Observaţii. 1. Orice izometrie este injectivă (temă, verificaţi) şi deci bijectivă.


2. Transformările ortogonale şi translaţiile sunt izometrii.
3. Compunerea a două izometrii este o izometrie.
4. Izometriile unui spaţiu vectorial V formează grup cu compunerea, (Iz(V), °).

56 Cap.II. Transformări liniare


5. Grupul transformărilor ortogonale (O(V), °) ale spaţiului vectorial V şi grupul
translaţiilor (Tr(V),°) sunt subgrupuri ale grupului izometriilor (Iz(V), °).

6.4. Teoremă. O izometrie R : V → V cu proprietatea R (0) = 0 este o


transformare ortogonală.
Deci izometriile care păstrează originea sunt exact transformările ortogonale.

Demonstraţie. Izometria R păstrează norma, deoarece avem:


x = x − 0 = d (0, x) = d ( R(0), R( x)) = d (0, R( x)) = R( x) − 0 = R( x) , ∀x ∈ V .
Utilizând acest rezultat rezultă că R păstrează produsul scalar:
d ( R( x), R( y )) = d ( x, y ) ⇔ R ( y ) − R( x) = y − x ⇔
< R( y ) − R( x),R( y ) − R( x) >=< y − x, y − x >⇔
< R( x), R( y ) >=< x, y >,∀x, y ∈ V
şi deci este o transformare liniară, deoarece
< R( x), R( y ) >=< x, y > ⇒ < R(kx), R( y ) >=< kx, y >= k < x, y >= k < R( x), R( y ) >=

py
=< kR( x), R( y ) >⇒< R(kx) − kR( x), R( y ) >= 0, ∀R( y ) ∈ V,∀k ∈ R .
Înlocuind R ( y ) = R(kx) − kR( x) şi folosind pozitivitatea produsului scalar, rezultă

deci R este omogenă. Pe de altă parte avem Co


R (kx) − kR( x) = 0,

< R( x + y ), R( z ) >=< x + y, z >=< x, z > + < y, z >=< R( x), R( z ) > + < R( y ), R( z ) >=
EB
=< R( x) + R( y ), R( z ) >⇒< R( x + y ) − R( x) − R( y ), R( z ) >= 0, ∀R( z ) = u ∈ R(V ) = V
Deci R ( x + y ) − R( x) − R( y ) = 0 , deci R este aditivă. Fiind liniară şi păstrând
produsul scalar, R este ortogonală. ‰
tW

6.5. Teoremă. Dacă J este o izometrie, atunci există o translaţie


T = Ta , a ∈ V şi o transformare ortogonală O astfel încât J = Ta o O .
en

Deci orice izometrie este compunere dintre o transformare ortogonală şi o translaţie.


ud

Demonstraţie. Fie T = Ta , a ∈ V translaţia prin vectorul a = J (0) şi T −1 translaţia


prin − a = − J (0) . Funcţia T −1 o J este o izometrie care păstrează pe 0. Conform
St

teoremei 6.5, izometria T −1 o J este o transformare ortogonală O . Deci T −1 o J = O


sau J = T o O . ‰

Observaţii. 1. Presupunem dimV = n . Dacă B={e1 , ..., en } este o bază


ortonormată şi O este o transformare ortogonală pe V, atunci şi B'={O(e1 ),..., O(en )}
este o bază ortonormată. Reciproc, dacă în V sunt date două baze ortonormate B şi B',
atunci există o singură transformare ortogonală O care duce B în B'; matricea
acesteia relativ la baza B este [O]B = [B' ]B .

2. Fie KerT = L({a )}, Im(T ) = {v < v , a >= 0} o izometrie pe spaţiul n-


dimensional V. Avem [O]t [O] = [ I ] ⇒ det[O] = ±1 . Dacă det [O] = +1 , atunci J se
numeşte izometrie pozitivă (congruenţă), iar dacă det [O] = −1, atunci J se numeşte
izometrie negativă.

Algebră liniară 57
Exemplu. Fie locul geometric al punctelor din plan M ( x, y, z ) care raportate
la reperul cartezian Oxyz verifică ecuaţia
g ( x, y, z ) = 2 x 2 + y 2 − 4 z 2 − 8 x + 2 y − 16 z + 1 = 0.
Determinăm ecuaţia verificată de coordonatele ( x ′, y ′, z ′) ale acestor puncte
faţă de reperul O′x ′y ′z ′ obţinut din cel iniţial printr-o translaţie ce duce originea
O(0,0,0) în punctul O ′(2,−1,−2) , deci având vectorul de translaţie
a = ( xO ' − xO , y O ' − y O , z O ' − z O ) = (2,−1,−2) .
Deoarece formulele care dau translaţia sunt x = x ′ + 2, y = y ′ − 1, z = z ′ − 2, înlocuind
în ecuaţia dată găsim ecuaţia locului geometric relativ la reperul translatat,
2 x ′ 2 + y ′ 2 − 4 z ′ 2 + 8 = 0.

#7. Probleme propuse

1. Să se studieze care din funcţiile T : R 3 → R 3 definite prin


a) T ( x) = a, a ∈ R 3 , fixat

py
b)T ( x) = x + a
c) T ( x) = λ x, λ ∈ R
Co
d) T ( x) = ( x1 , x 2 , x32 ), x = ( x1 , x 2 , x3 )
e) T ( x) = ( x3 , x1 , x 2 )
EB
f) T ( x) = ( x3 , x1 , x2 + k ), k ∈ R, k ≠ 0
g) T ( x) = ( x1 + 2 x 2 − 3 x3 ,3 x1 − x 2 + 3 x3 ,4 x1 + 7 x 2 + 8 x3 )
tW

sunt transformări liniare.

R. a) da ⇔ a = 0 , b) da ⇔ a = 0 , c) da, d) nu, e) da, f) nu, g) da.


en

2. Să se determine dacă urmă toarele aplicaţ ii sunt sau nu


transformă ri liniare:
ud

2
a) T : R 2 → R 2 , T (v) = ( x 2 , x1 + x 2 ), ∀v = ( x1 , x 2 ) ∈ R 2
1
b) T : R 2 [ x] → R 3 [ x], T ( p ) = xp − p + x ∫ p (t )dt , ∀p ∈ R 2 [ x] .
St

R. nu (T nu este nici aditivă, nici omogenă); b) da.

3. a) Fie R n [ X ] spaţiul vectorial real al polinoamelor de grad ≤ n . Să se arate


că funcţia
T : R n [ X ] → R n [ X ] , T p ( x) = p (2 x + 3) − 2 p '( x) − p(10), ∀x ∈ R
este o transformare liniară.

b) Fie spaţiul vectorial al funcţiilor continue pe intervalul [a,b],


V = C 0 [a, b] = { f f : [a, b] → R, f continuă}.
Să se arate că transformarea ce asociază fiecărei funcţii primitiva acesteia,
x
P:V → V , P( f ) = g , g ( x) = ∫ f (t )dt , (∀) x ∈ [a, b] ,
a

este o transformare liniară.


58 Cap.II. Transformări liniare
4. Pe spaţiul vectorial real Pn al funcţiilor polinomiale de grad cel mult n,
se defineşte funcţia T : Pn → Pn ,
1
T ( p ( x)) = x ∫ tp(t )dt , ∀p ∈ Pn , ∀x ∈ R .
0

Să se arate că T este o transformare liniară şi să se determine Ker T şi Im T .

 ak 
R. Ker T =  p = ∑ ak x k ∑ k + 2 = 0 , Im T = L({x}) .
 k = 0, n k = 0, n 

5. În R 3 se consideră vectorii v1 = (3,2,−1),v 2 = (1,−2,1),v3 = (1,0,2) .


a) Să se arate că există o singură formă liniară T : R 3 → R astfel încât
T (v1 ) = −8, T (v 2 ) = 0, T (v3 ) = 6 .
b) Să se determine o bază a subspaţiului Ker T .
R. a) T (v) =< v, a >, a = (−2,1,4) , b) Ker T = L{(1,2,0), (0,−4,1)} .

py
6. Fie funcţia T : V3 → V3 , T (v) = v × a, a = vector fixat, nenul .
a) Să se arate că T este o transformare liniară.
Co
b) Să se găsească Ker T şi Im T şi să se arate că Ker T ⊕ Im T = V3 .
EB
R. b) KerT = L({a )}, Im T = {v < v , a >= 0} .
tW

7. Se dau urmă toarele transformă ri:


a) T ∈ End (R 3 ), T ( x) = ( x1 − 3 x 2 ,0,6 x 2 − 2 x1 ), ∀x = ( x1 , x 2 , x3 ) ∈ R 3 .
1
b) T : R 2 [ x] → R 1 [ x], T ( p ) = 2 p ′ − x ∫ p (t )dt , ∀p ∈ R 2 [ x] .
0
en

c) T : R 3 → R 2 , T ( x) = ( x1 − x 2 + x3 , x1 + x3 ),∀ x = ( x1 , x 2 , x3 ) ∈ R 3 .
1
d) T : R 2 [ x] → R 3 [ x], T ( p) = x 3 ∫ p(t )dt − x 2 p ′ + p(0), ∀p ∈ R 2 [ x] .
ud

0
În fiecare din cele patru cazuri să se determine urmă toarele chestiuni:
St

1. Verificaţ i că transformarea T este liniară ;


2. Determinaţ i nucleul transformă rii liniare T ( Ker T );
3. Determinaţ i imaginea transformă rii liniare T ( Im T );
4. Aflaţ i matricea transformă rii liniare 3 relativ la bazele canonice ale
domeniului Dom T ş i codomeniului Codom T;
5. Determinaţ i dacă transformarea T este injectivă sau surjectivă ;
6. Verificaţ i relaţ ia: dim Ker T + dim Im T = dim Dom T.

R. Temă: b,c,d. a) KerT = L({v1 = (3,1,0 ),v 2 = (0,0,1)}), ImT = L({v = (1,0,−2)}) , T nu
 1 − 3 0
este injectivă ( KerT ≠ 0 ), nici surjectivă ( ImT ≠ R 3 ); [T ] =  0 0 0 , 2+1=3.
− 2 
 6 0

0 2 0 
b) KerT = L({3 x 2 + 11}); Im T = L({− x, 2 − ( x / 2)});[T ]{1, x , x2 },{1, x} =  −1 11  .
 −1 2 3
T nu este injectivă, dar este surjectivă ( ImT = R 1 [ x] ); 1+2=3.

Algebră liniară 59
8. Se dau transformările liniare:
a) T ∈ End (R 3 ), T ( x) = ( x1 − 2 x3 , x1 − x 2 , x 2 − 2 x3 ), ∀x = ( x1 , x 2 , x3 ) ∈ R 3 .
b) T ∈ End (R 3 ), T ( x) = ( x1 + x 2 , x 2 + x3 , x3 + x1 ), ∀x = ( x1 , x 2 , x3 ) ∈ R 3 .
Pentru fiecare dintre cele două transformări, determinaţi:
♦ KerT şi ImT . Sunt KerT şi ImT subspaţii suplementare în R 3 ?
♦ Este T injectivă ? Dar surjectivă ? Dacă T este inversabilă, determinaţi inversa
acesteia.

R. Temă b). a) KerΤ = L({v1 = (2,2,1)}), ImΤ = L({(1,1,0), (0,−1,1)}) ; nucleul şi


imaginea formează subspaţii suplementare în R 3 , deoarece KerΤ ∩ ImΤ = {0} ,
KerΤ + ImΤ = R 3 ; T nu este nici injectivă, nici surjectivă (deci nu este inversabilă).

9. Să se determine matricea asociată transformării liniare, în raport cu bazele


canonice ale spaţiilor, în cazurile

py
 ix − x 
a) T : C → M 2×2 (C), T ( x) =  , ∀x ∈ C .
 − ix x 
Co
b) T : R 3 → C 3 ,T ( x) = (ix1 , x 2 − (1 + i ) x1 ,−ix3 ), x = ( x1 , x 2 , x3 ) ∈ R 3
EB
c) T : M 2× 2 ( K ) → M 2× 2 ( K ), T ( A) = tA .

R. a) B M 2× 2 ( C) = {e11 , e12 , e21 , e22 } , unde eij = (δ ki δlj ) k , l =1, 2 ; [T ] = t (i,−1,−i,1) .


tW

 i 0 0 1 0 0 0
   
0 0 1 0
b) [T ] =  − 1 − i 1 0  ; c) B M 2 × 2 ( R ) = {e11 , e12 , e21 , e22 }, [T ] =  .
 0 0 1 0 0
0 − i 
en

 0 
 0 0 1
ud

10. Arătaţi că în spaţiul vectorial real V al funcţiilor reale, fiecare dintre


mulţimile
St

S = {cos x,sin x}, S ′ = {e 2 x sin 5 x, e 2 x cos 5 x}, S ′′ = {3,1 − x,1 − 2 x + e x }


este liniar independentă şi generează un subspaţiu W finit dimensional. Utilizând
mulţimile date ca baze pentru subspaţiul W, să se găsească în fiecare caz matricea
ataşată operatorului de derivare D: W → W .

 0 − 1 − 1
 0 1  2 − 5  
R. [ D]S =  , [ D]S ′ =   [ D]S ′′ =  0 0 − 1 .
 −1 0 5 2  0 0 1 
 

11. Să se determine matricele transformărilor liniare T : R 3 → R 3 în raport cu


baza formată din vectorii v1 = (1,2,3), v2 = (2,1,3), v3 = (1,1,1) cunoscând că matricele
acestora în raport cu baza canonică a spaţiului R 3 sunt respectiv

60 Cap.II. Transformări liniare


 3 2 0  − 1 2 − 3 1 − 1 2
     
a ) A1 =  − 1 0 0 ; b) A2 =  − 2 2 − 6 ; c) A3 =  3 − 3 6  .
 0 0 0  − 2 2 − 6  2 − 2 4
     

R. A′ = C −1 AC , unde C = [v1 , v 2 , v3 ], A ∈ { A1 , A2 , A3 } .

12. Fie V un spaţiu vectorial real, C V complexificatul său şi T : V → V un


endomorfism. Funcţia C T : CV → CV definită prin C T (u, v) = (Tu , Tv ) sau altfel scris
C
T (u + iv) = Tu + iTv, se numeşte complexificatul endomorfismului T .
a) Să se arate că C T este o transformare liniară care satisface proprietăţile:
C
(S + T ) = C S + C T ; C
( ST ) = C S C T ;
C
(kT ) = k C T , k ∈ R ; ( C T ) −1 = C (T ) −1 , dacă T este inversabilă.

py
b) Fie T : C n → C m o transformare liniară. Prin reprezentarea reală a
transformării T înţelegem transformarea liniară reală RT : R C n → R C m care coincide

Se dă transformarea liniară Co
punctual cu T , unde R C n , R C m sunt trecerile în real ale spaţiilor C n şi C m .

T : C 3 → C 3 , T ( x) = ( x1 + ix 2 , x1 + x3 ,ix3 ), ∀x = ( x1 , x 2 , x3 ) ∈ C 3 .
EB
Să se determine matricea reprezentării reale a lui T în baza {v1 , v 2 , v3 } , unde
v1 = (0, i,1), v2 = (0,0, i ), v3 = (1,−2,2) .
tW

R. b) Trecerea în real a spaţiului vectorial complex este dată de identificarea


( x1 + iy1 , x 2 + iy 2 , x3 + iy 3 ) ∈ C 3 ≡ ( x1 , y1 , x 2 , y 2 , x3 , y 3 )∈R C 3 ≡ R 6 .
Matricea A a reprezentării reale a lui T relativ la baza canonică (vechea bază) a lui
en

1 0 0 −1 0 0
 
ud

0 1 1 0 0 0

C 3 ≡ R 6 , este A = 
1 0 0 0 1 0
R
. Noua bază este B′ = {v1 ≡t (0,0,0,1,1,0),
0 1 0 0 0 1 
St

0 0 0 0 0 1

 
0 0 0 0 − 1 0
t t t t t
iv1 ≡ (0,0, −1,0,0,1), v2 ≡ (0,0,0,0,0,1), iv2 ≡ (0,0,0,0, −1,0), v3 ≡ (1,0, −2,0, 2,0), iv3 ≡ (0,1,0,−2,0, 2)} .
Matricea A' a reprezentării reale a lui T relativ la noua bază B ′ din R C 3 ≡ R 6 este
dată de relaţia A′ = C −1 AC , cu matricea de trecere
C = [v1 , iv1 , v 2 , iv 2 , v3 , iv3 ] ∈ M 6 (R ) ,

13. Fie T : R 3 → R 3 endomorfismul care transformă vectorii v1 = (0,0,1),


v 2 = (0,1,1),v3 = (1,1,1) în vectorii w1 = (1,2,1), w2 = (3,1,2), w3 = (7,−1,4) .
Să se determine matricea lui T ∗ (transpusa lui T ), în baza ortonormată
e1 = (1,0,0), e2 = (0,1,0), e3 = (0,0,1) .

R. [T ][v1 , v 2 ,v3 ] = [ w1 , w2 ,w3 ] ⇒ [T ] = [ w1 , w2 ,w3 ][v1 , v 2 ,v3 ] −1 ; [T *]= t [T ] .

Algebră liniară 61
14. Să se determine adjuncta (transpusa) T * a transformării liniare
T : R 3 → R 2 , T ( x) = ( x1 − 2 x3 ,3x 2 ),∀ x = ( x1 , x 2 , x3 ) ∈ R 3 .

 1 0
  t
R. T * ( y ) = ( y1,3 y2 ,−2 y1 ), ∀y = ( y1, y2 ) ∈ R ; [T *] =  0 3 = [T ] .
2
 − 2 0
 

15. Să se arate că transformările liniare asociate matricelor


 27 18 27  1 0 0
A1 =  − 21 − 14 − 21  şi A2 =  0 0 0  sunt proiecţii.
  0 0 1
 − 12 − 8 − 12   
R. Se verifică faptul că pătratul fiecărei matrici asociate este ea însăşi.

16. Fie V2 spaţiul vectorial al vectorilor legaţi în originea O, identificat cu

py
mulţimea punctelor din plan E 2 , şi fie T : V 2 → V2 transformarea liniară definită prin
→ → → → r r r r
T (a) = b ,T (b) = c , unde punctele A(a ), B(b ), O(0) sunt necoliniare, iar C (c ) un
punct oarecare din plan. Să se determine punctul C astfel încât
a) T să fie o proiecţie;
Co
EB
b) T să fie o structură complexă.
r r r r r r
T 2 (a ) = T (a ) r r r T 2 (a ) = −a c = − a
R. a)  2 r r ⇔ T (c ) = c = b , deci C = B . b)  2 r r⇔ r r,
T (b ) = T (b ) T (b ) = −b = −
tW

T ( c ) b
care are loc doar dacă OC = −OA .
en

17. Arătaţi că matricile următoare sunt nilpotente de ordinele doi (în cazul a)
şi respectiv trei (în cazurile b,c):
ud

0 1 0 1 0 0 − 2 0

a) A =  
; b) A =  0 
0 1 ; c) A =  0 0 3
 .
 0 0    
St

0 0 0 0 0 0

R. a) A 2 = O2 ; b), c) A 3 = O3 .
1+i i 
18. Fie T : C 2 → C 2 endomorfismul definit prin matricea [T ] =   în
 1 3−i 
baza canonică a spaţiului vectorial C2 . Să se găsească matricile
hermitiene T1,T2 ∈ End(C ) astfel încât să aibă loc relaţia T = T1 + iT2 .
2

 1 (1+ i) / 2  1 (1+ i) / 2
R: [T1] =  , [T2 ] =  .
(1− i) / 2 3  (1− i) / 2 −1 

62 Cap.II. Transformări liniare


19. Să se arate că endomorfismul T : R 3 → R 3 definit prin matricea
 − sin θ 0 cos θ 
A= 0 1 0
 (considerată relativ la baza canonică a lui R 3 ) este ortogonal.
 
 cos θ 0 sin θ 

R. A A = I 3 .
t

20. Să se arate că transformările liniare de mai jos au proprietăţile specificate


(spaţiile euclidiene considerate sunt înzestrate cu produsele scalare canonice).
a) T ∈ End ( M 2 (R )), T ( A)= t A, ∀A ∈ M 2 (R ) , ( < A, B >= Tr ( A⋅t B ))
este involuţie (T 2 = Id ) simetrică (< T ( A), B >=< A, T ( B ) >) .
b) T ∈ End (V ) , unde T ( f ) = f ', ∀f ∈V .
V = { f : [a, b] → R f ∈ C ∞ (a, b) , f continuă pe [a , b] , f d( k ) (a ) = f s( k ) (b), ∀k ∈ N} ,
b
este antisimetrică ( < T ( f ), g >= − < f , T ( g ) > ), unde < f , g >= ∫ f (t ) g (t )dt .
a

py
T ∈ End (R 2 ), [T ] = 
cos α − sin α 
c) , α ∈ R , este transformare liniară
 sin α cos α 
ortogonală ( < T ( x), T ( y ) >=< x, y >, ∀x, y ∈ R 2 ).
d) Transformarea T ∈ End (C 2 ), [T ] = 
4
3 + i
Co 3 − i
2 
 este transformare liniară
EB
hermitică ( < T (u ), v >=< u , T (v) > ).
tW

 1 i + 1
21. Fie matricea A =   ∈ M 2×2 (C) . Să se determine o matrice unitară
 − i i + 1
U astfel încât matricea U −1 AU să fie triunghiulară.
en

R. Dacă U = 
a b
 , din condiţia U U = I 2
t
(deci U −1 = t U ) şi anularea
 c d 
ud

 x y
coeficientului din stânga jos al matricii tU AU =   , rezultă sistemul:
0 z 
St

2 2 2 2
a + b = 1, c + d = 1, ac + bd = 0; a (b − id ) + c(b + d )(1 + i ) = 0 ;
1 1 i   i 1
obţinem U =   , care produce U −1 AU =   .
2  i 1  0 2

22. Să se determine izometria J : R 2 → R 2 ştiind că duce punctele A1 = (1,0) ,


A2 = (2,0), A3 = (2,1) respectiv în punctele B1 = (1,−2), B2 = (1,−3), B3 = (0,−3) .

 x   a   α β  x  2
R. Relaţia formală J   =   +   , α + χ 2 = β 2 + δ 2 = 1, αβ + χδ = 0 şi
y
     b χ δ  y 
condiţiile impuse J ( Ai ) = Bi , ∀i = 1,3 , conduc la expresia analitică a transformării,

 x   1   0 − 1 x 
J   =   +    .
 y   − 1  − 1 0  y 

Algebră liniară 63
Capitolul 3

VECTORI ŞI VALORI PROPRII

#1. Vectori şi valori proprii

Definiţii. Fie V un K-spaţiu vectorial şi T∈ End (V ) un endomorfism.


a) Se numeşte vector propriu al endomorfismului T un vector nenul
x ∈ V \ {0} , astfel încât există λ ∈ K cu proprietatea
Tx = λ x .
Scalarul λ se numeşte în acest caz valoarea proprie a lui T corespunzătoare
vectorului propriu x.
b) Se numeşte spectrul endomorfismului T, şi se notează cu σ(T ) , mulţimea

py
tuturor valorilor proprii ale endomorfismului.

Observaţii. 1. Ecuaţia Co
Tx = λ x, x ≠ 0 este
x ∈ Ker(T − λI ), x ≠ 0 , unde I este endomorfismul identitate.
echivalentă cu
EB
2. În particular pentru o transformare liniară neinjectivă, vectorii nenuli din
Ker T sunt vectori proprii ai lui T ataşaţi valorii proprii zero.
3. Dacă un vector x ∈ V \ {0} este vector propriu al lui T , atunci pentru fiecare
tW

k ∈ K \ {0} , vectorul kx este propriu.

1.1 Teoremă. Dacă V este un K -spaţiu vectorial şi T∈ End (V ) , atunci


en

1) Fiecărui vector propriu al lui T îi corespunde o singură valoare proprie


λ ∈ σ(T ) .
ud

2) Vectorii proprii ce corespund la valori proprii distincte sunt liniar independenţi.


3) Fie λ o valoare proprie a endomorfismului T. Mulţimea
St

S λ = { x T x = λ x, x ∈ V }
este un subspaţiu vectorial al lui V, invariant faţă de T, adică are loc incluziunea
T (Sλ ) ⊆ Sλ .
Subspaţiul S λ poate fi finit sau infinit dimensional şi se numeşte subspaţiul
propriu ataşat valorii proprii λ .

Demonstraţie. 1) Fie x un vector propriu asociat valorii proprii λ , deci


Tx = λ x, x ≠ 0 . Dacă ar exista o altă valoare proprie λ′ ∈ K astfel încât
T x = λ ′ x, x ≠ 0 , atunci am avea λ x = λ ′x ⇔ (λ − λ ′) x = 0 , dar deoarece x ≠ 0 ,
rezultă λ = λ ′ .
2) Fie x1 ,..., x p vectorii proprii ai endomorfismului T, corespunzători valorilor proprii
distincte λ 1,..., λ p∈ σ(T ) . Efectuăm după p ∈ N . Pentru p = 1, vectorul propriu este

64 Cap.III. Vectori şi valori proprii


diferit de vectorul nul, deci se constituie într-un sistem (de un singur vector) liniar
independent. Fie proprietatea adevărată pentru p − 1 vectori. Aplicând T relaţiei
k1 x1 + k 2 x 2 +...+ k p−1 x p−1 + k p x p = 0 (*)
rezultă T (k1 x1 + ... + k p x p ) = 0 şi deci, folosind linearitatea endomorfismului T şi
faptul că x1 ,..., x p sunt vectori proprii ai lui T , obţinem k1λ 1 x1 + K + k p λ p x p = 0.
Scăzând relaţia (*) amplificată cu λ p , avem
k1 (λ 1 − λ p ) x1 + ... + k p −1 (λ p −1 − λ p ) x p −1 = 0
care, folosind ipoteza de inducţie, implică k1 = k 2 =... = k p−1 = 0 . Din (*) rezultă
k p x p = 0 şi, cum x p ≠ 0 rezultă şi k p = 0 , deci ind {x1 , K, x p } .
3) Pentru orice x, y ∈ S λ şi k , l ∈ K avem
T (kx + ly ) = kT ( x) + lT ( y ) = kλ x + lλ y = λ(kx + ly ) ⇒ kx + ly ∈ S λ ,
deci S λ este subspaţiu vectorial în V . Dacă x ∈ S λ , atunci Tx = λx ∈ S λ ,
adică T ( S λ ) ⊆ S λ . ‰

py
1.2. Teoremă. Subspaţiile proprii S λ1 , S λ 2 corespunzătoare la valori proprii

Co
distincte λ 1 , λ 2 ∈ σ( A), λ 1 ≠ λ 2 , sunt disjuncte (deci au în comun doar vectorul nul).
EB
Demonstraţie. Fie λ 1 , λ 2 ∈ σ( A), λ 1 ≠ λ 2 . Dacă prin absurd ar exista
x ∈ S λ1 I S λ 2 \ {0} , ar rezulta Tx = λ 1 x şi Tx = λ 2 x , deci (λ 1 − λ 2 ) x = 0 ⇒ λ 1 = λ 2 ,
absurd. Rezultă S λ1 I S λ 2 = {0} . ‰
tW

#2. Polinom caracteristic al unui endomorfism


en

 a11 L a1n 
ud

 
Definiţie. Fie A =  M O M  ∈ M n× n (K ) o matrice pătratică de ordinul
a L a 
St

 n1 nn 

 x1 
 
n şi fie X =  M  ∈ M n×1 ( K ) \ {0} un vector coloană cu coeficienţi în corpul
x 
 n
K ∈ {R, C} . Dacă există un scalar λ ∈ K astfel încât să aibă loc relaţia
AX = λX , (1)
atunci X se numeşte vector propriu al matricii A, iar λ se numeşte valoare proprie a
matricii A şi notăm λ ∈ σ( A) . Ecuaţia matriceală (1) se rescrie ( A − λI ) X = 0 şi este
echivalentă cu sistemul liniar (numit sistem caracteristic al matricii A)
(a11 − λ) x1 + a12 x2 + ... + a1n xn = 0
a x + (a − λ) x + ... + a x = 0
 21 1 22 2 2n n
 . (1')
..............................................
an1 x1 + an 2 x2 + ... + (ann − λ) xn = 0

Algebră liniară 65
Fiind un sistem omogen, acesta are soluţii nebanale doar în cazul în care scalarul λ
satisface ecuaţia algebrică
a11 − λ a12 K a1n
not a12 a22 − λ K a2 n
PA (λ) = det( A − λI ) = 0 ⇔ = 0. (2)
M M O M
an1 an 2 K ann − λ

2.1. Definiţii. a) Se numeşte polinomul caracteristic al matricei A , polinomul


PA (λ ) = det( A − λI ) .
b) Ecuaţia (2) este o ecuaţie algebrică de grad n în necunoscuta λ , şi se
numeşte ecuaţia caracteristică a matricei A.

Observaţii. 1. Valorile proprii ale matricei A sunt soluţiile din K ale ecuaţiei
caracteristice (2); mulţimea acestora formează spectrul matricii A, care se va nota prin

py
σ ( A) . Dacă notăm prin σ ( A) mulţimea rădăcinilor complexe ale polinomului
caracteristic al matricii A, se observă că avem σ ( A) = σ ( A) ∩ K .

Co
2. Fie A o matrice pătratică reală de ordinul n şi det( A − λI ) = 0 ecuaţia ei
caracteristică. Deoarece nu orice ecuaţie algebrică admite soluţii în R, dar admite
EB
soluţii în C, uneori valorile proprii ale lui A se definesc ca fiind elemente din C. În
acest caz vectorii proprii corespunzători aparţin complexificatului lui R n notat C R n .
tW

Teoremă. 1) Fie A = (aij ) i , j =1,n ∈ M n×n ( K ) . Polinomul caracteristic al


matricei A are expresia
P (λ ) = (−1) n (λn − δ1λn −1 + δ 2 λn − 2 − ... + (−1) n δ n ) , unde
en

♦ δ1 = Tr A, δ 2 = ∑ (a
1≤ j < k ≤ n
jj a kk − a kj a jk ),K , δ n −1 = ∑ m( a
1≤ j ≤ n
jj ), δ n = det A,
ud

♦ Tr ( aij ) = a11 + a 22 + K + a nn se numeşte urma matricii A,


♦ m(a jj ) este minorul obţinut din matricea A prin eliminarea liniei şi coloanei a i-a,
St

♦ δ k , k = 1, n reprezintă suma minorilor principali de ordinul k ai matricei A − λI .

2) Matricele A şi t A au acelaşi polinom caracteristic.


3) Două matrice asemenea au acelaşi polinom caracteristic.

Demonstraţie. 1) Vom da demonstraţia pentru matricele de ordinul doi sau trei;


obţinem prin calcul direct
a −λ a12
P (λ ) = 11 = λ2 − λ (Tr A) + det A, Tr A = a11 + a22 ;
a21 a22 − λ
iar pentru ordinul trei
a11 − λ a12 a13
P(λ) = a21 a22 − λ a23 = −λ3 + λ2 (Tr A) − λJ + det A,
a31 a32 a33 − λ
66 Cap.III. Vectori şi valori proprii
unde am folosit notaţiile
a11 a12 a11 a13 a22 a23
Tr A = a11 + a22 + a33 , J = + + .
a21 a22 a31 a33 a32 a33
2) PA (λ ) = det( A − λI ) = det t ( A − λI ) = det( t A − λI ) = Pt A (λ) .
3) Fie A şi A' două matrice asemenea, adică A' = C −1 AC , unde C este o matrice
nesingulară. Atunci
PA' (λ ) = det( A'−λI ) = det(C −1 AC − λI ) = det[C −1 ( A − λI )C ] =
= det(C −1 ) det( A − λI ) det C = det( A − λI ) = PA (λ) ‰

Pentru o matrice A reală (deci A coincide cu conjugata ei A ) şi simetrică


( A = A ) putem da următoarea
t

2.3. Teoremă. Valorile proprii ale unei matrice reale şi simetrice sunt reale.
Demonstraţie. Conjugând relaţia (1) AX = λX , rezultă (2) A X = λ X . În (1)

py
înmulţim la stânga cu t X , iar în (2) înmulţim la stânga cu t X . Relaţia A = t A
implică t X AX = t XA X şi deci obţinem (λ − λ) t X X = 0 . Cum vectorul X este nenul,
avem t X X ≠ 0 ⇒ λ = λ ⇒ λ ∈ R . Co ‰
EB
Exemple. 1. Aflaţi valorile şi vectorii proprii pentru matricea
 2 0 2 −1
 
 0 2 4 − 2
tW

A= .
2 −1 1 1 
 
2 −1 −1 3 
Soluţie. Polinomul caracteristic PA (λ ) = det( A − λI ) = (λ − 2) 4 are drept
en

rădăcini valorile proprii ale matricii A, λ 1 = λ 2 = λ 3 = λ 4 = 2. Sistemul caracteristic


ud

(1) se scrie AX = 2 X , X = t ( x1 , x 2 , x3 , x 4 ) , şi este echivalent cu sistemul (1')


2 x 3 − x 4 = 0
St


2 x1 − x 2 − x3 + x 4 = 0
Obţinem x2 = 2 x1 + x3 , x4 = 2 x3 . şi notând x1 = a şi x3 = b soluţia se scrie
x1 = a, x2 = 2a + b, x3 = b, x4 = 2b, a, b ∈ R .
Rezultă X = t (a,2a + b, b,2b) = a t (1,2,0,0) + b t (0,1,1,2) , deci valorii proprii λ = 2 îi
corespund doi vectori proprii liniar independenţi
v1 = t (1,2,0,0) şi v 2 = t (0,1,1,2) ,
bază a subspaţiului propriu S λ1 = L(v1 , v2 ) . Se observă că dimS λ1 = 2 < 4 = dim R 4 .

 6 6 0
 
2. Aflaţi valorile şi vectorii proprii pentru matricea A =  − 3 − 3 0  .
 − 3 − 6 3
 

Algebră liniară 67
Soluţie. Polinomul caracteristic este P (λ ) = −λ(λ − 3) 2 . Din ecuaţia
caracteristică (2) rezultă valorile proprii λ 1 = λ 2 = 3, λ 3 = 0 , iar din sistemul
caracteristic (1'), vectorii proprii liniar independenti
v1 = t (−2,1,0), v 2 = t (0,0,1), v3 = t (1,−1,−1) .

Observaţii. 1. Fie Vn un spaţiu vectorial finit dimensional peste corpul K şi


T : Vn → Vn un endomorfism. Fie x un vector propriu al lui T şi λ valoarea proprie
asociată. Atunci x şi λ satisfac relaţia Tx = λx . Fixăm o bază în Vn şi notăm cu A
matricea ataşată endomorfismului T şi cu X matricea coloană ataşată vectorului x.
Relaţia Tx = λx este echivalentă cu ecuaţia matriceală
AX = λX .
2. Fie PA (λ) = det( A − λI ) polinomul caracteristic al matricei A. Din cele de
mai sus se vede că, dacă există, valorile proprii ale endomorfismului T sunt rădăcinile
lui PA (λ ) în K, iar vectorii proprii ai lui T sunt soluţiile ecuaţiei matriceale

py
( A − λI ) X = 0.
De asemenea, teorema 2.2 arată că polinomul
Co
PA (λ) = det( A − λI )
este invariant faţă de o schimbare a bazei din Vn , adică coeficienţii lui PA (λ )
EB
depind de endomorfismul T şi nu de reprezentarea matriceală particulară A a lui T.
În consecinţă, nedepinzând efectiv de A, numărul det A se numeşte determinantul lui
T, numărul Tr A se numeşte urma lui T, etc; putem în concluzie da următoarea
tW

2.4. Definiţie. Fie T ∈ End (Vn ) un endomorfism şi A matricea asociată


acestuia în raport cu o bază fixată a spaţiului vectorial Vn . Atunci polinomul
en

P (λ) = PA (λ ) ≡ det( A − λI )
se numeşte polinomul caracteristic al endomorfismului T.
ud

Observaţii. 1. Endomorfismul T : Vn → Vn are cel mult n valori proprii


St

distincte. Dacă T are exact n valori proprii distincte, atunci vectorii corespunzători
determină o bază a lui Vn şi matricea A ataşată lui T în raport cu această bază este o
matrice diagonală având pe diagonală valorile proprii ale lui T.
2. Fie Vn un spaţiu vectorial real n-dimensional şi T : Vn → Vn un
C C
endomorfism. Notăm cu V n complexificatul spaţiului vectorial Vn şi cu T
C
complexificatul endomorfismului T. Cum T şi T au aceeaşi reprezentare
matriceală, valorile proprii ale lui T sunt exact valorile proprii complexe σ ( A) ale
C

matricei reale asociată lui T, privită ca matrice complexă.


Având în vedere acest lucru, se observă că valorile proprii ale unui
endomorfism real T (care formează spectrul σ (T ) al lui T) sunt valorile proprii reale
σ (T ) = σ (T ) ∩ R , unde σ (T ) este spectrul endomorfismului complexificat C
T.

68 Cap.III. Vectori şi valori proprii


Exemplu. Aflaţi valorile şi vectorii proprii ai endomorfismului T ∈ End (R 3 )
 2 0 0
 
descris de matricea A =  0 − 2 1  .
 0 − 1 0
 
Soluţie. Polinomul caracteristic al endomorfismului T este
P (λ) = −(λ + 1) 2 (λ − 2) ,
valorile proprii sunt λ 1 = 2, λ 2 = λ 3 = −1 ; doi vectori proprii asociaţi sunt (temă,
verificaţi):
v1 = (1,0,0), v 2 = (0,1,1) .

#3. Forma diagonală a unui endomorfism

Dat fiind un endomorfism T∈ End (Vn ) , s-a văzut că matricea A = [T ]B

py
depinde de alegerea bazei B ⊂ Vn . Apare natural întrebarea dacă există o bază în Vn

Co
relativ la care matricea endomorfismului să aibă o formă cât mai simplă (canonică),
spre exemplu cu un număr cât mai mare de coeficienţi nuli exceptând diagonala. Cu
ajutorul valorilor şi vectorilor proprii ai endomorfismului T vom realiza acest lucru în
EB
cele ce urmează.

3.1. Definiţie. Un endomorfism T∈ End (Vn ) se numeşte diagonalizabil dacă


tW

există o bază B = {e1 ,..., en } astfel încât matricea lui A = [T ]B relativ la această bază
să fie o matrice diagonală (cu toţi coeficienţii din afara diagonalei, nuli).
Matricele din clasa de asemănare a matricii A care corespunde
en

endomorfismului diagonalizabil T relativ la baza B ⊂ Vn , se numesc matrice


diagonalizabile (asociate endomorfismului T).
ud

3.2. Teoremă. Un endomorfism T∈ End (Vn ) este diagonalizabil dacă şi


St

numai dacă există o bază a spaţiului Vn formată din vectorii proprii ai


endomorfismului.

Demonstraţie. Dacă T este diagonalizabil, atunci există o bază B = {e1 ,..., en } a


spaţiului faţă de care matricea lui T este diagonală, deci este de forma
 a11 0 K 0 
 
 0 a22 K 0 
A= .
 M M O M 
 
 0 0 K ann 
Deci au loc relaţiile Tei = aii ei ,i = 1, n , adică vectorii ei , i = 1, n sunt vectori proprii ai
endomorfismului T, asociaţi respectiv valorilor proprii aii , i = 1, n .

Algebră liniară 69
Reciproc, dacă B' = {v1 , v 2 ,..., v n } este o bază în Vn , formată din vectori
proprii ai lui T, adică au loc relaţiile Tvi = λ i vi , i = 1, n , atunci matricea lui T relativ
la această bază este
 λ1 0 K 0 
 
 0 λ2 K 0 
D = [T ] B ' = ,
 M M O M 
 
0 0 K λn 
unde scalarii λ i nu sunt neapărat distincţi. ‰

3.3. Definiţii. Fie λ ∈ σ(T ) o valoare proprie a endomorfismului T.


a) Se numeşte multiplicitate algebrică a valorii proprii λ şi o notăm prin
ma (λ ) , ordinul de multiplicitate al valorii proprii λ ca rădăcină a polinomului
caracteristic asociat endomorfismului T.
b) Se numeşte multiplicitate geometrică a valorii proprii λ şi o notăm prin

py
mg (λ ) , dimensiunea subspaţiului vectorial S λ asociat valorii proprii λ .

Teoremă. Dimensiunea unui subspaţiu propriu Co S λ 0 al endomorfismului


T∈ End (Vn ) este cel mult egală cu ordinul de multiplicitate al valorii proprii
EB
λ 0 ∈ σ( A) corespunzătoare subspaţiului S λ 0 .
Deci multiplicitatea geometrică a unei valori proprii este totdeauna cel mult
tW

egală cu cea algebrică.

Demonstraţie. Fie λ 0 o valoare proprie multiplă de ordinul m şi S λ 0 subspaţiul


propriu corespunzător. Avem dim S λ 0 = p ≤ n ; fie B = {e1 , e2 ,..., e p } o bază în
en

subspaţiul propriu S λ 0 . Distingem următoarele cazuri:


ud

♦ Dacă p = n , atunci ordinul de multiplicitate al valorii proprii λ 0 este n, căci relativ


St

la această bază matricea transformării liniare este diagonală


λ0 0 K 0 
 
 0 λ0 K 0 
A = [T ] B =  ⇒ P(λ) = (−1) n (λ − λ 0 ) n .
M M O M 
 
 0 0 K λ 0 
♦ Dacă p < n , completăm această bază până la o bază în Vn de forma
B = {e1 ,..., e p ; e p +1 ,..., en } .
Ţinând cont că vectorii ei , i = 1, p sunt vectori proprii asociaţi valorii proprii λ 0 , au
loc descompunerile
n
T (ei ) = λ 0 ei , i = 1, p; T (e j ) = ∑ a kj ek , j = p + 1, n .
k =1

Matricea lui T faţă de baza B va fi deci


70 Cap.III. Vectori şi valori proprii
 λ0 0 K 0 a1 p +1 K a1n 
 
 0 λ K 0 a2 p +1 K a2n 
 M 0
M O 0 M M M 
A = [T ]B =   ,
 0 0 K λ a pp +1 K a pn 
0
 M M O 0 M O M 
 
 0 0 K 0 anp +1 K ann 
 
şi deci polinomul caracteristic al lui T are forma
a pp +1 − λ K a pn
P (λ) = det( A − λI ) = (λ 0 − λ) Q(λ),
p
Q (λ ) = M O M .
anp +1 K ann − λ

Deoarece (λ − λ 0 ) p | P(λ ) , rezultă că ordinul m al valorii proprii este cel puţin p,


deci p ≤ m . ‰

py
3.4. Teoremă. Fie endomorfismul T∈ End (Vn ) . Atunci următoarele afirmaţii
sunt echivalente:
(i) T este diagonalizabil; Co
(ii) polinomul caracteristic al endomorfismului T are cele n rădăcini în
EB
corpul K şi dimensiunea fiecărui subspaţiu propriu este egală cu ordinul
de multiplicitate al valorii proprii corespunzătoare (pe scurt, σ (T ) ⊂ K şi
∀λ ∈ σ(T ) , ma (λ ) = mg (λ ) ) .
tW

Demonstraţie. Fie T ∈ End (Vn ) diagonalizabil, deci există o bază B = {e1 ,..., en } în
Vn , formată din vectori proprii pentru T, faţă de care matricea lui T este diagonală.
en

m
Descompunem polinomul caracteristic P(λ) = (λ − λ1 ) m1 (λ − λ 2 ) m2 ... (λ − λ p ) p , deci
ud

λ i , i = 1, p sunt valorile proprii ale lui T de multiplicităţi mi care satisfac relaţia


p

∑m = n.
St

i
i =1
Fără a afecta generalitatea, admitem că primii m1 vectori din baza {e1 , ..., en }
corespund lui λ1 , următorii m2 lui λ 2 etc. În concluzie, vectorii e1 ,..., em1 aparţin
subspaţiului propriu S λ1 corespunzător valorii proprii λ1 , ceea ce înseamnă că
numărul lor m1 este cel mult egal cu dim S λ1 . Pe de altă parte, conform teoremei 3.3,
avem dim S λ1 ≤ m1 . În concluzie m1 = dim S λ1 . Analog, rezultă
dim S λi = mi , i = 2, p .
Reciproc, fie dim S λi = mi , i = 1, p . Considerăm familia de vectori din Vn
n
B = {e1 ,..., em1 ,em1 +1 ,..., em2 ,..., em p −1 +1 ,..., em p }, ∑m
i =1
i = n,

Algebră liniară 71
aleasă astfel încât primii m1 vectori să constituie o bază în S λ1 , următorii m2 să
constituie o bază în S λ2 , etc. Prin inducţie după p , se poate arăta că B este bază
în Vn . Relativ la această bază, matricea endomorfismului T : Vn → Vn are forma
următoare
 λ1 0 ... 0 0 
 
 0 λ1 ... 0 M 
 ... ... ... ... M O 
 
 0 0 ... λ1 0 
A = [T ]B =  0 K K 0 O 0 K K 0 
 0 λ p 0 ... 0 
 
 M 0 λ p ... 0 
 O M ... ... ... ... 
 
 0 0 0 ... λ p 

py
deci o matrice diagonală. Prin urmare endomorfismul T este diagonalizabil.

Corolar. Dacă T ∈ End (V n ) este diagonalizabil, atunci are loc descompunerea


Co
Vn = S λ1 ⊕ S λ 2 ⊕ ... ⊕ S λ p .
EB
Fie V n un K-spaţiu vectorial, iar T ∈ End (V n ) un endomorfism al acestuia.
Pentru a obţine forma diagonală a lui T, putem da următorul algoritm.
tW

Algoritm de diagonalizare.
en

1. Fixăm o bază oarecare B ⊂ Vn şi determinăm matricea


ud

A = [T ]B = (aij ) i , j =1,n a endomorfismului T în această bază.


2. Aflăm valorile proprii ale endomorfismului, soluţiile în corpul K ale
St

ecuaţiei PA (λ) = 0 . Dacă σ(T ) ⊄ K , atunci algoritmul stopează, iar endomorfismul T


nu este diagonalizabil.
3. Dacă σ(T ) ⊂ K şi este format din p ( p ≤ n) valori proprii distincte
λ1 ,..., λ p cu ordinele de multiplicitate respectiv m1 ,..., mp , calculăm rangul fiecărei
matrice A − λ j I , j = 1, p . Dacă avem rang ( A − λ j I ) = n − m j , j = 1, p , adică spaţiul
vectorial al soluţiilor sistemului omogen ( A − λ j I ) X = 0 satisface condiţia
dim S λ j = m j , j = 1, p
atunci (cf. teoremei 3.4) endomorfismul T este diagonalizabil şi se trece la pasul 4;
altfel T nu este diagonalizabil, şi algoritmul stopează.
4. Se rezolvă cele p sisteme omogene
( A − λ j I ) X = 0, j = 1, p ,

72 Cap.III. Vectori şi valori proprii


ale căror soluţii formează subspaţiile proprii S λ j , j = 1, p . Astfel obţinem practic câte
o bază B j formată din m j vectori proprii, pentru fiecare subspaţiu propriu
S λ j , j = 1, p .
5. Reunim cele p baze ale subspaţiilor proprii, formând o bază
B' = B1 ∪ B 2 ∪ K ∪ B p a spaţiului vectorial V n .
6. Relativ la această bază B' matricea D = A' = [T ]B ' este matrice diagonală, şi
are pe diagonală valorile proprii λ1 ,..., λ1 ; ... ; λ p ,..., λ p , fiecare dintre acestea
apărând de un număr de ori egal cu ordinul său de multiplicitate.
7. Construim matricea diagonalizatoare (matricea modală) C, matricea de
trecere de la baza B la B' , C = [B' ]B .
8. Verificăm corectitudinea calculelor, testând relaţia D = C −1 AC sub forma
echivalentă CD = AC .

py
Exemple. 1. Determinaţi dacă endomorfismul T ∈ End (R 3 ) , definit prin
matricea asociată relativ la baza canonică

A= 2

 1
5Co
 − 2 − 7 − 5
3 

3 
EB
 2
este diagonalizabil sau nu.
Soluţie. Obţinem prin calcul polinomul caracteristic, P (λ) = (λ − 2) 3 ; o
tW

singură valoare proprie distinctă, λ 1 = 2 , rădăcină triplă a polinomului caracteristic


(m1 = 3). Avem
 - 4 - 7 - 5
 
en

rang( A − 2 I ) = rang  2 3 3  = 2 ≠ n − m1 = 3 − 3 = 0 ⇒ dim Sλ1 = 1 ≠ m1 = 3 .


1 2 1
 
ud

Deci endomorfismul T nu este diagonalizabil.


2. Diagonalizaţi endomorfismul T ∈ End (R 4 ) a cărui expresie analitică este
St

T ( x) = (− x1 + x4 , − x2 , − x3 − 2 x4 , x1 − 2 x3 + 3x4 ), ∀x = ( x1 , x2 , x3 , x4 ) ∈ R 4 .

Soluţie. În raport cu baza canonică a lui R 4 , matricea lui T este


−1 0 0 1 
 
0 −1 0 0 .
A=
 0 0 −1 − 2
 
 1 0 −2 3 
Obţinem polinomul caracteristic
P (λ ) = det( A − λI ) = (λ + 2)(λ + 1) 2 (λ − 4)
şi valorile proprii λ 1 = −2, λ 2 = λ 3 = −1, λ 4 = 4 . Ordinele de multiplicitate ale
valorilor proprii sunt respectiv m1 = 1, m2 = 2, m3 = 1.
Deoarece rang( A − λ1 I ) = 3 = n − m1 = 4 − 1 = 3, prin rezolvarea sistemului omogen
( A + 2 I ) X = 0, obţinem vectorul propriu generator v1 = t (−1,0,2,1) .
Algebră liniară 73
Analog, rang( A − λ2 I ) = 2 = n − m2 = 4 − 2 deci dim Sλ 2 = 2 , iar vectorii proprii
corespunzători sunt v 2 = t (0,1,0,0), v3 = t (2,0,1,0) .
Obţinem rang( A − λ 4 I ) = 3 = n − m3 , deci vectorul propriu corespunzător valorii
proprii λ 4 = 6 este v 4 = t (1,0,−2,5) .
Deci baza B' a spaţiului R 4 relativ la care matricea endomorfismului T este
diagonală, este B' = {v1 , v 2 , v3 , v 4 } . În concluzie endomorfismul T este diagonalizabil,
cu matricea diagonalizatoare C şi matricea diagonală D date respectiv de
−1 0 2 1  − 2 0 0 0
   
0 1 0 0 
C = [v1 , v2 , v3 , v4 ] =  , D = C −1 AC =  0 − 1 0 0
.
 2 0 1 − 2  0 0 −1 0
   
1 0 0 5   0 0 0 4

#4. Forma canonică Jordan

py
Fie Vn un K-spaţiu vectorial şi T∈ End (Vn ) un endomorfism al acestuia.
Co
Matricea A a lui T depinde de alegerea bazei în Vn . Condiţiile în care matricea A se
poate diagonaliza au fost date în teoremele 3.2 şi 3.4. În cazul în care aceste condiţii
EB
nu sunt toate satisfăcute, deci când diagonalizarea nu este posibilă, se poate testa dacă
endomorfismul admite o formă canonică mai generală, numită forma Jordan.
tW

4.1.Definiţii. a) Fie λ ∈ K . Se numeşte celulă Jordan de ordinul m ataşată


scalarului λ , şi se notează prin J m , matricea
λ 1 K K 0
 
en

0 λ 1 K 0
J m (λ ) = M M ∈ M mxm (K )
ud

 
 0 0 K K 1
0 0 K K λ 
St

Spre exemplu, avem următoarele celule Jordan


1 + i 1 0 
 
J 3 (1 + i ) =  0 1 + i 1  ∈ M 3 x 3 (C) ,
 0 0 1 + i 

 3 1
J 2 (3) =   ∈ M 2 x 2 (R ) , şi J 1 (7) = (7) ∈ M 1x1 (R ) .
 0 3
b) Endomorfismul T∈ End (Vn ) se numeşte jordanizabil dacă există o bază
în Vn faţă de care matricea endomorfismului să fie de forma
 J1 0 K 0 
0 J2 K 0

J = 
 M M O M 
0 0 Jp
 K

74 Cap.III. Vectori şi valori proprii


(forma canonică Jordan), unde J i sunt celule Jordan ataşate valorilor proprii λ i ,
i = 1, p ale endomorfismului T.

O celulă Jordan de ordinul s ataşată unei valori proprii λ ∈ σ(T ) multiplă de


ordinul m ≥ s corespunde vectorilor liniar independenţi e1 , e2 ,..., e s care satisfac
următoarele relaţii
Te1 = λe1 ,
Te = λe + e
 2 2 1

K
Tes = λe s + e s −1 .
După cum se observă din prima ecuaţie, vectorul e1 este propriu; vectorii e2 ,..., e s se
numesc vectori principali.

py
Observaţii. 1. Există endomorfisme ale spaţiilor vectoriale reale care nu admit
formă Jordan, şi anume acelea pentru care corpul K este R (deci K nu este corp

Co
algebric închis) iar ecuaţia caracteristică nu are toate cele n rădăcini în R
( σ(T ) ⊄ K = R ). Spre exemplu, endomorfismul T ∈ End (R 2 ) ,
T ( x) = (− x2 , x1 ), ∀x = ( x1 , x2 )∈ R 2 ,
EB
are drept valori proprii numerele complexe imaginare ± i ∉ R .
2. Endomorfismele spaţiilor complexe admit totdeauna la forma Jordan,
tW

deoarece orice ecuaţie algebrică de gradul n cu coeficienţi complecşi are toate cele n
rădăcini în corpul K = C .
3. Forma diagonală a unui endomorfism diagonalizabil este un caz particular
en

de formă canonică Jordan, anume cazul când toate celulele Jordan sunt de ordinul
unu.
ud

4. Forma canonică Jordan asociată unui endomorfism dat nu este unic


determinată. Doar numărul celulelor Jordan (care este egal cu numărul maximal de
St

vectori proprii liniar independenţi ai lui T) precum şi structura internă a celulelor


Jordan sunt unice. Ceea ce nu este unic determinat este ordinea celulelor Jordan pe
"diagonala" matricii canonice Jordan. Această ordine depinde de ordinea vectorilor
din baza B' - formată din vectori proprii şi princpali ai endomorfismului T.
5. Se poate arăta că pentru un un endomorfism T ∈ End (Vn ) al K-spaţiului
vectorial Vn , ce are valorile proprii distincte λ1 ,..., λ p de multiplicităţi respectiv
p
m1 , m2 , K , m p ( ∑ mk = n ), există p subspaţii vectoriale V j ⊂ V , j = 1, p , astfel încât
k =1

sunt satisfăcute următoarele proprietăţi:


♦ dim V j = m j , j = 1, p ;
♦ subspaţiile V j sunt invariante faţă de T;

Algebră liniară 75
♦ T/ V j = N j + λ j I m j , j = 1, p , cu N j endomorfism nilpotent de ordin cel mult m j ;

♦ are loc descompunerea în sumă directă


Vn = V1 ⊕ V2 ⊕ K ⊕ V p .
Pe baza acestui rezultat, se poate demonstra următoarea teoremă:

Teorema Jordan. Fie Vn un K-spaţiu vectorial n-dimensional. Dacă


endomorfismul T∈ End (Vn ) are valorile proprii în corpul K, atunci există o bază în
Vn (numită bază Jordan) faţă de care matricea lui T are forma Jordan..

Algoritm pentru găsirea unei baze Jordan

1. Se fixează o bază în Vn şi se determină matricea A ataşată endomorfismului

py
T ∈ End (Vn ) .
2. Prin rezolvarea ecuaţiei caracteristice PA (λ ) ≡ det( A − λI ) = 0 ; se determină
Co
valorile proprii distincte λ j , multiple de ordinul respectiv m j , j = 1, p . Algoritmul
p

∑m
EB
continuă doar dacă λ j ∈ K , ∀j ∈ 1, p (sau, echivalent, j = n ), altfel
j =1

endomorfismul nu este jordanizabil.


tW

3. Se Află vectorii proprii liniar independenţi corespunzători fiecărei valori


proprii λ j .
4. Se calculează numărul de celule Jordan, pentru fiecare valoare proprie
distinctă λ j în parte, număr egal cu dim S λ j = dim Vn − rang( A − λ j I ) .
en

mj
5. Se rezolvă sistemul ( A − λ j I ) X = 0 , pentru fiecare j = 1, p .
ud

Pentru j ∈ 1, p fixat, soluţiile vectori nenuli generează subspaţiul S λ j . Practic, se


determină întâi forma vectorilor proprii v ce generează S λ j prin rezolvarea sistemului
St

( A − λ j I )v = 0 .
Distingem cazurile:
♦ dim S λ j = m j , caz în care se determină o bază B j a subspaţiului S λ j = V j formată
din m j vectori proprii (soluţiile fundamentale ale sistemului de mai sus).
♦ dim S λ j ≤ m j , caz în care avem S λ j ⊂ V j , Sλ j ≠ V j .
În acest caz se determină forma generală v a vectorilor proprii din S λ j , se calculează
numărul m j − dim S λ j de vectori principali asociaţi, şi se află aceşti vectori,
rezolvând succesiv sistemele liniare
( A − λI ) w2 = v,K , ( A − λI ) ws = ws −1 .
La fiecare sistem în parte se verifică compatibilitatea acestuia, şi ţinând cont şi de
condiţiile sistemelor anterioare se obţin informaţii relativ la vectorul propriu generic v
76 Cap.III. Vectori şi valori proprii
căruia i se asociază aceşti vectori principali; apoi, în caz că acesta sistemul este
compatibil, se rezolvă.
Se determină în acest mod un număr de n j = dim S λ j seturi de vectori, ce conţin
fiecare câte un vector propriu v din baza spaţiului S λ j şi vectori principali asociaţi
acestuia (în cazul în care sistemele ce produc vectori principali asociaţi lui v sunt
compatibile).
Familia ordonată a acestor n j seturi corespunde la o familie de n j celule Jordan
aşezate pe diagonala matricii formei canonice Jordan, şi determină o bază B j în
subspaţiul invariant V j asociat valorii proprii λ j .
6. Se reunesc cele p baze ale subspaţiilor invariante V j , formând o bază
B' = B1 ∪ B 2 ∪ K ∪ B p
a spaţiului vectorial V n .
7. Relativ la această bază B' matricea J = A' = [T ]B ' este matrice în formă

py
canonică Jordan, şi are pe diagonală celulele Jordan asociate valorilor proprii
λ 1 ,..., λ p , dispuse în ordinea în care apar în baza B' seturile de vectori (formate din

Co
căte un vector propriu urmat, eventual, de vectorii principali asociaţi (daca aceştia
există).
EB
Celulele Jordan au ordinul egal cu numarul de vectori din setul corespunzător, şi
conţin valoarea proprie ataşată setului de vectori.
8. Se construieşte matricea jordanizatoare C, adică matricea C = [B' ]B de
tW

trecere de la baza B la B' .


9. Se verifică corectitudinea calculelor, testând relaţia
J = C −1 AC
en

sub forma echivalentă CJ = AC .


ud

Exemplu. Să se afle forma canonică Jordan a endomorfismului T ∈ End (R 4 ) ,


T ( x) = (2 x1 + x 2 ,−4 x1 − 2 x 2 , 7 x1 + x 2 + x3 + x 4 ,− 17 x1 − 6 x 2 − x3 − x 4 ) ,
St

∀x = ( x1 , x2 , x3 , x4 ) ∈ R 4 .
Soluţia I. Matricea endomorfismului T relativ la baza canonică a spaţiului
vectorial R 4 este
 2 1 0 0
 
 −4 −2 0 0
A= .
 7 1 1 1 
 
 − 17 − 6 − 1 − 1
Ecuaţia caracteristică λ4 = 0 are soluţia λ 1 = 0 = λ multiplă de ordin m1 = 4 .
Avem rang( A − λI ) = 2 , deci numărul celulelor Jordan este egal cu
n − rang( A − λI ) = dim S λ = 4 − 2 = 2 .
Ordinele celor două celule Jordan pot fi: ambele de ordin 2, sau una de ordin 3 şi
cealaltă de ordin 1.

Algebră liniară 77
Determinăm situaţia în care ne aflăm, folosind indicele de nilpotenţă al restricţiei
N1 = T/V1 − λIdV1 ; pentru aceasta aflăm subspaţiul V1 = Ker(T − λId ) 4 . Deoarece

 2 1 0 0 2
 
 −4 −2 0 0
( A − λI ) = 
2
= O4 x 4 ,
7 1 1 1
 
 − 17 − 6 − 1 − 1
 
obţinem,
S λ = Ker(T − λ Id ) ⊂ Ker(T − λ Id ) 2 = Ker(T − λ Id ) 3 =
= Ker(T − λ Id ) 4 = V1 = V = R 4
unde am notat prin Id transformarea idantică a spaţiului vectorial R 4 . Rezultă că
indicele de nilpotenţă h al restricţiei N 1 este egal cu 2.
Deoarece dim Ker (T − λI ) 2 = 4 şi dim Ker (T − λI ) = dim S λ = 2 , rezultă că
numărul celulelor Jordan de tip hxh=2x2 este egal cu

py
dim Ker (T − λJ ) 2 − dim Ker (T − λJ ) = 4 − 2 = 2 .
J 0  λ 1  0 1 .
Prin urmare forma Jordan este J = 1
0 J2 
Co
 , unde J 1 = J 2 =   = 
 0 λ  0 0

EB
Soluţia II. Deoarece rang( A − λI ) = 2 ⇒ dim S λ = 2 , rezultă că valorii
proprii λ = 0 îi corespund doi vectori proprii liniar independenţi pe care-i
determinăm rezolvând sistemul omogen dublu nedeterminat
tW

2 x1 + x 2 = 0
− 4 x − 2 x = 0
 1 2
( A − λI )v = 0, v = ( x1 , x 2 , x 3 , x 4 ) ⇔ 
t

7
 1 x + x + x3 + x 4 = 0
en

2
− 17 x1 − 6 x 2 − x 3 − x 4 = 0.
Notând x 3 = a , x 4 = b obţinem x1 = −(a + b) / 5, x 2 = 2(a + b) / 5 , deci soluţia generală
ud

a sistemului are forma v = (− (a + b) / 5, 2(a + b) / 5, a, b ) , a ≠ −b sau b ≠ 0 .


t
St

Deci există maximum doi vectori proprii liniar independenţi.


Deoarece diferenţa dintre multiplicitatea algebrică şi cea geometrică a valorii
proprii este 4 − 2 = 2 , vom determina 2 vectori principali, precum si vectorii proprii
cărora aceştia le corespund. Fie w2 = t (u1 , u 2 , u 3 , u 4 ) un vector principal; acesta
satisface sistemul neomogen
2u1 + u 2 = −(a + b) / 5
− 4u − 2u = 2(a + b) / 5
 1 2
( A − λ I ) w2 = v ⇔ 
7
 1 u + u 2 + u3 + u 4 = a
− 17u1 − 6u 2 − u 3 − u 4 = b.
Notând u3 = c, u4 = d obţinem soluţia sistemului (care este compatibil nedeterminat
∀a, b ∈ R , verificaţi !),
t
 6a + b − 5c − 5d − 17a − 7b + 10c + 10d 
w2 =  , , c, d  .
 25 25 
78 Cap.III. Vectori şi valori proprii
Deoarece condiţiile de compatibilitate Rouche sunt identic satisfăcute, rezultă că
fiecăruia dintre vectorii proprii liniar independenţi ai unei baze a subspaţiului S λ , i se
ataşează un vector principal.
Alegând a = 7 , b = −17 obţinem vectorul propriu v1 = (2,−4,7,−17) , şi
alegând a = 7, b = −17, c = d = 0 se obţine vectorul principal w1 = (1,0,0,0) ataşat
vectorului propriu v1 .
Alegând a = 1, b = −6 se găseşte vectorul propriu v 2 = (1,−2,1,−6) ; pentru
a = 1, b = −6, c = d = 0 , găsim vectorul principal w2 = (0,1,0,0) care se ataşează lui
v2 .
S-au obţinut seturile de vectori {v1 , w1} şi {v2 , w2 } , care prin reuniune
determină baza Jordan B'= {v1 , w1 , v2 , w2 } ⊂ R 4 . Corespunzător celor două seturi,
avem două celule Jordan de ordin 2 fiecare (numarul de vectori din fiecare set).
Relativ la baza B' matricea Jordan a endomorfismului T şi matricea de trecere la noua
bază sunt respectiv

py
0 1 0 0  2 1 1 0
   
0 0 0 0 −4 0 −2 1 
J = [T ]B ' =  , C = [v1 , w1; v2 , w2 ] = 
0 0 0 1

0 0 0 0
 Co  7 0 1 0
 
 −17 0 −6 0 
;
EB
acestea satisfac relaţia C −1 AC = J (CJ=AC) (temă, verificaţi !).
tW

#5. Spectrul endomorfismelor în spaţii euclidiene

Fie V un K-spaţiu vectorial euclidian şi T∈ End (V ) un endomorfism al


en

acestuia. Dacă λ ∈ σ(T ) iar x este un vector propriu ataşat lui λ , atunci are loc relaţia
< Tx, x >
λ= .
ud

< x, x >
Într-adevăr, avem < Tx, x >=< λx, x >= λ < x, x > şi cum x ≠ 0 , prin împărţire la
St

2
< x, x >= x ≠ 0 , rezultă afirmaţia.

5.1. Teoremă. Dacă T∈ End (V ) este un endomorfism hermitic al spaţiului


euclidian complex V , atunci:
1) Valorile proprii ale lui T sunt reale.
2) La valori proprii distincte ale lui T corespund vectori proprii ortogonali.
3) Dacă dim V = n , atunci T admite exact n vectori proprii ortogonali doi
câte doi (deci este diagonalizabil).

Demonstraţie. Din ipoteză T hermitic, deci < x, Ty >=< Tx, y >,∀x, y ∈ V . Vom
demonstra proprietăţile 1) şi 2). 1) Prin calcul direct obţinem

Algebră liniară 79
< Tx, x > < x, Tx > < Tx, x >
λ= = = = λ ⇒ λ∈R.
< x, x > < x, x > < x, x >
2) Fie λ 1 ≠ λ 2 valori proprii ale lui T şi v1 , v 2 ∈ V vectori proprii corespunzători.
Atunci avem
< Tv1 , v 2 >=< λ 1v1 , v 2 >= λ 1 < v1 , v 2 > ,
< Tv1 , v 2 >=< v1 , Tv 2 >=< v1 , λ 2 v 2 >= λ 2 < v1 , v 2 >= λ 2 < v1 , v 2 > .
Prin scădere rezultă (λ 1 − λ 2 ) < v1 , v 2 >= 0 ; dar întrucât λ 1 ≠ λ 2 , avem
< v1 , v 2 >= 0 , deci cei doi vectori proprii sunt ortogonali.
‰

Observaţii. 1. Pentru un endomorfism antihermitic valorile proprii sunt pur


imaginare sau nule; vectorii proprii corespunzători au aceleaşi proprietăţi ca şi în
cazul hermitic.
2. Pe spaţiile euclidiene reale, valorile proprii ale unui endomorfism simetric

py
sunt reale, iar valorile proprii reale ale unui endomorfism antisimetric sunt nule.
Dacă Vn este un spaţiu euclidian real n- dimensional, iar T∈ End (V ) este simetric,

Co
atunci T posedă n vectori proprii care constituie o bază ortogonală a lui Vn . Această
proprietate nu este adevărată pentru un endomorfism antisimetric.
EB
Corolar. Fie Vn un K-spaţiu vectorial n-dimensional, iar T ∈ End (Vn ) un
endomorfism simetric (pentru cazul K=R), sau hermitic (pentru cazul K=C).
tW

Atunci există o bază ortonormată B' ⊂ Vn astfel încât matricea [T ]B ' a


endomorfismului T relativ la baza B' este matrice diagonală (deci endomorfismul T
este diagonalizabil).
en

Exemplu. Arătaţi că endomorfismul T∈ End (C 3 ) al spaţiului vectorial


ud

euclidian complex C 3 dat prin matricea A este hermitic, apoi diagonalizaţi, unde
 3 − i 0
 
St

A =  i 3 0  ∈ M 3 (C) .
 0 0 4
 
Soluţie. T este endomorfism hermitic, deoarece baza canonică
B = {e1 = (1,0,0), e2 = (0,1,0), e3 = (0,0,1)} ⊂ C 3
este ortonormată, iar matricea asociată endomorfismului relativ la această bază
A = [T ]B este matrice hermitică (satisface relaţia A= t A ). Determinăm o bază
B ′ ⊂ C 3 faţă de care matricea endomorfismului să aibă forma diagonală. Valorile
proprii sunt reale: λ1 = 2, λ 2 = λ 3 = 4 , iar vectorii proprii corespunzători sunt
v1 = (1, i,0),v 2 = (0,0,1) pentru λ = 4 şi v3 = (i,1,0) , pentru λ = 2 , şi sunt ortogonali
doi câte doi. Normând vectorii proprii obţinem baza ortonormată
 v  1 i  v  i 1  
B' = u1 = 1 =  , ,0 , u 2 = 3 =  , ,0 , u 3 = v 2  .
 v1  2 2  v3  2 2  
80 Cap.III. Vectori şi valori proprii
Matricea de trecere de la baza canonică la baza B' şi matricea diagonală
asociată sunt deci
1 / 2 i / 2 0  4 0 0
   
C = i / 2 − 1/ 2 0  , D = [ A]B ' = C AC =  0 2 0  .
−1

   0 0 4
 0 0 1   

5.2. Teoremă. Fie V un spaţiu euclidian complex/real şi T∈ End (V) un


endomorfism unitar (pentru K=C), sau ortogonal (pentru K=R). Atunci:
1) Dacă aparţin corpului K, valorile proprii ale lui T au modulul 1.
2) La valori proprii distincte ale lui T corespund vectori proprii ortogonali.
3) Dacă V este spaţiu vectorial complex n-dimensional, atunci T posedă n
vectori proprii ortogonali doi câte doi.

Demonstraţie. Demonstrăm proprietăţile 1) şi 2). 1) Fie T un morfism unitar, λ ∈ C

py
o valoare proprie a acestuia, şi x ∈ V \ {0} un vector propriu corespunzător lui λ .
Rezultă relaţiile
Co
< T x, T x >=< λx, λx >= λλ < x, x >,
< T x, T x >=< x, x >,
EB
unde λ este conjugatul complex al lui λ . Prin scădere rezultă (λλ − 1) < x, x >= 0 .
2
Deoarece < x, x >≠ 0 , rezultă λλ − 1 = 0 sau λ =1, adică λ =1.
tW

2) Fie valorile proprii λ1 ≠ λ 2 şi x1 , x 2 vectori proprii asociaţi respectiv celor două


valori proprii. Atunci
< T x1 , T x 2 >=< x1 , x 2 > şi < T x1 , T x 2 >=< λ 1 x1 , λ 2 x 2 >= λ 1 λ 2 < x1 , x 2 > .
en

Prin scăderea acestor relaţii, rezultă


(λ 1 λ 2 − 1) < x1 , x 2 >= 0 .
ud

Deoarece valorile proprii au modulul unu şi sunt distincte, rezultă λ 1 λ 2 − 1 ≠ 0 ,


deci < x1 , x 2 >= 0 , şi deci vectorii x1 şi x 2 sunt ortogonali. ‰
St

Exemplu. Să se aplice teorema de mai sus endomorfismului T ∈ End (R 3 ) dat


 cos t 0 − sin t 
 
prin matricea A =  0 − 1 0 , t ∈ R \ U {(2k + 1)π} .
 sin t 0 cos t  k ∈Z
 
Soluţie. Matricea A a endomorfismului relativ la baza canonică este matrice
ortogonală ( A t A = I ), iar baza canonică este ortonormată relativ la produsul scalar
canonic (temă, verificaţi); deci endomorfismul T este ortogonal.
Verificăm că valorile proprii ale endomorfismului C T : C R 3 → C R 3 au modulul egal
cu unitatea şi că vectorii proprii (cu coeficienţi complecşi) corespunzători sunt
ortogonali. Valorile proprii ale lui C T , adică soluţiile ecuaţiei det( A − λI ) = 0 , sunt
λ 1 = −1, λ 2 = cos t + i sin t , λ 3 = cos t − i sin t .

Algebră liniară 81
Se observă că λ1 = λ 2 = λ 3 = 1 . Vectorii proprii corespunzători sunt, după normare
1 1
v1 = (0,1,0), v2 = (−i,0,1), v3 = (i,0,1) ∈ C3 .
2 2
3
Se verifică usor relaţiile de ortogonalitate în C
< v1 , v 2 >= 0, < v 2 , v3 >= 0, < v3 , v1 >= 0 ,
deci B' = {v1 , v 2 , v3 } ⊂ C 3 este o bază ortonormată (verificaţi !) complexă, relativ la
C
care transformarea liniară T∈ End ( C R 3 ) este diagonalizabilă, cu matricea
diagonală asociată
−1 0 0 
 
D = [ T ]B ' =  0 cos t + i sin t
C
0 .
0 0 cos t − i sin t 

Se mai observă că deşi T nu este diagonalizabilă ca endomorfism al spaţiului R 3


(deoarece σ(T ) ⊄ R ), putem ataşa vectorilor v 2 şi v3 vectorii reali (care nu sunt

py
vectori proprii pentru endomorfismul T):
1 1
u2 = Re(v2 ) = Re(v3 ) =
2
iar aceştia verifică condiţiile de ortogonalitate
Co
(0,0,1); u3 = Im(v2 ) = − Im(v3 ) =
2
(−1,0,0) ,
EB
< v1 , u2 >= 0, < v1 , u3 >= 0, < u2 , u3 >= 0 ,
deci am obţinut baza ortogonală B′′ = {v1 , u2 , u3} ⊂ R 3 care nu este formată din
vectori proprii, produsă de baza ortogonală B' = {v1 , v 2 , v3 } din C 3 .
tW

#6. Polinoame de matrice. Funcţii de matrice


en

Fie T ∈ End (Vn ) un endomorfism al K -spaţiului vectorial n-dimensional Vn


ud

şi A = (aij ) i , j =1,n ∈ M n×n ( K ) matricea acestuia relativ la o bază a lui Vn .


St

6.1. Definiţie. Oricărui polinom cu coeficienţi din corpul K,


Q(t ) = a m t m + a m −1t m −1 + K + a1t + a 0 ∈ K [t ] ,
îi putem asocia polinomul de endomorfisme
Q(T ) = amT m + am −1T m −1 + K + a1T + a0 J ∈ End (Vn ) ,
şi polinomul de matrice
Q( A) = am Am + am −1 Am −1 + K + a1 A + a0 I ∈ M n× n ( K ) ,
unde J ∈ End (Vn ) este endomorfismul identic, iar I ∈ M n× n (K ) este matricea
identitate de ordinul n .

Observaţie. Studiul polinoamelor de endomorfisme se reduce la studiul


polinoamelor de matrice; puterile de matrice se pot calcula relativ uşor, făcând uz de
forma canonică a matricilor respective, după cum urmează:

♦ dacă matricea A este similară cu o matrice diagonală D, atunci


82 Cap.III. Vectori şi valori proprii
A = CDC −1 , A 2 = CD 2 C −1 , K , A m = CD m C −1 ;
♦ dacă matricea A este similară cu o matrice Jordan J, atunci
A = CJC −1 , A 2 = CJ 2 C −1 , K, A m = CJ m C −1 .

6.2. Teorema Cayley-Hamilton. Fie A ∈ M n×n (K ) o matrice şi PA polinomul


caracteristic al matricii A. Atunci are loc relaţia P( A) = O , unde O este matricea
n n
nulă de ordinul n.

Demonstraţie. Pentru o matrice arbitrară C ∈ M n×n (K ) , are loc relaţia


C ⋅ C + = (det C ) I , (*)
+
unde C este reciproca matricii C. Fie A ∈ M n×n (K ) şi P(λ) = det( A − λI ) polinomul
său caracteristic. Considerând C = A − λI , unde I este matricea unitate de ordinul n,
egalitatea (∗ ) devine
( A − λI )( A − λI ) + = P(λ) I . (**)

py
Prin construcţie ( A − λI ) este o matrice de polinoame de grad n − 1, deci are forma
+

( A − λI ) + = Bn −1λn −1 + Bn −2 λn −2 + K + B0 ,
Co
unde Bi ∈ M n×n (K ) , i = 0, n − 1 . Fie polinomul caracteristic al matricii A:
P (λ ) = an λn + an −1λn −1 + K + a0 , ak ∈ K , ∀k ∈ 0, n ;
EB
atunci egalitatea (∗∗ ) se rescrie
( A − λI )( Bn −1λn −1 + Bn − 2λn − 2 + K + B1λ + B0 ) = (an λn + an −1λn −1 + K + a0 ) I ,
tW

sau, grupând după puterile lui λ ,


(− Bn −1 )λn + ( ABn −1 − Bn − 2 )λn −1 + K + ( AB1 − B0 )λ + AB0 =
= (a n I )λn + K + (a1 I )λ + a 0 I
en

Prin identificare obţinem relaţiile


− Bn −1 = a0 I , ABn −1 − Bn − 2 = an −1 I ,K, AB1 − B0 = a1 I , AB0 = a0 I .
ud

Amplificând aceste relaţii la stânga respectiv cu A n , A n −1 ,K , A, I şi apoi adunându-le


membru cu membru, obţinem
St

P ( A) = a 0 A n + a1 A n −1 + K + a n −1 A + a n I =
= − A n Bn −1 + A n Bn −1 − A n −1 Bn − 2 + A n −1 Bn − 2 − K + AB0 + AB0 = 0 ‰

Corolar. Dacă T∈ End (Vn ) este un endomorfism, iar P (λ ) este polinomul


său caracteristic, atunci are loc egalitatea de polinoame de endomorfisme
P (T ) = O .

Exemple. 1. Calculaţi polinomul de matrice Q( A) , unde

 2 1 1
 
Q(t ) = t − 6t + 9t − 4 , A =  1 2 1  ∈ M 3 x 3 (R ) .
3 2

 1 1 2
 
Algebră liniară 83
Soluţie. Polinomul caracteristic al matricei A este
PA (λ ) = det( A − λI ) = (λ − 1) 2 (λ − 4) = −(λ3 − 6λ2 + 9λ − 4)
şi deci, în baza teoremei Cayley-Hamilton avem PA ( A) = O ; făcând uz de aceasta,
prin calcul direct rezultă Q( A) = − PA ( A) = O .

 2 1 0
 
2. Se dă matricea A = 0 2 1  . Calculaţi matricea inversă A −1 folosind
 0 0 2
 
teorema Cayley-Hamilton.

Soluţie. Polinomul caracteristic al matricii este


PA (λ ) = (2 − λ ) 3 .
Se observă că termenul liber al polinomului (care este egal cu determinantul matricii)
este 8, deci nenul, şi prin urmare matricea A este inversabilă. Aplicând teorema

py
Cayley-Hamilton, avem PA ( A) = 0 , adică
( A − 2 I ) 3 = 0 ⇔ A 3 − 6 A 2 + 12 A − 8I = 0 ,
sau încă,
Co
A ⋅ ( A 2 − 6 A + 12 I ) / 8 ≡ ( A 2 − 6 A + 12 I ) / 8 ⋅ A = I
EB
de unde, prin amplificare cu A −1 , rezultă
1 / 2 − 1 / 4 1 / 8 
 
A −1 = ( A 2 − 6 A + 12 I ) / 8 =  0 1/ 2 − 1/ 4 .
tW

 0 0 1 / 2 

6.3. Teoremă. Fie A ∈ M n×n (K ) o matrice de ordin n. Atunci orice polinom


en

în A de grad cel puţin n, poate fi exprimat printr-un polinom de gradul n − 1.


ud

Demonstraţie. Polinomul caracteristic ataşat matricei A este


P (λ ) = (−1) n (λn − δ1λn −1 + K +(−1) n δ n ) ;
St

aplicând teorema Cayley-Hamilton, rezultă că puterea maximă A n a matricii A în


P ( A) are expresia
A n = δ1 A n −1 − K +(−1) n +1 δ n I . ‰

Observaţii. 1. Se observă că prin recurenţă toate puterile A n+ p , p ∈ N ale


matricii A de ordin n se exprimă cu ajutorul puterilor A n −1 , K , A, I .
2. Fie V un K - spaţiu vectorial şi o serie de puteri f (t ) = ∑ a m t m , a m ∈ K .
m

Această serie are sens pentru t ∈ V (spre exemplu numere reale, numere complexe,
matrice pătratice, funcţii, polinoame, endomorfisme etc.) dacă putem defini puterea
t m . În cele ce urmează vom presupune cunoscute rezultatele din analiza matematică
privind convergenţa seriilor de puteri.

84 Cap.III. Vectori şi valori proprii


6.4. Definiţii. Fie T∈ End (Vn ) un endomorfism arbitrar şi A matricea
pătratică de ordinul n asociată lui T relativ la o bază din Vn .
a) Se numeşte serie de matrice, iar suma acesteia se numeşte funcţie de
matrice, o serie de forma

∑a
m =0
m Am , a m ∈ K , ∀m ∈ N .

b) Se numeşte serie de endomorfism, iar suma acesteia se numeşte funcţie de


endomorfism, o serie de forma

∑a
m=0
m T m , a m ∈ K , ∀m ∈ N .

Observaţii. 1. Pe spaţ iile finit dimensionale, studiul seriilor de


endomorfisme se reduce la studiul seriilor de matrice.
2. Conform consecinţei teoremei Cayley-Hamilton, funcţia de matrice

py
f ( A) = ∑ am Am se reduce la un polinom Q( A) de gradul n − 1 în A, unde n este
m∈N

∑a
ordinul matricei A. Dacă
Q( A) sunt serii convergente.
m
m

Co
Am este convergentă, atunci coeficienţ ii polinomului

3. În cazul când A admite valorile proprii distincte, λ 1 , K , λ n , polinomul de


EB
gradul n − 1 ataşat seriei ∑a m A m se poate scrie în forma Lagrange
m
n ( A − λ 1 I ) K ( A − λ j −1 I )( A − λ j +1 I ) K ( A − λ n I )
tW

f ( A) = ∑ f (λ j ) ,
j =1 (λ j − λ 1 ) K (λ j − λ j −1 )(λ j − λ j +1 ) K (λ j − λ n )
sau sub forma
n
f ( A) = ∑ Z j f (λ j ),
en

(1)
j =1

unde Z j ∈ M n×n (K ) nu depind de funcţia f şi deci pot fi determinate prin


ud

particularizarea funcţiei f. În cazul valorilor proprii multiple se arată că


p mk −1
St

f ( A) = ∑ ∑ Z kj f ( j ) (λ k ) ,
k =1 j = 0

unde f (.) sunt valorile derivatei de ordinul j a lui f, iar Z kj ∈ M n×n ( K ) sunt
( j)

matrice independente de funcţia f.

4. În particular putem defini următoarele funcţii de matrice


Am ∞
A2 m +1 ∞
m A
2m
eA = ∑
m = 0 m!
, sin A = ∑
m=0
( −1) m

(2m + 1)!
, cos A = ∑
m=0
( −1)
(2m)!
.

Seriile din membrul drept având raza de convergenţ ă ∞ . Funcţia de matrice e A se


numeşte matricea exponenţială. Deseori, în loc de e A vom utiliza funcţia de matrice
e At , t ∈ R (de exemplu, în teoria sistemelor diferenţiale liniare cu coeficienţi
constanţi).
Algebră liniară 85
2 2 3 
 
Exemplu. Calculaţi funcţia de matrice e , unde A =  0 3 − 1 .
At

0 0 4 
 

Soluţie. Valorile proprii distincte ale matricii A sunt


λ 1 = 2, λ 2 = 3, λ 3 = 4 ;
prin înlocuire în relaţia (1) obţinem
f ( A) = f (2) Z 1 + f (3) Z 2 + f (4) Z 3 . (2)
Matricele Z j , j = 1,2,3 nu depind de f ; le aflăm particularizând funcţia f succesiv:
f ( z ) = z − 1 ⇒ f ( A) ≡ A − I = 1 ⋅ Z 1 + 2 ⋅ Z 2 + 3 ⋅ Z 3
f ( z ) = z + 1 ⇒ f ( A) ≡ A + I = 3Z 1 + 4 Z 2 + 5Z 3
f ( z ) = z 2 ⇒ f ( A) ≡ A 2 = 4 Z 1 + 9 Z 2 + 16 Z 3
de unde obţinem sistemul matriceal
Z 1 + 2 Z 2 + 3Z 3 = A − I

py

3Z 1 + 4Z 2 + 5Z 3 = A + I ,

4Z 1 + 9Z 2 + 16 Z 3 = A
2

care admite soluţia


1
Co 1
Z 1 = ( A 2 − 7 A + 12 I ), Z 2 = − A 2 + 6 A − 8 I , Z 3 = ( A 2 − 5 A + 6 I ) .
EB
2 2
Pentru f ( A) = e , prin înlocuirea funcţiei f şi a soluţiei Z 1 , Z 2 , Z 3 în relaţia (2),
At

obţinem
tW

1
e At = [( A 2 − 7 A + 12 I )e 2t + 2(− A 2 + 6 A − 8I )e 3t + ( A 2 − 5 A + 6 I )e 4t ] .
2
en

#7. Probleme propuse


ud

1. Fie V spaţiul vectorial al funcţiilor reale de clasă C ∞ pe intervalul deschis


(0,1) . Aflaţi valorile proprii şi vectorii proprii ai endomorfismului
St

T :V → V, g = T ( f ), g ( x) = xf ′( x), ∀x ∈ (0,1) .

R: σ (T ) = R; ∀λ ∈ σ (T ), S = { f f ( x) = x λ , ∀x ∈ (0,1)} .
λ

2. Diagonalizaţi matricea A. Formulări echivalente :


♦ să se determine o bază formată din vectori proprii ai transformării liniare T a cărei
matrice asociată relativ la baza canonică este A, T ∈ End (R 3 ), [T ]B = A ;
♦ să se determine o bază în care transformarea T are matricea asociata diagonală;
♦ să se afle valorile proprii şi vectorii proprii ai transformării liniare T ai matricei A.

 7 4 − 1  4 6 0 3 2 0 
     
a) A =  4 7 − 1 , b) A =  − 3 − 5 0  , c) A =  2 0 0  ,
− 4 − 4 4   − 3 − 6 1  0 0 − 1
     

86 Cap.III. Vectori şi valori proprii


1 −1 2  1 2 0  − 3 − 7 − 5
     
d) A =  3 − 3 6  , e) A =  0 2 0  , f) A =  2 4 3 
 2 − 2 4  − 2 − 2 − 1  1 2 2 
    
R. a) σ(A)={3,3,12}, b) σ (A)={1,1,-2}, c) σ (A)={-1,-1,4}, d) σ (A)={2,0,0},
e) σ (A)={-1 ,1, 2}.
Vectorii proprii - temă a,c,d,f . b) B′ = {v1 =t (−2,1,0), v2 =t (0,0,1), v3 =t (−1,1,1)} ,
 − 2 0 − 1 1 0 0 
   
C = [B′]B =  1 0 1 , D = [T ] ′ =  0 1 0  .
B
 0 1 1 0 0 − 2
   
0 1 2   −1 0 0
t t t    
e) B ′ = {v1 = (0,0,1), v 2 = (1,0,−1), v3 = ( 2,1,−2)} , C =  0 0 1 , D =  0 1 0  .
1 −1 − 2  0 0 2
   

3. Să se determine polinomul caracteristic al matricei Frobenius

py
 p1 p2 K pn −1 pn 
 
1 0 K 0
A= M

M O
0 0 K 0
M
0

0

Co
M  , unde p1 ,K pn ∈ R .
EB
0 0 K 1 0 

R. PA (λ ) = (−λ ) n + (−1) n −1 ( p1λn −1 + p 2 λn − 2 + K + p n − 2 λ2 + p n −1λ + p n ) .
tW

4. Fie V spaţiul vectorial al funcţiilor reale de clasă C ∞ pe intervalul deschis


(0,1) . Aflaţi valorile proprii şi vectorii proprii ai endomorfismului
T : V → V, g = T ( f ), g ( x) = xf ′( x), ∀x ∈ (0,1) .
en

R: σ(T ) = R; ∀λ ∈ σ(T ), S λ = { f f ( x) = λx, ∀x ∈ (0,1)} .


ud

2 0 0 1 
 
St

0 2 0 0
5. Să se studieze dacă matricea A =   poate fi diagonalizată. În
 0 0 2 −2 
 1 0 −2 6 
 
caz afirmativ aflaţi matricea modală (diagonalizatoare) C.
2 0 0 0  2 0 −1 1 
   
0 2 0 0
R. Da. σ( A) = {λ 1, 2 = 2, λ 3 = 1, λ 4 = 7}, D =  , C =  0 1 0 0  .
0 0 1 0  1 0 2 −2 
   
0 0 0 7 0 0 1 5 

6. Date fiind matricile A, B ∈ M n×n (R ) care satisfac relaţia B = A − bI n pentru


un scalar b ∈ R , să se arate că polinoamele caracteristice ale acestora satisfac relaţia
PB (λ) = PA (λ + b) .

Algebră liniară 87
7. Dată fiind matricea inversabilă A ∈ M n× n (R ) , să se arate că între polinomul
caracteristic al matricii A şi cel al matricii inverse A−1 există relaţia
1 1
PA −1 (λ) = (−λ ) n ⋅ PA   .
det A  λ 

8. Arătaţi că dacă v este vector propriu al matricii A asociat valorii proprii λ


iar C este o matrice nesingulară, atunci vectorul C −1 v este vector propriu pentru
matricea similară C −1 AC , asociat aceleiaşi valori proprii.

9. Se dă matricea A = [Τ ]B a transformării Τ ∈ End (R 3 ) relativ la baza


canonică B. Să se determine forma canonică Jordan a matricii A în fiecare din
cazurile următoare. Formulări echivalente:
♦ să se determine forma canonică Jordan a transformării liniare T a cărei matrice
relativ la baza canonică este A;

py
♦ să se determine o bază formată din vectori proprii şi eventual principali ai
endomorfismului T, relativ la care matricea asociată lui T are forma canonică
Jordan.
1

a) A =  − 1 9
3 3 

 0 1 0
 
Co
 2 −1 2 

6  , b) A =  − 4 4 0  , c) A =  5 − 3 3  ,

EB
 2 − 14 − 9   0 0 2  − 1 0 − 2
     
 5 1 − 1 − 1
   − 4 − 7 − 5
tW

 1 5 − 1 − 1  
d) A = , e) A =  2 3 3 .
 1 1 3 − 1  1
   2 1 
1 1 − 1 3 
en

 9 3 2 0 1 0
   
R. Temă: c) ,d) ,e). a) σ( A) = {0,0,1}, C = [v1 , p, v2 ] =  9 0 1 , J =  0 0 0  ;
ud

 − 12 2 − 1 0 0 1
   
 1 0 0  2 1 0
St

   
b) σ( A) = {2,2,2}, C = [v1 , p, v2 ] =  2 1 0 ; J =  0 2 0  .
 0 0 1  0 0 2
   

10. Aflaţi o bază ortonormată în R 3 faţă de care matricea endomorfismului T


să fie diagonală, unde T ∈ End (R 3 ) . Justificaţi de ce este posibil acest lucru.
a) T ( x) = (− x1 + 2 x2 − 4 x3 ,2 x1 − 4 x2 − 2 x3 ,− 4 x1 − 2 x2 − x3 ), ∀x = ( x1 , x2 , x3 ) ∈ R 3 .
3 2 0
 
b) [T ] = A =  2 0 0 .
0 0 − 1

 −1 2 − 4  −5 0 0   1/ 5 4/3 5 2/3 
 
R. a) A = [T ] =  2 − 4 − 2  , D =  0 −5 0  , C =  −2 / 5 2/3 5 1/3  ;
− 4    
 − 2 − 1   0 0 4  0 5/3 5 −2/3 

88 Cap.III. Vectori şi valori proprii


deoarece A este matrice simetrică, transformarea T este diagonalizabilă; vectorii
bazei ortonormate căutate sunt coloanele matricii modale C.
b) A este matrice simetrică, deci diagonalizabilă; se obţine:
 1 − 2   2 1 
σ( A) = {−1,−1,4}, B′ =  , ,0 , (0,0,1),  , ,0  .
 5 5   5 5 

11. Să se verifice următoarele afirmaţii:


3 − i 0
 
a) Matricea A =  i 3 0  este hermitică ( A= t A ). Transformarea liniară
 0 0 4
 
asociată T ∈ End (C ) este diagonalizabilă; determinaţi o bază ortonormată în C 3
3

formată din vectori proprii ai transformării T.

0 −1 0 

py
 
b) Matricea A =  1 0 0  este unitară ( A t A = I ⇔ A −1 = t A ), iar
 0 0 − 1
 
Co
transformarea liniară asociată T ∈ End (C 3 ) este unitară şi orice valoare proprie a sa
are modulul egal cu unu .
EB
12. a) Să se determine valorile proprii şi vectorii proprii şi apoi să se
 − cos θ 0 sin θ 
tW

 
diagonalizeze matricea ortogonală A =  0 1 0 ∈ M 3 (C) .
 sin θ 0 cos θ 
 
 0 0 −1
en

 
b) matricea simetrică A =  0 0 − 2  ∈ M 3 (R ) .
−1 − 2 0 
 
ud

1 0 0 
 
R. a) Matricea transformării este diagonală, D =  0 1 0  , relativ la baza
St

 0 0 − 1
 

diagonalizatoare B = {v1 = (sin θ,0, cos θ + 1), v2 = (0,1,0), v3 = (sin θ,0, cos θ − 1)} ;
0 0 0 
 
b) B ′ = {v1 = ( −2,1, 0), v2 = (−1, −2, 5), v3 = (−1, −2, − 5)}, D =  0 5 0 .
0 0 − 5 

13. Fie V un spaţiu euclidian complex şi T : V → V un endomorfism


hermitian. Să se arate că e iT ,i 2 = −1 , reprezintă un endomorfism unitar.

R. Notând A = [T ], B = [e iT ] şi folosind relaţiile B = e iA , A= t A , rezultă


t t t
t
B B = t (e − iA )e iA = e −i A e iA = e −i A +iA = e i ( A− A ) = e O = I .

Algebră liniară 89
14. Se dau următoarele matrici diagonalizabile

 4 6 0 1 -1 2  1 0 − 2
     
a ) A =  − 3 − 5 0 , b) A =  3 - 3 6 , c) A =  0 0 0  .
 − 3 − 6 1  2 - 2 4 − 2 0 4 
     

Să se calculeze A1999 şi e A , folosind relaţia existentă între matricea A şi forma


sa canonică diagonală D, D = C −1 AC , unde C este matricea de trecere de la baza
canonică la noua bază, relativ la care se realizează forma diagonală.

− 2 0 1  1 0 0 
   
R. Temă b, c. a) C =  1 0 − 1 , D =  0 1 0 , A = CDC −1 , de unde rezultă
 0 1 − 1 0 0 - 2
   
1 0 0   e1 0 0 
C −1 ; e A = C  0 e1 0 C −1 .

py
A
1999
= CD
1999 −1
C

=C 0 1 0
 1999   
0 0 - 2   0 0 e −2 
 

Co
15. Folosind teorema Cayley – Hamilton pentru matricile următoare
 1 2 − 1
EB
1 − 2  
a) A =   ; b) A =  − 2 1 0  , să se determine:
0 2   0 1 1
 
tW

♦ polinomul de matrice Q( A) , unde Q(t ) = t 4 − t 2 + 2 ;


♦ dacă matricea A este inversabilă; în caz afirmativ să se calculeze inversa acesteia.
en

R. Temă b). a)
 2 − 24 
PA (λ ) = λ2 − 3λ + 2 ⇒ A2 − 3 A + 2 I 2 = 0 ⇒ Q( A) = 12 A − 10 I 2 =   .
ud

 0 14 
Cum PA are termenul liber nenul, A este inversabilă; din relaţia dată de teoremă,
St

 1 3  1 3 1 1 
rezultă A  − A + I 2  = I 2 ⇒ A−1 = − A + I 2 =   .
 2 2  2 2  0 1/ 2 

16. Folosind teorema Cayley – Hamilton aflaţi A−1 şi An pentru matricile


3 0 0
−1 0   
a) A =   ; b) A =  0 2 0 .
 1 − 1 0 1 2 

 ( −1) n 0 
R. a) A−1 = − A − 2 I 2 , An = (−1) n+1 nA + (−1) n (1 − n) I 2 =  n −1 ;
 n( −1) ( −1) n 
 3n 0 0
1 2  
b) A = ( A − 7 A + 16 I 3 ) , A =  0
−1 n
2 n
0 .
12  0 n 2n −1 2n 
 

90 Cap.III. Vectori şi valori proprii


Capitolul 4

FORME BILINIARE ŞI PĂTRATICE

#1. Forme biliniare. Forme pătratice

1.1. Definiţii. Fie V un K-spaţiu vectorial, unde K ∈ {R, C} .


a) Se numeşte formă liniară, o funcţie liniară ω:V → K .
b) Se numeşte formă biliniară sau tensor covariant de ordinul doi pe spaţiul
vectorial V o funcţie A : V × V → K liniară în fiecare variabilă, adică satisfăcând
următoarele proprietăţi
A (kx + ly, z ) = kA ( x, z ) + lA ( y , z ),
A ( x, ky + lz ) = kA ( x, y ) + lA ( x, z ), ∀x, y, z ∈ V ,∀k , l ∈ K.

py
Notăm prin B(V, K ) mulţimea tuturor formelor biliniare definite pe V.
Adunarea formelor biliniare şi înmulţirea acestora cu scalari pot fi definite ca în cazul

Co
funcţiilor, determinând pe B(V, K ) o structură de spaţiu vectorial peste corpul K.

Exemplu. Produsul scalar definit pe un spaţiu vectorial real este o formă


EB
biliniară. Spre deosebire de acesta, produsul scalar definit pe un spaţiu vectorial
complex, nu este o formă biliniară deoarece, în general putem determina
x, y, z ∈ V , k , l ∈ C , astfel încât să avem
tW

< x, ky + lz >=< x, ky > + < x, lz >= k < x, y > +l < x, z >≠ k < x, y > +l < x, z > .

1.2. Definiţii. a) Forma biliniară A se numeşte simetrică dacă


en

A ( x, y ) = A ( y , x), ∀x, y ∈ V .
b) Forma biliniară A se numeşte antisimetrică dacă
ud

A ( x, y ) = − A ( y, x), ∀x, y ∈ V .
St

Fie Vn un spaţiu vectorial n-dimensional peste corpul K , B = {e1 ,K , en } o


bază în acest spaţiu şi A ∈ B(V, K ) o formă biliniară pe Vn . Expresia formei
n n
biliniare calculată pe vectorii x = ∑ xi ei , y = ∑ y j e j ∈ Vn este
i =1 j =1

 n n  n n
A ( x, y ) = A  ∑ xi ei , ∑ y j e j  = ∑ ∑ xi y j A (ei , e j ) , (1)
 i =1 j =1  i =1 j =1
deci forma biliniară A pe Vn este unic determinată dacă se cunosc cele n 2 valori ale
ei A (ei , e j ), i, j = 1, n pe vectorii bazei B = {e1 ,K , en } .
Relaţia (1) se poate rescrie, notând aij = A (ei , e j ), i, j = 1, n ,
n n
A ( x, y ) = ∑ ∑ aij xi y j . (2)
i =1 j =1

Algebră liniară 91
Expresia din membrul drept se numeşte expresia analitică a formei biliniare faţă de
baza considerată B.
Matricea A = (aij ) i , j =1,...,n ∈ M n×n ( K ) de elemente aij = A (ei , e j ) se numeşte
matricea formei biliniare A în raport cu baza B . Notăm A = [A ]B . Dacă introducem
matricele coloan• X = t ( x j ) j =1,n ∈ M n×1 ( K ), Y = t ( y j ) j =1,n ∈ M n×1 ( K ), formate din
coeficienţii vectorilor x •i y, atunci expresia analitică (2) a formei biliniare poate fi
scrisă sub forma matriceală
A ( x, y ) = tX AY . (3)

Observaţie. Aplicaţia care asociază fiecărei forme biliniare A : Vn × Vn → K


matricea ei în raport cu o bază dată a spaţiului Vn este un izomorfism între spaţiul
vectorial B(Vn , K ) şi spaţiul vectorial M n×n ( K ) . Drept urmare
dim B(Vn , K ) = dim M n×n ( K ) = n 2 .

py
Teoremă. O formă biliniară A ∈ B (Vn , K ) este simetrică / antisimetrică

Co
dacă şi numai dacă matricea formei într-o bază arbitrară fixat• a spaţiului Vn este
simetrică/antisimetrică.
EB
Demonstraţie. Admitem că A este o formă simetrică; dacă A = (aij ) i , j =1,...,n este
matricea formei într-o bază B = {e1 , K , en } ⊂ V n , avem
tW

aij = A (ei , e j ) = A (e j , ei ) = a ji
deci A = t A . Reciproc, admitem că există o bază B = {e1 , K , en } ⊂ V n a spaţiului
astfel încât matricea A = (aij ) i , j =1,...,n este simetrică. Atunci ∀x , y ∈ V avem
en

A ( y, x) = t ( tY A X ) = t X t AY = t XAY = A ( x, y ) . ‰
ud

1.3. Teoremă. Dacă C = [B' ]B = (cij ) i , j =1,n ∈ M n×n ( K ) este matricea de


trecere de la baza B = {e1 ,K, en } ⊂ Vn la baza B' = {e1′ ,K , en′ } din Vn , iar
St

A = [ A ]B = (aij )i , j =1, n , A' = [ A ]B ' = (a 'ij )i , j =1, n


sunt respectiv matricele unei forme biliniare A ∈ B (Vn , K ) faţă de cele două baze,
atunci are loc relaţia
A' = t CAC.
n n
Demonstraţie. Fie x = ∑ xi′ei′ , y = ∑ y ′j e′j , x, y ∈ Vn descompunerile a doi vectori
i =1 j =1

arbitrari relativ la baza B' = {e1′ ,K , en′ } . Notând X ′= t ( x ′j ) j =1,n ,Y ′= t ( y ′j ) j =1,n şi


A' = (a' ij ) i , j =1,n , unde a 'ij = A (ei′, e′j ), i, j = 1, n este matricea formei biliniare A faţă
de baza B' , atunci A ( x, y ) = t X ′ A'Y ′ . Pe de altă parte, matricele coloană X,Y şi
X ′, Y ′ ale lui x şi y relativ la cele două baze satisfac relaţiile X = CX ′, Y = CY ′ , deci
avem A ( x, y ) = t XAY = t (CX ′) A(CY ′) = t X ′( t CAC )Y ′ . Rezultă

92 Cap.IV. Forme biliniare şi pătratice


t
X ′BY ′ = t X ′( t CAC )Y ′, ∀X ′, Y ′ ∈ M n×1 (R ) ≡ R n ,
de unde, prin identificare obţinem A' = t CAC. ‰

1.4. Definiţii. Fie A∈ B(Vn , K ) şi A = [A ]B matricea formei biliniare A


relativ la o bază B ⊂ Vn .
a) Dacă A este nesingulară/singulară, atunci forma biliniară A se numeşte
nedegenerată/degenerată. Rangul matricei A se numeşte rangul formei biliniare A .
b) Fie A∈ B (V, K ) o formă biliniară simetrică. Mulţimea
KerA = {x ∈ V A ( x, y ) = 0,∀y ∈ V }
se numeşte nucleul formei biliniare A .

Observaţie. Ker A este un subspaţiu vectorial al lui V.


Într-adevăr, pentru u , v ∈ Ker A avem A (u, w) = 0, A (v, w) = 0,∀w ∈ V . Pentru
k , l ∈ K , rezultă kA (u, w) + lA (v, w) = 0 ⇔ A (ku + lv, w) = 0 ⇒ ku + lv ∈ KerA .

py
Teoremă (teorema rangului). Fie A∈ B(Vn , K ) o formă biliniară. Atunci
are loc relaţia Co
rang A = n − dim(Ker A ) .
EB
1.5. Definiţie. Fie V un spaţiu vectorial peste corpul K •i A∈ B (V, K ) o
formă biliniară simetrică. Funcţia A determină unic funcţia Q: V → K ,
tW

Q( x) = A ( x, x), ∀x ∈ V ,
en

care se numeşte formă pătratică (asociată formei biliniare A ).


ud

Observaţie. Cunoaşterea formei pătratice Q permite recuperarea formei


biliniare simetrice A . Într-adevăr, relaţiile
St

Q ( x + y ) = A ( x + y , x + y ) = A ( x, x ) + A ( x, y ) + A ( y , x ) + A ( y , y ) =
= A ( x, x) + 2 A ( x, y ) + A ( y, y ), ∀x, y ∈ V
şi proprietatea de simetrie A ( x, y ) = A ( y, x), ∀x, y ∈ V implic•
1
A ( x, y ) = {Q( x + y ) − Q( x) − Q( y )}, ∀x, y ∈ V .
2
Forma biliniară simetrică A asociat• formei pătratice Q se numeşte forma polară
sau forma dedublată a formei pătratice Q .

Exemplu. Forma pătratică corespunzătoare produsului scalar real (care este o


formă biliniară simetrică) este pătratul normei euclidiene:

2
Q( x) =< x, x >= x , ∀x ∈ V .

Algebră liniară 93
Fie Vn un spaţiu vectorial n-dimensional. B = {e1 , e2 , K , en } este o bază în Vn ,
n
atunci pentru orice vector x = ∑ xi ei ∈ V n , forma pătratică Q are expresia analitică
i =1
n n
Q( x) = A ( x, x) = ∑∑ aij xi x j = t XAX ,
i =1 j =1

unde aij = A (ei , e j ), i, j = 1, n, X = ( x1 , x 2 , K, x n ) .


t

Deducem că matricea şi rangul formei pătratice Q coincid respectiv cu cele ale


formei biliniare simetrice A asociate lui Q. Putem deci scrie
[Q] B = [ A ] B = A; rang Q = rang A = rang A .

1.6. Definiţii. a) Fie A∈ B (V, K ) o formă biliniară simetrică şi Q forma


pătratică asociată.
a) Vectorii x, y ∈ V se numesc ortogonali în raport cu A (sau în raport cu
forma pătratică Q) dacă A ( x, y ) = 0 .

py
b) Fie U ⊂ V un subspaţiu vectorial al lui V. Mulţimea
U ⊥ = { y ∈ V A ( x, y ) = 0,∀x ∈ U }
se numeşte complementul ortogonal al lui U în V faţă de A . Co
EB
Teoremă. Fie A ∈ B (V, K ) o formă biliniară simetrică. Atunci :

1) U este subspaţiu vectorial al lui V;
2) dacă {u1 , u 2 ,K , u p } este o bază în U, atunci y ∈ U ⊥ dacă şi numai dacă
tW

A (u1 , y ) = A (u 2 , y ) = K = A (u p , y ) = 0 ;
3) dacă dimV = n , avem inegalitatea
dim U + dim U ⊥ ≥ dimV .
en

Aceasta devine egalitate d.n.d. forma biliniară A este nedegenerată.


ud

4) pentru orice subspaţiu U al spaţiului vectorial V, dacă A U este restricţia


formei biliniare A la U şi V este finit-dimensional, atunci are loc
St

descompunerea în sumă directă V = U ⊕ U ⊥ dacă şi numai dacă A U este


nedegenerată.

Demonstraţie. Demonstrăm proprietăţile 1),2) şi 4). 1) Fie y1 , y2 ∈ U ⊥ , adică aceşti


vectori satisfac relaţiile A ( x1 , y1 ) = 0, A ( x 2 , y 2 ) = 0 . Pentru k , l ∈ R avem

kA ( x, y1 ) + lA ( x, y 2 ) = 0 sau A ( x, ky1 + ly 2 ) = 0 . Deci ky1 + ly2 ∈ U .
2) Fie y ∈ U ⊥ ; atunci A ( x, y ) = 0,∀x ∈ U ; în particular A (u i , y ) = 0, i = 1, p
p
deoarece u i ∈ U , i = 1, p . Reciproc, din cele p relaţii şi faptul că x = ∑ xi u i ∈ U ,
i =1
p
folosind bilinearitatea formei A rezultă A ( x, y ) = ∑ xi A (u i , y ) = 0 , adică y ∈ U ⊥ .
i =1

4) Fie restricţia A U este nedegenerată, deci singurul vector din U ortogonal pe


toţi vectorii din U este vectorul nul, deci U I U ⊥ = {0} . Cum A este nedegenerată,
94 Cap.IV. Forme biliniare şi pătratice
avem dim U + dim U ⊥ = dimV ; deci U ⊕ U ⊥ = V . Reciproc, dacă U ⊕ U ⊥ = V ,
rezultă U I U ⊥ = {0} aşa încât A U este nedegenerată. ‰

Exemplu. Arătaţi că forma pătratică


Q( x) = x12 − 4 x 22 + x32
este nedegenerată pe spaţiul V= R 3 , dar restricţia acesteia la subspaţiul
U = {x ∈ R 3 x1 − 2 x2 = 0} ⊂ R 3
este degenerată având rangul egal cu unitatea. Aflaţi complementul ortogonal U ⊥
relativ la Q al subspaţiului vectorial U.

Soluţie. Efectuăm schimbarea de coordonate sugerată de ecuaţia subspaţiului


U,
y1 = x1 − 2 x 2 , y 2 = x 2 , y 3 = x 3 .
În noile coordonate, forma pătratică devine Q( y ) = y12 + 4 y1 y 2 + y 32 , iar subspaţiul U

py
este descris prin U = { y ∈ R 3 y1 = 0} . Se observă că restricţia formei pătratice la
acest subspaţiu, Q U ( y ) = y 32 are rangul unu.
Co
Pentru a obţine complementul ortogonal U ⊥ , considerăm o bază în U formată din
vectorii u1 = (0,0,1),u 2 = (2,1,0) şi impunem condiţiile
EB
A (u1 , y ) = 0, A (u 2 , y ) = 0,
care determină forma vectorilor y din subspaţiul U ⊥ , unde forma polară A asociată
tW

lui Q, obţinută prin dedublare are expresia


A ( x, y ) = x1 y1 − 4 x 2 y 2 + x3 y 3 , ∀x, y ∈ R 3 .
Rezultă y 3 = 0, 2 y1 − y 2 = 0 cu soluţia generală y1 = a, y 2 = 2a, y 3 = 0, a ∈ R , deci
en

U ⊥ = {(a,2a,0) a ∈ R} = L({(1,2,0)}) ⊂ R 3 .
ud

1.7. Definiţie. Un vector x ∈ V se numeşte izotrop în raport cu o formă


biliniară simetrică A∈ B (V, K ) (sau în raport cu forma pătratică asociată Q) dacă
St

Q( x) = A ( x, x) = 0. Observăm că vectorul nul 0 al spaţiului este totdeauna izotrop.

Exemplu. Se dă forma biliniară


A∈ B(C 3 , C), A ( x, y ) = x1 y1 + x3 y 3 , ∀x, y ∈ C 3 .
Forma pătratică asociată este Q( x) = x12 + x32 . Din Q( x) = 0 rezultă x3 = ±ix1 , deci
vectorii izotropi ai formei sunt ( x1 , x 2 , ix1 ) şi ( x1 , x 2 ,−ix1 ) cu x1 , x 2 ∈ C .

1.8. Definiţie. Fie A∈ B(Vn , K ) o formă biliniară simetrică. Se numeşte bază


ortogonală în raport cu forma biliniară A (sau în raport cu forma pătratică asociată
Q), o bază B = {e1 , e2 ,K , en } ⊂ Vn cu proprietatea
A (ei , e j ) = 0, ∀i ≠ j , i, j = 1, n ,
adică vectorii acesteia sunt ortogonali doi câte doi relativ la forma A .

Algebră liniară 95
Observaţie. În raport cu o bază ortogonală matricea formei este diagonală
(temă, verificaţi),
 a11 0 K 0 
 
 0 a22 K 0 
A = [ A ]B = .
 M M O 0 
 
 0 0 K ann 
Atunci, notând aii = ai , i = 1, n , expresiile analitice ale formei biliniare A şi ale
formei pătratice asociate Q devin expresii canonice, fiind de forma
n n
A ( x, y ) = ∑ a i x i y i , Q( x) = ∑ ai xi2 .
i =1 i =1

#2. Reducerea formelor pătratice la expresia canonică

py
Fie Vn un K-spaţiu vectorial, K ∈ {R, C} şi fie o formă pătratică pe Vn

Co
exprimată prin matricea simetrică A = [Q]B relativ la o bază fixată B = {e1 ,K , en } a
spaţiului Vn , şi având expresia analitică
EB
Q(v) = tXAX , ∀v = x1e1 + K + xn en ∈ Vn , X = t ( x1 ,K, xn ) .
O schimbare a bazei B a B' în Vn induce schimbarea de coordonate
X a X ' , X = CX ′ ,
tW

unde C = [B' ]B este matricea de schimbare de bază. Deci relativ la noile coordonate
expresia analitică a formei pătratice Q este Q(v) = t X ' A' X ' , iar matricea asociată
A' = [Q]B ' = t CAC ,
en

este tot o matrice simetrică (!). Prin urmare matricea unei forme pătratice relativ la o
ud

bază poate fi în particular matrice diagonală, dar nu poate fi niciodată matrice


Jordan cu celule de ordin mai mare decât 1.
St

În cele ce urmează, vom prezenta trei metode de obţinere a unei baze B'
relativ la care matricea A' a formei pătratice Q este diagonală, deci relativ la care
forma pătratică Q are o expresie canonică.

2.1. Teoremă (metoda Gauss). Dacă Q: Vn → K este o formă pătratică,


atunci există o bază în Vn care este ortogonală în raport cu Q (deci relativ la care Q
are o expresie canonică).

Demonstraţie. Inducţie după dimensiunea n a spaţiului vectorial. .Fie B = {e1 ,K , en }


o bază a spaţiului Vn şi expresia analitică asociată formei Q relativ la această bază,

n n
Q(v) = ∑∑ aij xi x j , ∀v = x1e1 + K + x n en ∈ Vn
i =1 j =1

96 Cap.IV. Forme biliniare şi pătratice


Dacă aii = 0, i = 1, n iar Q nu este identic nulă, atunci există cel puţin un element
aij ≠ 0 cu i ≠ j ; atunci, prin transformarea de coordonate
 x = x′ + x′
 i i j

 x j = xi′ − x′j

 x = x′ , k ∈ 1,n \ {i,j}
 k k
n
expresia formei pătratice devine Q (v ) = ∑ a′ x′x′
i , j =1
ij i j ,în care cel puţin unul din

elementele diagonale aii′ , i = 1, n este nenul, căci xi x j = xi′ 2 − x ′j 2 .


Notăm cu F1 = { f '1 ,K , f ' n } baza lui Vn faţă de care coordonatele lui x sunt
xi′ , i = 1,K, n . Admiţând că i < j , matricea de trecere de la baza B la F1 este

py
1 0 L 0 L 0 L 0
 
0 1 L 0 L 0 L 0
M

C1 = 
M
0
M O M L M
0 L 1 L 1 Co L M
 i
L 0  ←
L M

EB
M L M O M
  j
0 0 L 1 L −1 L 0  ← 
M M L M L M O M 
 
tW

0 0 L 0 L 0 L 1 
↑ ↑
i j
en

′ ≠ 0 ; atunci putem scrie


Fără a micşora generalitatea, putem admite că a11
ud

n
′ x1′ 2 + 2∑ a1′k x1′ x k′ +
Q(v) = a11 ∑ a′ x′x′ .ij i j
St

k =2 i , j ≠1

Adăugăm şi scădem termenii necesari pentru a obţine pătratul formei liniare


′ x1′ + a12
a11 ′ x 2′ + K + a1′n x n′ ,
în expresia formei pătratice Q; rezultă
1 n
Q (v ) = (a11 ′ x2′ + K + a1′n xn′ ) 2 + ∑ aij′′ xi′x′j ,
′ x1′ + a12

a11 i, j = 2
n
unde ∑ a′′x′x′ , nu conţine pe x ′ . Fie
ij i j 1 F2 = { f ' '1 , f ' ' 2 ,K , f ' ' n } baza din Vn faţă de
i , j=2

care coordonatele x' şi x' ' ale vectorului v să satisfacă egalităţile


 x' '1 = a11′ x1′ + a12
′ x2′ + K + a12
′ x′n

 x' ' j = x′j , j = 2, n.

Algebră liniară 97
 1 ′
a12 a1′n 
− − K − 

 a11 ′
a11 ′ 
a11
Matricea de trecere de la baza F1 la noua bază F2 este C =  0 1 K 0 .
2
 
 M M O M 
 0 0 K 1 

În raport cu baza F2 , expresia formei pătratice devine
n
1 2
Q (v ) = x1′′ + ∑ aij′′ xi′′x′j′.

a11 i, j =2
n
~
Suma Q ( x) = ∑ a ′′ x′′x′′
i , j =2
ij i j din membrul drept al expresiei este o formă pătratică în

n − 1 variabile, deci poate fi tratată prin procedeul de mai sus, analog cu forma Q.
În concluzie, după încă cel mult n − 1 paşi obţinem o bază B' = {e'1 ,K , e' n } în
Vn , ortogonală faţă de Q . Relativ la această bază, forma pătratică Q se reduce la
expresia canonică: o sumă de pătrate de p = rang Q ≤ n forme liniare independente în

py
coordonatele ( x1 ,K , x n ) , iar relativ la coordonatele asociate bazei B' , o sumă
algebrică de pătrate. ‰

Co
Exemple. 1. Folosind metoda Gauss, aflaţi expresia canonică şi baza în care
se realizează aceasta, pentru forma pătratică
EB
Q : R 3 → R , Q(v) = x1 x2 + 2 x1 x3 , v ≡ ( x1 , x2 , x3 ) ∈ R 3 ,
Soluţie. Se observă că avem aii = 0,i = 1,3 şi a12 = 1 ≠ 0 , deci efectuăm
tW

schimbarea de coordonate x1 = x1′ + x 2′ , x 2 = x1′ − x 2′ , x 3 = x 3′ , căreia îi este asociată


1 1 0
 
(prin relaţia X = C1 X ' ) matricea de trecere C1 =  1 − 1 0  . Vectorii noii baze
en

0 0 1
 
F1 = {e1′ = e1 + e2 , e2′ = e1 − e2 , e3′ = e3 } au coeficienţii daţi de coloanele acestei
ud

matrici; relativ la F1 expresia formei pătratice Q este,


Q(v) = x1′ 2 − x 2′ 2 + 2 x1′ x3′ + 2 x ′2 x3′ = ( x1′ + x3′ ) − x 2′ 2 + 2 x 2′ x3′ − x3′ .
2 2
St

Ţinând cont de expresia din paranteză, efectuăm schimbarea de coordonate


x1′′ = x1′ + x3′ , x 2′′ = x 2′ , x3′′ = x3′ .
Trecerea la noile coordonate ( x1′′, x 2′′ , x3′′) se realizează prin intermediul relaţiei
X ′ = C 2 X ′′ , cu matricea de trecere
−1
1 0 1  1 0 − 1
   
C2 =  0 1 0  = 0 1 0  ;
0 0 1 0 0 1 
   
aceste coordonate corespund noii baze F2 = {e1′′ = e1′, e2′′ = e2′ , e3′′ = − e1′ + e3′ } ; relativ la
F2 , forma Q are expresia analitică Q(v) = x1′′ 2 − x 2′′ 2 + 2 x 2′′ x3′′ − x3′′ 2 = x1′′ 2 − ( x 2′′ − x3′′) 2 .
Ţinând cont de paranteza din membrul drept, efectuăm schimbarea de coordonate
x1′′′ = x1′′, x2′′′ = x2′′ − x3′′, x3′′′ = x3′′ ⇔ X ′′ = C3 X ′′′
de unde obţinem matricea de trecere C 3 ataşată acestei schimbări,
98 Cap.IV. Forme biliniare şi pătratice
−1
1 0 0  1 0 0
   
C 3 =  0 1 − 1 =  0 1 1 
0 0 1  0 0 1
   
Coloanele acesteia furnizează noua bază, B' = F3 = {e1′′′ = e1′′, e′2′′ = e2′′ , e3′′′ = e2′′ + e3′′} ,
relativ la care obţinem prin înlocuire expresia formei Q, Q(v) = x1′′′ 2 − x 2′′′ 2 .
Această expresie reprezintă o expresie canonică a formei pătratice Q, fiind o sumă
algebrică de pătrate. Matriceal, are loc relaţia X = C1C2 C3 X ′′′ ≡ CX ′′′ de unde rezultă
matricea C = [B′]B = C1C2C3 de trecere de la baza naturală (iniţială) a spaţiului R 3
B = {e1 = (1,0,0), e2 = (0,1,0), e3 = (0,0,1)}
la baza B ' = F3 descrisă mai sus, relativ la care Q are o expresie canonică.

2. Folosind metoda Gauss, aflaţi expresia canonică şi baza în care se


realizează aceasta, pentru forma pătratică

py
Q : R 3 → R, Q(v) = 4 x32 + 6 x22 + 9 x12 + 12 x1 x2 − 10 x1 x3 − 2 x2 x3 , ∀x = ( x1 , x2 , x3 ) ∈ R3 ,
exprimată analitic în baza canonică a lui R 3 .

Co
Soluţie. Fie v = x1e1 + x2 e2 + x3 e3 ∈ R3 . Restrîngând succesiv pătratele ce
EB
conţin variabilele x1 , x 2 , x3 în expresia lui Q, obţinem
1 36 2 25 2 20
Q( x) = (9 x1 + 6 x2 − 5 x3 ) 2 − x2 − x3 + x2 x3 + 6 x22 + 4 x32 − 2 x2 x3 =
9 9 9 3
tW

1 14 11
= (9 x1 + 6 x2 − 5 x3 ) 2 + 2 x22 + x2 x3 + x32 =
9 3 9
2
1 1 7  49 2 11 2
= (9 x1 + 6 x2 − 5 x3 ) 2 +  2 x2 − x3  − x3 + x3 =
en

9 2 3  18 9
2
1 1 7  3 1 1 3
ud

=
(9 x1 + 6 x2 − 5 x3 ) 2 +  2 x2 − x3  − x32 = y12 + y22 − y32 ,
9 2 3  2 9 2 2
unde am notat y1 = 9 x1 + 6 x 2 − 5x 3 , y 2 = 2 x 2 − x 3 , y 3 = x 3 , iar ( y1 , y2 , y3 ) sunt
St

coordonatele vectorului v relativ la baza B ′ = {e1′ , e2′ , e3′ } ortogonală relativ la forma
pătratică Q, în care expresia formei este canonică. Ţinând cont de formulele de
schimbare de coordonate de mai sus, obţinem matricea de trecere de la baza canonică
B = {e1 = (1,0,0), e2 = (0,1,0), e3 = (0,0,1)} la baza B ′ ,
−1
 9 6 −5  1/ 9 −1/ 3 −2 / 9 
C ≡ [B ′]B =  0 2 −7 / 3  =  0 1/ 2 7 / 6  .
   
0 0 1   0 0 1 
Examinând coloanele acestei matrici, rezultă că baza B ′ este formată din vectorii
 1 1 1 2 7 
B ′ = e1′ = e1 , e2′ = − e1 + e2 , e3′ = − e1 + e2 + e3  ,
 9 3 2 9 6 
1/ 9 0 0 
iar matricea formei Q relativ la această bază este 
A ' = [Q]B ' =  0 1/ 2 0 
.
 0 0 −3 / 2 

Algebră liniară 99
2.2. Teoremă (metoda Jacobi). Fie Q : Vn → K o formă pătratică şi
A = (aij )1, j =1,n matricea ei relativ la baza B = {e1 ,K , en } a lui Vn . Dacă determinanţii
a11 a12
∆1 = a11 , ∆2 = ,K, ∆ n = det A
a21 a22
sunt toţi nenuli, atunci există o bază B ′ = {e1′ , K, e′n } ⊂ Vn faţă de care expresia
formei pătratice Q devine
∆ i −1 2
n
Q (v ) = ∑ xi′ , (*)
i =1 ∆ i

unde ( x1′ , K, x n′ ) sunt coordonatele lui x în baza B ′ şi am notat ∆ 0 = 1 .

Demonstraţie. Căutăm vectorii e1′ , K, e′n de forma


e1′ = c11e1
e′ = c e + c e
 2

py
21 1 22 2

 K K K K K K KKK
 en′ = c n1e1 + c n 2 e2 + K + c nn en
aşa încât să avem
A (ei′, e j ) = 0,
Co
1 ≤ j < i ≤ n,
EB
A (ei′, ei ) = 1, i = 1, n
unde A este polara formei pătratice Q . Scrise dezvoltat, aceste condiţii devin
tW

 A (ei′ , e1 ) ≡ ci1 a11 + ci 2 a12 + K + cii a1i = 0



 A (ei′ , e2 ) ≡ ci1 a 21 + ci 2 a 22 + K + cii a 2i = 0

..............................................................
 A (e ′ , e ) ≡ c a + c a
en

i 2 i −1, 2 + K + c ii a i −1i = 0
 i i −1 i1 i −1,1

 A (ei′ , ei ) ≡ ci1 a i1 + ci 2 ai 2 + K + cii aii = 1.


ud

Pentru i ∈ {1, K , n} fixat, sistemul linear neomogen obţinut constă din i ecuaţii cu i
necunoscute {ci1 , K , cii } ; acest sistem are soluţie unică, deoarece prin ipoteză
St

determinantul sistemului este chiar ∆ i ≠ 0 . Regula lui Cramer produce soluţiile


sistemului deci baza {e1′ , K , en′ } este perfect determinată de relaţiile
e1 e2 L ek
1 a21 a22 L a2 k
e 'k = , k = 1, n .
∆i L M O M
ak1 ak 2 L akk
Pentru a afla expresia formei pătratice în această bază, constatăm întâi că matricea lui
Q în baza B ′ este matricea A′ ai cărei coeficienţi sunt
aij′ = A (ei′, e′j ) = A (ei′, c j1e1 + K + c jj e j ) =
= c j1 A (ei′, e1 ) + c j 2 A (ei′, e2 ) + K + c jj A (ei′, e j ), i, j = 1, n

100 Cap.IV. Forme biliniare şi pătratice


Dar, prin construcţie, A (ei′ , e j ) = 0 pentru j < i , deci aij′ = 0 pentru j < i . De
asemenea, datorită simetriei formei biliniare A rezultă a ij′ = 0 şi pentru j > i . Deci
a ij′ = 0 pentru i ≠ j , iar pentru j = i avem
aii′ = A (ei′, ei′) = A (ei′, ci1e1 + K + cii ei ) =
∆ i −1
= ci1 A (ei′, e1 ) + K + ci , i −1 A (ei′, ei −1 ) + cii A (ei′, ei ) = cii = , i = 1, n.
∆i
Deci în baza B ′ forma pătratică are o expresie canonică,
n n

Q( x) = ∑ bij xi′ x ′j = ∑ i −1 xi′ 2 ,
i , j =1 i =1 ∆ i

iar matricea asociată acesteia este


 ∆ 0 / ∆1 K 0 
 
A′ = [Q]B′ = (aij′ )1, j =1,K,n = M O M .
 0 K ∆ n −1 ∆ n 

py
Exemplu. Folosind metoda Jacobi, aflaţi expresia canonică şi baza în care se
realizează aceasta, pentru forma pătratică
Co
Q( x) = x12 + 7 x22 + x32 − 8 x1 x2 − 8 x2 x3 − 16 x1 x3 , x = ( x1 , x2 , x3 ) ∈ R 3 .
EB
Soluţie. Matricea formei pătratice relativ la baza canonică a spaţiului R 3 este
 1 − 4 − 8
 
tW

A =  − 4 7 − 4 .
−8 − 4 1 
 
Minorii principali {∆ i }i =1, 2,3 ai acesteia sunt
en

1 −4
∆ 1 = a11 = 1, ∆ 2 = = −9, ∆ 3 = det A = −729 .
−4 7
ud

Folosind formula (*), rezultă expresia canonică a formei pătratice,


1 1
St

Q( x) = x1′2 − x2′2 + x3′2 ,


9 81
Prin dedublare obţinem forma biliniară asociată
1 1
A ( x, y ) = x1′ y1′ − x2′ y2′ + x3′ y3′ .
9 81
′ ′ ′ ′
Noua bază B = {e1 , e2 , e3 } se obţine rezolvând succesiv sistemele ce furnizează
coeficienţii descompunerii vectorilor e1′ , e2′ , e3′ relativ la baza iniţială, după cum
urmează:
e1′ = a ⋅ e1 ; A (e1′, e1 ) = 1 ⋅ a = 1 ⇒ e1′ = e1 ;
 A (e2′ , e1 ) = 1 ⋅ a − 4b = 0 4 1
e2′ = a ⋅ e1 + b ⋅ e2 ;  ⇒ e2′ = − e1 + e2 ;
 A (e2′ , e2 ) = −4a + 7b = 1 9 9

Algebră liniară 101


 A (e3′ , e1 ) = 1 ⋅ a − 4b − 8c = 0
 8 4 1
e3′ = a ⋅ e1 + b ⋅ e2 + c ⋅ e3 ;  A (e3′ , e2 ) = −4a + 7b − 4c = 0 ⇒ e3′ = − e1 − e2 + e3
 A (e′ , e ) = −8a − 4b + c = 1 81 81 81
 3 3

4 1 8 4 1
deci în final obţinem B ′ = {e1′ = e1 , e2′ = − e1 + e2 , e3′ = − e1 − e2 + e3 } , cu
9 9 81 81 81
matricea de trecere de la baza canonică la noua bază B ' de coeficienţi
 1 − 4 / 9 −8 / 81 
 
C =  0 1 / 9 − 4 / 81 .
0 0 1 / 81 

2.3. Teoremă (Metoda valorilor proprii). Fie Vn un spaţiu vectorial real


euclidian şi Q : Vn → R o formă pătratică reală. Atunci există o bază ortonormată
B ′ = {e1′ , e2′ , K , en′ } a spaţiului vectorial Vn relativ la care expresia canonică a

py
formei este
n
Q(v) = ∑ λ i ⋅ xi′ 2 ,
i =1
Co
unde λ 1 , λ 2 , K , λ n sunt valorile proprii ale matricei formei pătratice relativ la o
bază ortonormată B (fiecare valoare proprie fiind inclusă în sumă de attea ori cτ
EB
multiplicitatea sa), iar ( x1′ , K, x n′ ) sunt coordonatele vectorului v relativ la baza B ′ .
tW

Demonstraie. Fie A matricea asociată lui Q într-o bază iniţială B a lui Vn . Ca


matrice reală şi simetrică, matricea A = [Q]B are n valori proprii reale
λ 1 ,K , λ n (unele pot fi egale) şi se poate diagonaliza. Baza B ′ = {e1′ , K, en′ } formată
en

din vectori proprii ortonormaţi ai matricei A determină matricea diagonalizatoare C


care este ortogonală ( t C = C −1 ) . Q are relativ la această bază o expresie canonică
ud

deoarece matricea ei relativ la această bază este


 λ1 0 K 0
 
St

0 λ2 K 0 
D = [Q]B′ = C −1 AC = t CAC =  .
M M O M 
 
0 0 K λ n 

Exemplu. Folosind metoda valorilor proprii, aflaţi expresia canonică şi baza
în care se realizează aceasta, pentru forma pătratică din exemplul anterior,
Q(v) = x12 + 7 x22 + x32 − 8 x1 x2 − 16 x1 x3 − 8 x2 x3 , v ≡ ( x1 , x2 , x3 ) ∈ R 3 ,
exprimată relativ la baza canonică a lui R 3 ,

Soluţie. Matricea asociată formei pătratice relativ la baza canonică


B = { e1 = (1,0,0), e2 = (0,1,0), e3 = (0,0,1)} ,
este ortonormată faţă de produsul scalar canonic, şi are coeficienţii

102 Cap.IV. Forme biliniare şi pătratice


 1 − 4 −8 
 
A =  −4 7 −4  .
 −8 − 4 1 
 
Valorile proprii ale acestei matrici sunt λ 1 = −9, λ 2 = λ 3 = 9 (temă – verificaţi !), iar
vectorii proprii ortonormaţi corespunzători valorilor proprii sunt
2 1 2  2 1   −5 2 4 
e1′ =  , , , e2′ =  0,− , , e3′ =  , , ,
3 3 3  5 5 3 5 3 5 3 5 
deci matricea de trecere la noua bază B ′ = {e1′ , e2′ , e3′ } este
 2 5 0 − 5
 
C = [e1′, e2′ , e3′ ] = 3 5 ⋅  5 − 6 2 
2 5 3 4 

Efectuând schimbarea de coordonate X = CX ′ asociată schimbării de bază, rezultă
expresia canonică a formei pătratice Q,

py
Q(v) = −9 x1′ 2 + 9 x 2′ 2 + 9 x3′ 2 .

Comparaţia celor trei metode


Co
1) Metoda Gauss reprezintă un algoritm elementar de aducere la forma
canonică, dar nu furnizează direct noua bază, ci schimbarea de coordonate pe baza
EB
căreia se determină noua bază.
2) Metoda Jacobi este utilă când se cere determinarea rapidă a formei canonice
(de exemplu în aprecierea naturii punctelor de extrem ale unei funcţii reale), fără a fi
tW

interesaţi şi de baza corespunzătoare (care se obţine printr-un calcul mai laborios).


Metoda prezintă dezavantajul că presupune neanularea tuturor minorilor {∆ i }i =1,K,n .
3) Metoda vectorilor proprii este eficace, producând o formă canonică şi o
en

bază canonică ortonormată faţă de produsul scalar preexistent. Dezavantajul acestei


ud

metode este că include calculul rădăcinilor polinomului caracteristic al matricii


asociate formei pătratice, rădăcini care pot fi iraţionale (şi deci aflarea lor necesitând
tehnici de calcul de analiză numerică).
St

#3. Signatura unei forme pătratice reale

Există formele pătratice reale care iau totdeauna valori pozitive (cum ar fi,
spre exemplu, pătratul unei norme ce provine dintr-un produs scalar); în cele ce
urmează vom detalia noţiunile ce conduc la stabilirea semnului valorilor pe care le
poate lua o formă pătratică.

3.1. Definiţii. a) O formă pătratică Q: V → R se numeşte pozitiv / negativ


semidefinită dacă Q(v) ≥ 0 / Q(v) ≤ 0 , pentru orice v ∈ V .
b) Forma pătratică Q se numeşte pozitiv definită / negativ definită dacă
Q(v) > 0 / Q(v) < 0 , pentru orice v ∈ V \ {0} .

Algebră liniară 103


c) Dacă există v ∈ V aşa încât Q(v) > 0 şi w ∈ V aşa încât Q( w) < 0 spunem
că forma pătratică Q este nedefinită.
d) O formă biliniară simetrică A ∈ B(V , R ) se numeşte pozitiv definită (respectiv
negativ definită, pozitiv semidefinită, negativ semidefinită) dacă forma
pătratică asociată Q are proprietatea corespunzătoare.

Exemplu. Produsul scalar definit pe un spaţiu vectorial real este o formă


biliniară simetrică şi pozitiv definită.

Reducerea la expresia canonică prin metoda lui Jacobi permite obţinerea unei
condiţii necesare şi suficiente pentru ca o formă pătratică Q: Vn → R să fie pozitiv
definită (respectiv, negativ definită), după cum rezultă din următoarea

Teoremă (criteriul lui Sylvester, teorema inerţiei).

py
Se dă forma pătratică Q: Vn → R . Dacă sunt îndeplinite condiţiile teoremei
Jacobi, atunci au loc următoarele afirmaţii:

Co
1) Q este pozitiv definită dacă şi numai dacă ∆ i > 0,
2) Q este negativ definită dacă şi numai dacă (−1) k ∆ k > 0,
i = 1, n ;
k = 1, n .
EB
n
3.2. Definiţie. Fie Q(v) = ∑ ai xi2 o expresie canonică a formei pătratice
i =1
tW

Q: Vn → R . Se numeşte signatura formei pătratice Q tripletul de numere reale


( p, q , d ) , în care:
p = numărul de coeficienţi din setul {a1 ,K , a n } care sunt strict pozitivi, numit
en

indicele pozitiv de inerţie al lui Q;


q = numărul de coeficienţi strict negativi, numit indicele negativ de inerţie al lui Q;
ud

d = n − ( p + q ) = numărul de coeficienţi nuli.


St

Teoremă (legea de inerţie, Sylvester). Signatura unei forme pătratice Q este


aceeaşi în orice expresie canonică a lui Q.

Observaţii. 1. Legea de inerţie arată că urmând oricare din cele 3 metode de


obţinere a expresiei canonice (care poate să difere), signatura formei pătratice
(dedusă din expresia canonică obţinută) este totdeauna aceeaşi.

2. Dată fiind o formă pătratică Q: Vn → R şi matricea A asociată acesteia


relativ la o bază a spaţiului Vn , Q este pozitiv definită dacă şi numai dacă oricare din
următoarele condiţii este îndeplinită.
• forma pătratică Q are signatura (n,0,0) ,
• determinanţii ∆ i , i = 1, n calculaţi conform metodei Jacobi sunt strict pozitivi,
• valorile proprii ale matricei A sunt strict pozitive.
104 Cap.IV. Forme biliniare şi pătratice
#4. Probleme propuse

1. Se dă aplicaţia A ∈ B(R 3 , R ) ,
A ( x, y ) = 2 x1 y 2 + 2 x 2 y1 − 3 x3 y 3 , ∀x = ( x1 , x 2 , x3 ), y = ( y1 , y 2 , y 3 ) ∈ R 3
Să se determine următoarele :
1. Arătaţi că A este formă biliniară.
2. Arătaţi că A este formă biliniară simetrică.
3. Determinaţi matricea A = [A ]B relativ la baza canonică B.
4. Aflaţi forma pătratică Q asociată formei bilineare simetrice A.
5. Verificaţi relaţiile A ( x, y )= t XAY , Q( x)= t XAX , ∀X = [ x]B , Y = [ y ]B ,∀x, y ∈ R 3 .
6. Determinaţi matricea A′ = [A ]B′ , relativ la baza
B ′ = {e '1 = (1,1, 0), e '2 = (1, 0,1, ), e '3 = (0,1,1)} .

0 2 0 

py
 
R. Matricea formei pătratice date este A =  2 0 0  , expresia analitică este
 0 0 − 3
 
Co
Q( x) = 4 x1 x2 − 3 x3 ,
2

cu matricea de schimbare la noua bază C, iar matricea formei pătratice relativ la baza
EB
1 1 0 4 2 2 
   
B' de la punctul 6, A', unde C = [B′]B =  1 0 1  , şi A′= t CAC =  2 − 3 − 1  .
0 1 1  2 − 1 − 3
tW

   

2. Se dă funcţia A∈ B(R 4 , R ) ,
en

A ( x, y ) = x1 y2 − x2 y1 + x1 y3 − x3 y1 + x1 y4 − x4 y1 +
+ x2 y3 − x3 y2 + x2 y4 − x4 y2 + x3 y4 − x4 y3 , ∀x, y ∈ R 4
ud

1. Să se arate că A este o formă biliniară antisimetrică.


St

2. Să se determine matricea corespunzătoare formei biliniare A relativ la baza


B' = {e1′ = (1,1,1,0),e2′ = (0,1,1,1),e3′ = (1,1,0,1),e4′ = (1,0,1,1)} .

0 1 1 1 1 0 1 1
   
−1 0 1 1 1 1 1 0
R: A = [ A ]B =  , A′ = [ A ]B′ = CAC , C = 
t
.
−1 −1 0 1 1 1 0 1
   
−1 −1 −1 0 0 1 1 1

3. Fie P2 spaţiul vectorial al funcţiilor polinomiale reale de grad cel mult doi
şi fie produsul scalar
1 1
A: P2 × P2 → R, A (v, w) = ∫ ∫ v(t )w(s)dtds, ∀v, w ∈P .
0 0
2

Algebră liniară 105


1) Să se arate că A este o formă biliniară simetrică pozitiv semidefinită, dar
nu este pozitiv definită.
2) Să se determine matricea formei biliniare A relativ la baza canonică a
spaţiului P2 , B = {1, t , t 2 } şi relativ la baza B ′ = {1, t − 1, t 2 − t} .
 1 1/ 2 1/ 3 1 −1 0 
   
R: A = [ A ]B = 1 / 2 1 / 4 1 / 6 , A′ = [ A ]B′ = CAC , C =  0 1 − 1 .
t

1/ 3 1/ 6 1/ 9  0 0 1 
   

4. Determinaţi valoarea parametrului λ ∈ R astfel ca vectorii x = (−1,1) şi


y = (2, λ ) să fie ortogonali în raport cu forma pătratică
Q : R 2 → R, Q( x) = x12 − 2 x1 x2 + x22
 1 − 1 2 
R: ( −1,1)   = 0 ⇒ λ = 2 .
 − 1 1  λ 

py
5. Se dau următoarele forme pătratice:
a) Q(v) = ac − 2bc + 3c 2 , ∀v = (a, b, c) ∈ R 3 ;
Co
b) Q( w) = xy − zv + 2v 2 + 3 xv, ∀w = ( x, y, z , v) ∈ R 4 .
1) Determinaţi forma polară A asociată formei pătratice Q prin dedublare.
EB
2) Aflaţi matricea formei pătratice Q relativ la baza naturală.
R. . Temă a). Soluţia la punctul b):
1 1 3
tW

A ( x, y ) = ( x1 y2 + x2 y1 ) − ( x3 y4 + x4 y3 ) + 2 x4 y4 + ( x1 y4 + x4 y1 ), ∀x, y ∈ R 3 ,
2 2 2
 0 1/ 2 0 3/ 2 
 
 1/ 2 0 0 0 
[Q] = [ A ] = .
en

 0 0 0 − 1/ 2
 
 3 / 2 0 − 1/ 2 2 
ud

6. Se dau următoarele forme pătratice


St

1
a) Q : R 3 → R, Q(v) = x 2 − 8 xy − 16 xz + 7 y 2 − 8 yz + z 2 , ∀v = ( x, y, z ) ∈ R 3 ;
2
 3 − 2 − 4
 
b) Q : R → R, [Q ] =  − 2 6 − 2  ;
3

− 4 − 2 3 
 
2 2 2
c) Q( x) = − x1 + 6 x1 x3 + x2 + 4 x2 x3 − 5 x3 , ∀x = ( x1 , x2 , x3 ) ∈ R 3 ;
d) Q(v) = xy + 2 y 2 − yz − z 2 , ∀v = ( x, y, z ) ∈ R 3 .
Determinaţi expresia canonică a acestor forme pătratice folosind metoda Gauss.
1
R. Temă a, b, c. d) Q(v) = x′2 − 3 y′2 − z′2 , ∀v ∈ R 3 , [v]B ′ = ( x′, y′, z′) ,
3
−1 −1
 1 1 0   3 − 2 − 1/ 2  1 0 0 
    
C = [B′]B =  1 − 1 0   0 1 0   0 − 1/ 3 1/ 6  .
0 0 1 0 0 1   0 0 1 
 
106 Cap.IV. Forme biliniare şi pătratice
7. Determinaţi expresia canonică a formelor pătratice din exerciţiul precedent
folosind metoda Jacobi şi metoda valorilor proprii.
1 / 3 0 0 
 
R. Temă a, c, d. Soluţie la punctul b) Prin metoda Jacobi, [Q ]B ′ =  0 3 / 14 0 .
 0 0 − 1 / 7 

Prin metoda valorilor proprii,
 1/ 5 − 4 / 3 5 2 / 3 7 0 0 
 
[B′]B = [e1′, e2′ , e3′ ]B =  − 2 / 5 − 2 / 3 5 1 / 3 , [Q]B′ =  0 7 0  .
 0 5/3 2 / 3   0 0 − 2
  

8. Utilizând metoda Gauss, metoda lui Jacobi şi respectiv metoda valorilor


proprii, să se aducă la expresii canonice forma pătratică Q : R 3 → R ,
Q(v) = 5 x12 + 6 x22 + 4 x32 − 4 x1 x2 − 4 x1 x3 , ∀v ≡ ( x1 , x2 , x3 ) ∈ R 3

py
şi să se verifice teorema de inerţie, determinând în fiecare caz signatura formei
pătratice.

1 / 5

0 0  1 / 5

0
Co
R: Matricile asociate expresiei canonice în urma aplicării celor trei metode sunt,
respectiv:
0   2 0 0
  
EB
 0 5 / 26 0 ,  0 5 / 26 0 ,  0 5 0  ;
 0 0 40 / 13   0 0 13 / 40   0 0 8 

tW

signatura este (3,0,0), deci forma pătratică este pozitiv definită.

 1 1 0 − 1
 1 1 −1 0 
9. Să se scrie forma pătratică corespunzătoare matricii A =  ,
en

 0 −1 1 1 
−1 0 1 1 
ud

să se găsească expresia canonică şi să se verifice teorema de inerţie.


R. Expresia analitică a formei pătratice este
St

2 2 2 2
Q(v) = x1 + x2 + x3 + x4 + 2 x1 x2 − 2 x1 x4 − 2 x2 x3 + 2 x3 x4 , ∀v ≡ ( x1 , x2 , x3 , x4 ) ∈ R 4 ;
obţinem expresiile canonice, după cum urmează: prin metoda Gauss,
1 2
Q(v) = x1′ − x 2′ + 2 x3′ + 8 x 4′ ;
2 2 2

2
prin metoda valorilor proprii, Q(v) = x1′ + x 2′ + 3 x3′ − x 4′ .
2 2 2 2

Metoda Jacobi nu se poate aplica (deoarece ∆ 2 = 0 ); signatura formei Q este (3,1,0).

10. Să se arate că dacă ( g ij ) i , j =1,K,n , (hij ) i , j =1,K,n sunt matrice pozitiv definite,
atunci matricea ( f ij (t )) i , j =1,K,n , f ij (t ) = (1 − t ) g ij + thij , t ∈ [0,1] este pozitiv definită.

Algebră liniară 107

También podría gustarte