Está en la página 1de 16

5.

ESPAI EUCLIDIÀ

5.1 Formes Bilineals

En tot aquest tema, E representarà un espai vectorial sobre R.

Definició 5.1.1: Sigui g una aplicació

g : E × E −→ R
(~x, ~y ) 7−→ g(~x, ~y )
Es diu que g és una forma bilineal en E si verifica: ∀λ ∈ R, ∀~x, ~y , ~z ∈ E

1) g(λ~x + ~z, ~y ) = λg(~x, ~y ) + g(~z, ~y )

2) g(~x, λ~y + ~z) = λg(~x, ~y ) + g(~x, ~z)

Proposició 5.1.1: Sigui g : E × E −→ R una forma bilineal en E. ∀λ, µ, α, β ∈ R, ∀~x, ~y , ~z, ~u ∈ E es verifica:

1) g(~x, ~0) = 0 , g(~0, ~x) = 0


2) g(λ~x + µ~z, α~y + β~u) = λαg(~x, ~y ) + λβg(~x, ~u) + µαg(~z, ~y ) + µβg(~z, ~u)

Demostració 5.1.1
[ 1 ] g(~x, ~0) = g(~x, 0 · ~0) = 0 · g(~x, ~0) = 0. Anàlogament es veu que g(~0, ~x) = 0.

[ 2 ] g(λ~x + µ~z, α~y + β~u) = g(λ~x, α~y + β~u) + g(µ~z, α~y + β~u) = g(λ~x, α~y ) + g(λ~x, β~u) + g(µ~z, α~y ) + g(µ~z, β~u) =
λαg(~x, ~y ) + λβg(~x, ~u) + µαg(~z, ~y ) + µβg(~z, ~u)

Exemple 5.1.1: Sigui g : R2 × R2 −→ R l’aplicació definida per:


∀(x1 , x2 ), (y 1 , y 2 ) ∈ R2 , g((x1 , x2 ), (y 1 , y 2 )) = 3x1 y 2 − x2 y 2
2
Comprovem que g és una forma bilineal a R , verificant els dos punts de la definició 5.1.1:

∀λ ∈ R, ∀(x1 , x2 ), (y 1 , y 2 ), (z 1 , z 2 ) ∈ R2 :

(1) g(λ(x1 , x2 ) + (z 1 , z 2 ), (y 1 , y 2 )) = g((λx1 + z 1 , λx2 + z 2 ), (y 1 , y 2 )) = 3(λx1 + z 1 )y 2 − (λx2 + z 2 )y 2 =


= λ(3x1 y 2 − x2 y 2 ) + (3z 1 y 2 − z 2 y 2 ) = λg((x1 , x2 ), (y 1 , y 2 )) + g((z 1 , z 2 ), (y 1 , y 2 ))

(2) g((x1 , x2 ), λ(y 1 , y 2 ) + (z 1 , z 2 )) = g((x1 , x2 ), (λy 1 + z 1 , λy 2 + z 2 )) = 3x1 (λy 2 + z 2 ) − x2 (λy 2 + z 2 ) =


= λ(3x1 y 2 − x2 y 2 ) + (3x1 z 2 − x2 z 2 ) = λg((x1 , x2 ), (y 1 , y 2 )) + g((x1 , x2 ), (z 1 , z 2 ))

Exemple 5.1.2: Considerem l’espai vectorial real de les funcions contı́nues en [0, 1] ⊂ R, C[0, 1], i definim ∀f1 , f2 ∈
C[0, 1]

g : C[0, 1] × C[0, 1] −→ R
Z 1
(f1 , f2 ) 7−→ (f1 (x) · f2 (x))dx
0

Simbolitzarem per L2 (E, R) el conjunt de totes les formes bilineals en E.

Definició 5.1.2: A L2 (E, R) considerem la suma i el producte per escalars de funcions:

∀g, h ∈ L2 (E, R), ∀λ ∈ R, ∀~x, ~y ∈ E


(g + h)(~x, ~y ) = g(~x, ~y ) + h(~x, ~y ) (λg)(~x, ~y ) = λ · g(~x, ~y )

Proposició 5.1.2: (L2 (E, R), +, ·) és un espai vectorial sobre R.


Definició 5.1.3: Sigui g ∈ L2 (E, R).
1) Direm que g és simètrica si verifica: ∀~x, ~y ∈ E, g(~x, ~y ) = g(~y , ~x).
2) Direm que g és antisimètrica si verifica: ∀~x, ~y ∈ E, g(~x, ~y ) = −g(~y , ~x).

Definició 5.1.4: Simbolitzarem per S2 (E, R) el conjunt de totes les formes bilineals simètriques en E, i per H2 (E, R)
el conjunt de totes les formes bilineals antisimètriques en E.
S2 i H2 són subespais vectorials reals de L2 (E, R).

Proposició 5.1.3: ∀g ∈ H2 (E, R), ∀~x ∈ E, es verifica g(~x, ~x) = 0.

Demostració 5.1.3
Directament, a partir de la definició 2.1.3, g(~x, ~x) = −g(~x, ~x). Per tant 2g(~x, ~x) = 0 i llavors g(~x, ~x) = 0.

Definició 5.1.5: Sigui g ∈ S2 (E, R). Direm que g és:

1) Definida positiva, si ∀~x ∈ E es verifica g(~x, ~x) ≥ 0


2) Definida positiva no degenerada, si ∀~x ∈ E, ~x 6= ~0 es verifica g(~x, ~x) > 0
3) Definida negativa, si ∀~x ∈ E es verifica g(~x, ~x) ≤ 0
4) Definida negativa no degenerada, si ∀~x ∈ E, ~x 6= ~0 es verifica g(~x, ~x) < 0
5) No definida, si ∃~x, ~y ∈ E tal que g(~x, ~x) < 0 i g(~y , ~y ) > 0

Exemple 5.1.3: Sigui g : R2 × R2 −→ R la forma bilineal simètrica :

∀(x1 , x2 ), (y 1 , y 2 ) ∈ R2 g((x1 , x2 ), (y 1 , y 2 )) = x1 y 1 + x2 y 2

Comprovem que és definida positiva: ∀(x1 , x2 ) ∈ R2 ,


2 2
g((x1 , x2 ), (x1 , x2 )) = (x1 ) + (x2 ) ≥ 0 ,
1 2 2 2 2 2
en ser (x ) ≥ 0 i (x ) ≥ 0. A més, si g((x1 , x2 ), (x1 , x2 )) = 0, cal que (x1 ) = 0 i (x2 ) = 0, és a dir, x1 = x2 = 0.
Per tant, g és definida positiva no degenerada.

Exemple 5.1.4: Sigui g : R3 × R3 −→ R la forma bilineal simètrica:

∀(x1 , x2 , x3 ), (y 1 , y 2 , y 3 ) ∈ R3 g((x1 , x2 , x3 ), (y 1 , y 2 , y 3 )) = 2x1 y 1 − x2 y 3 − x3 y 2

Podem comprovar que g és no definida ja que podem trobar dos vectors ~x, ~y ∈ R3 per als quals g(~x, ~x) > 0 i g(~y , ~y ) < 0.
Per exemple:

g((1, 0, 0), (1, 0, 0)) = 2 > 0 , g((0, 1, 1), (0, 1, 1)) = −2 < 0

Definició 5.1.6: Sigui g ∈ S2 (E, R). Anomenem forma quadràtica associada a g (i la simbolitzem per qg ) a
l’aplicació:

qg : E −→ R
~x 7−→ qg (~x) = g(~x, ~x)

Si qg 6= 0̃, llavors qg no és lineal. Per veure-ho n’hi ha prou amb prendre un cert vector ~x ∈ E tal que qg (~x) 6= 0. En
aquest cas,

qg (2~x) = g(2~x, 2~x) = 4g(~x, ~x) = 4qg (~x) 6= 2qg (~x)


Proposició 5.1.4 (Fórmules de Polarització): Sigui g ∈ S2 (E, R). Llavors, ∀~x, ~y ∈ E es verifica:

1) g(~x, ~y ) = 21 [ qg (~x + ~y ) − qg (~x) − qg (~y ) ]


2) g(~x, ~y ) = 14 [ qg (~x + ~y ) − qg (~x − ~y ) ]

Demostració 5.1.4
∀~x, ~y ∈ E, tenim que g(~x, ~y ) = g(~y , ~x) i, per tant:

(a) qg (~x + ~y ) = g(~x + ~y , ~x + ~y ) = g(~x, ~x) + g(~x, ~y ) + g(~y , ~x) + g(~y , ~y ) = qg (~x) + qg (~y ) + 2g(~x, ~y )
(b) qg (~x − ~y ) = g(~x − ~y , ~x − ~y ) = g(~x, ~x) − g(~x, ~y ) − g(~y , ~x) + g(~y , ~y ) = qg (~x) + qg (~y ) − 2g(~x, ~y )

De l’expressió (a) es dedueix directament el punt 1. Restant l’expressió (b) a l’expressió (a), obtenim el punt 2.

5.2 Formes bilineals en espais vectorials de dimensió finita


Considerem ara el cas particular de que l’espai sigui de dimensió finita: dimR En = n < +∞
Sigui V = {~e1 , . . . , ~en } una base d’En i sigui g una forma bilineal definida a En . Aleshores,

 
Xn n
X n X
X n
∀~x, ~y ∈ En , ~xV = (x1 , ..., xn ), ~yV = (y 1 , ..., y n ) g(~x, ~y ) = g  xi~ei , y j ~ej  = xi y j g(~ei , ~ej )
i=1 j=1 i=1 j=1

Utilitzant la notació:

g(~ei , ~ej ) = gij


podem escriure:
   1
g11 g12 ... g1n y
  g21
 g22 ... g2n   y2 
T
g(~x, ~y ) = x1 x2 xn  .

··· ..   ..  = [~x]V · [g]V · [~y ]V
 
.. ..
 .. . . .   . 
gn1 gn2 ... gnn yn

Definició 5.2.1:
[g]V = matriu associada a g en la base V

Exemple 5.2.1: Sigui E2 un espai vectorial real, V una base d’E2 , i g ∈ L2 (E2 , R) definida com:

( ∀~xV = (x1 , x2 ) , ~yV = (y 1 , y 2 ) ∈ E2 ) g(~x, ~y ) = −3x1 y 1 + x2 y 1 + 2x2 y 2


Aixı́, tenim que:

a11 = −3 (coeficient de x1 y 1 ), a12 = 0 (coeficient de x1 y 2 )


a21 = 1 (coeficient de x2 y 1 ), a22 = 2 (coeficient de x2 y 2 )

Per tant:
 
−3 0
[g]V = ∈ MR (2 × 2)
1 2

Teorema 5.2.2: Sigui En un espai vectorial real, i sigui V una base d’En . L’aplicació

ψV : L2 (En , R) −→ MR (n × n)
g 7−→ ψV (g) = [g]V
és un isomorfisme.
(i llavors es verificarà dimR L2 (En , R) = dimR MR (n × n) = n2 )
Demostració 5.2.2

∀λ ∈ R , ∀g, h ∈ L2 (En , R), ∀~x, ~y , ~z ∈ En ,

? ψV és aplicació lineal

T T T T
∀~x, ~y ∈ En , [~x]V [λg + h]V [~y ]V = λ[~x]V [g]V [~y ]V + [~x]V [h]V [~y ]V = [~x]V (λ[g]V + [h]V )[~y ]V

Llavors, [λg + h]V = λ[g]V + [h]V , és a dir: ψV (λg + h) = λψV (g) + ψV (h)

? ψV és injectiva

T
Suposem ψV (g) = [g]V = [0]n×n . Llavors, ∀~x, ~y ∈ En g(~x, ~y ) = [~x]V [g]V [~y ]V = 0 i, per tant, g = 0̃.

? ψV és exhaustiva

T
Sigui A ∈ MR (n × n). Definim l’aplicació: (∀~x, ~y ∈ En ) g(~x, ~y ) = [~x]V A [~y ]V

I es verifica que g ∈ L2 (En , R)

Teorema 5.2.3 (Canvi de Base): Sigui g ∈ L2 (En , R), i siguin V i N dues bases d’En . Es verifica:
T
[g]N = [Id]N V [g]V [Id]N V

Demostració 5.2.3
∀~x, ~y ∈ En , com que g és aplicació ∃!g(~x, ~y ) que podem obtenir tant treballant en base V com en base N :

T T T T T
g(~x, ~y ) = [~x]N [g]N [~y ]N = [~x]V [g]V [~y ]V = ([Id]N V [~x]N ) [g]V ([Id]N V [~y ]N ) = [~x]N [Id]N V [g]V [Id]N V [~y ]N

Restant,
 
T T
[~x]N [g]N − [Id]N V [g]V [Id]N V [~y ]N =
N ot
XT · A · Y = 0

Lema 5.2.1: Donada una matriu A = (aij ) ∈ MK (n × n) i ∀X, Y ∈ MK (n × 1),

XT · A · Y = 0 =⇒ A = [0]n

Demostració 5.2.1 En ser certa la hipòtesi ∀X = [x1 · · · xn ]T , Y = [y 1 · · · y n ]T , en particular ho serà si agafem


   
0 0
 ..   .. 
 .   . 
   
1
X =  (i) 
  ∀i = 1, ..., n Y =1(j) 
 ∀j = 1, ..., n
 .   . 
 ..   .. 
0 0
llavors,
n X
X n
0 = XT · A · Y = xk akl y l = aij ∀i, j = 1, ..., n =⇒ A = [0]n
k=1 l=1
Proposició 5.2.4: Sigui g ∈ L2 (En , R), i sigui V una base d’En . Es verifica:
T
g ∈ S2 (En , R) (simètrica) ⇐⇒ [g]V = [g]V (matriu simètrica)

Demostració 5.2.4 Sigui V = {~e1 , . . . , ~en }, [g]V = (gij ), gij = g(~ei , ~ej ) (∀i, j = 1, n).

=⇒ ] Com que g és simètrica, resulta que g(~ei , ~ej ) = g(~ej , ~ei ), és a dir, gij = gji , ∀i, j = 1, ..., n. Per tant, la matriu
[g]V és simètrica.

⇐= ] ∀~x, ~y ∈ En tenim que (tenint en compte que una matriu 1 × 1 (un número real) i la seva transposada
coincideixen):

T T T T T T
g(~x, ~y ) = [~x]V [g]V [~y ]V = ([~x]V [g]V [~y ]V ) = [~y ]V [g]V [~x]V = [~y ]V [g]V [~x]V = g(~y , ~x), i resulta que g és simètrica.

Obtenció de la forma bilineal simètrica g associada a una forma quadràtica qg (alternativa a les fórmules
de polarització per al cas de dimensió finita)

Siguin En un espai vectorial real, V una base d’En , i g ∈ S2 (En , R). Suposem que g ens la donen definida per:

n n n
2
∀~xV = (x1 , . . . , xn ) ∈ En bii (xi ) + bij xi xj
P P P
qg (~x) = g(~x, ~x) =
i=1 i=1 j=1
(j>i)

Llavors, podem escriure directament:

1 1
 
b11 2 b12 ... 2 b1n
1 1
2 b12 b22 ... b2n
 
2
[g]V = 
 
.. .. .. .. 
 . . . . 
1 1
2 b1n 2 b2n ... bnn

2
És a dir, els termes bii (∀i = 1, ..., n) (coeficients de (xi ) ) són els elements diagonals i-èssims de [g]V , mentre que els
termes bij , ∀i, j = 1, ..., n, j > i (coeficients de xi xj ) s’han de dividir per 2 i col·locar-los en les posicions ij, ji de la
matriu [g]V . Si fem aquesta identificació i calculem g(~x, ~y ) en forma matricial obtindrem l’expressió tal i com vindria
donada per les fórmules de polarització.

Exemple 5.2.2: Sigui E2 un espai vectorial real, V una base d’E2 , i g ∈ S2 (E2 , R) definida com:

2 2
∀~xV = (x1 , x2 ) ∈ E2 g(~x, ~x) = (x1 ) + 4x1 x2 − 2(x2 )

Aixı́, tenim que


2
b11 = 1 (coeficient de (x1 ) )
1
b12 = 4 (coeficient de x1 x2 ) =⇒ 2 b12 = 2
2
b22 = −2 (coeficient de (x2 ) )

Per tant,
 
1 2
[g]V = ∈ MR (2 × 2)
2 −2
5.3 Forma Canònica i Forma Normal d’una forma bilineal simètrica
Definició 5.3.1: Sigui g ∈ S2 (E, R) i N1 , N2 bases d’E. Anomenant [g]N1 = (aij ) ∈ MR (n × n), [g]N2 = (bij ) ∈
MR (n × n),

Direm que g pren la forma canònica en la base N1 =⇒ aij = 0, ∀i, j = 1, ..., n.


Direm que g pren la forma normal en la base N2 =⇒ bij = 0, bii ∈ {−1, 0, 1} ∀i, j = 1, ..., n.

Proposició 5.3.1: Sigui A ∈ MR (n × n) una matriu simètrica. Siguin f1 , ..., fs operacions elementals de fila i siguin
c1 , ..., cs les mateixes operacions elementals anteriors, però de columna. Aplicades ordenadament sobre A resulten:
f1
1 c
2 f2 s c fs c
A −→ −→ −→ −→ · · · −→ −→ B
O bé,

B = fs (In ) · · · f2 (In ) · f1 (In ) · A · c1 (In ) · c2 (In ) · · · cs (In )


Aleshores, anomenant P = c1 (In ) · c2 (In ) · · · cs (In ), es verifica B = P T · A · P . Si A = [g]V on g ∈ S2 (En , R) amb V
T
una certa base d’En , aquesta relació equival al canvi de base B = [g]N = [Id]N V · [g]V · [Id]N V on P = [Id]N V i N és
una altra base d’En .

Demostració 5.3.1 Fer una operació elemental de fila (o.e.f.) fi a una matriu A equival a multiplicar A per l’esquerra per
una matriu elemental de fila Fi = fi (In ) (que és inversible). Si, seguidament, apliquem la mateixa operació elemental
però de columna (o.e.c.), estem multiplicant A per la dreta per una matriu elemental de columna Ci = ci (In ) (que és
inversible). La relació entre ambdues matrius és

Ci = FiT
Si en total anem aplicant ordenadament p o.e.f. i les respectives o.e.c. a A, estarem fent el següent:

(Fs · · · F2 · F1 ) · A · (C1 · C2 · · · Cs )
T
amb (C1 · C2 · · · Cs ) = CsT · · · C2T
· C1T
= Fs · · · F2 · F1 . D’aquesta manera, anomenant C1 · C2 · · · Cs = P , tenim la
matriu P T · A · P . Per ser producte de matrius inversibles, P és inversible, i per això li podem fer correspondre una
certa matriu de canvi de base. Llavors, aquest producte matricial es correspon exactament l’expressió de canvi de
base per a una bilineal vista al teorema 5.2.3.

Teorema 5.3.1: (Mètode de la Reducció Gaussiana) ∀g ∈ S2 (E, R) ∃N1 , N2 bases d’E tals que g pren la forma
canònica a N1 i g pren la forma normal a N2 .

Demostració 5.3.1 Exposarem un mètode inductiu que consistirà en aplicar o.e.r. i o.e.c. (respectives unes de les
altres) per poder anar muntant una estructura diagonal a partir d’una matriu associada a g qualsevol. Suposem que
anomenem [g]V = A = (aij ) on V és una certa base d’E, amb A diagonal en blocs, i el primer bloc (r − 1) × (r − 1)
és diagonal r ∈ {2, ..., n}, és a dir,
 
a11
 .. 

 . 


 a (r−1)(r−1)



 arr . . . arp . . . arn 

 .. . .. .
.. .
.. 

 . 


 arp . . . app . . . apn  
 .. .. .. .. 
 . . . . 
arn . . . apn . . . ann
on arp 6= 0.
Distigirem els següents casos:
• Cas 1: arr 6= 0. En aquest cas, efectuant les o.e.f. fi − aarr
ir
fr , ∀i = r + 1, ..., n aconseguim fer zeros a sota del
coeficient arr :
 
a11
 .. 

 . 


 a(r−1)(r−1) 


air
  arr . . . arp . . . arn 
A → fi − fr , ∀i = r + 1, ..., n → 
 
.. .. .. .. 
arr  . . . . 
 

 0 . . . app . . . apn 
 .. .. .. .. 
 . . . . 
0 ... apn ... ann
I fent les mateixes operacions però de columna ci − aarr
ri
cr , ∀i = r + 1, ..., n aconseguim fer zeros a la dreta del coeficient
arr .

• Cas 2: arr = 0. Distingirem els següents dos subcasos:

• Cas 2.1: ∃app 6= 0 amb p = r + 1, ..., n. En aquest cas, efectuant l’o.e.f. fr ↔ fp i la corresponent o.e.c. cr ↔ cp
aconseguim col·locar el coeficient app al lloc on hi havia el arr = 0:
 
a11
 .. 

 . 


 a(r−1)(r−1) 

 app . . . arp . . . apn 
A → {fr ↔ fp } → {cr ↔ cp } → 
 
.. .. .. .. 

 . . . . 


 arp . . . 0 . . . arn 

 .. .. . .. .
.. 

 . .
apn . . . arn . . . ann
I aquesta situació ja es correspon amb la del Cas 1, i podem procedir com hem comentat abans.

• Cas 2.2: app = 0, ∀p = r + 1, ..., n. En aquest cas, com que arp 6= 0, efectuant l’o.e.f. fr + fp i la corresponent
o.e.c. cr + cp aconseguim col·locar el coeficient 2arp al lloc on hi havia el arr = 0:

 
a11
 .. 

 . 


 a(r−1)(r−1) 

 2arp ... arp ... apn + arn 
A → {fr + fp } → {cr + cp } → 
 
.. .. .. .. 

 . . . . 


 arp ... 0 ... arn  
 .. .. .. .. 
 . . . . 
apn + arn ... arn ... 0

I aquesta situació ja es correspon amb la del Cas 1, i podem procedir com hem comentat abans.

Exemple 5.3.1: Sigui g : R3 × R3 −→ R una forma bilineal simètrica definida com:

∀(x1 , x2 , x3 ), (y1 , y2 , y3 ) ∈ R3 g((x1 , x2 , x3 ), (y1 , y2 , y3 )) = x1 y1 + x1 y2 + x2 y1 + 2x2 y2 − 3x3 y3

Pretenem trobar una base N1 on g prengui forma canònica (no normal), i una altra base N2 on g prengui forma
normal. Per fer-ho, sigui V la base canònica de R3 . La matriu [g]V resulta:
 
1 1 0
[g]V = 1 2 0 = A
0 0 −3

Llavors:
       
1 1 0 1 0 0 √1
f
1 0 0 √1
c 1 0 0
f2 −f1 c2 −c1 3 3 3 3
A −→ 0 1 0 −→ 0 1 0 = D1 = [g]N1 −→ 0 1 0

 −→ 0 1 0 = D2 = [g]N2
0 0 −3 0 0 −3 0 0 − 3 0 0 −1

? Trobem ara la matriu P1 tal que P1T A P1 = D1 :


   
1 0 0 1 0 0
f2 −f1
I3 = 0 1 0 −→ −1 1 0 = P1T = [Id]TN1 V
0 0 1 0 0 1

? Trobem ara la matriu P2 tal que P2T A P2 = D2 :


     
1 0 0 1 0 0 √1 f3 1 0 0
f2 −f1 3
I3 = 0 1 0 −→ −1 1 0 −→ −1 1 0  = P2T = [Id]TN2 V
0 0 1 0 0 1 0 0 √1
3

Proposició 5.3.2: Sigui g ∈ S2 (En , R), i sigui N una base d’En on g pren forma canònica (normal o no). Es verifica:

1) g és definida positiva ⇐⇒ els elements diagonals de [g]N són tots ≥ 0


2) g és definida positiva no degenerada ⇐⇒ els elements diagonals de [g]N són tots > 0
3) g és definida negativa ⇐⇒ els elements diagonals de [g]N són tots ≤ 0
4) g és definida negativa no degenerada ⇐⇒ els elements diagonals de [g]N són tots < 0
5) g és no definida ⇐⇒ als elements diagonals de [g]N hi ha almenys un negatiu i un positiu.

Demostració 5.3.2
 
α11
Sigui N = {w ~ n }, [g]N
~ 1, . . . , w =
 ..  amb ~xN = (x1 , ..., xn ), ∀~x ∈ En .

.
αnn

[ 1,2 =⇒ ] ∀~x ∈ En ,

x1
  
α11 n
T ..   ..  X 2
= x1 xn  αii (xi )
 
0 ≤ g(~x, ~x) = [~x]N [g]N [~x]N ... =

.  . 
αnn xn i=1

Com que aquest resultat és cert ∀~x ∈ En , considerem els vectors (~zj )N = (0, ..., 1(j) , ..., 0) ∀j = 1, ..., n. Llavors,

n
X 2
0 ≤ g(~zj , ~zj ) = αii (xi ) = αjj ∀j = 1, ..., n
i=1

I tots els elements de la diagonal són ≥ 0.

Si a més resulta que g(~x, ~x) = 0 només quan ~x = ~0, llavors cal que αjj > 0, ∀j = 1, ..., n.

[ 1,2 ⇐= ] ∀~x ∈ En , tenim igual que abans, que:


n
2
αii (xi )
P
g(~x, ~x) =
i=1

Llavors, si αii ≥ 0 ∀i = 1, ..., n, tenim que g(~x, ~x) ≥ 0 ∀~x ∈ En , indicant que g és definida positiva.

Si a més resulta que αii > 0 ∀i = 1, ..., n, tenim que l’equació g(~x, ~x) = 0 obliga a que ~x = ~0 (ja que és necessari que
xi = 0, ∀i = 1, ..., n). Per tant, g és definida positiva no degenerada.
[ 3,4 ] Anàlogament als punts 1 i 2.

[5] Considerant a més ~y ∈ E, ~yN = (y 1 , ..., y n ),

n
 
2
αii (xi ) < 0 ∃i = 1, ..., n / αii < 0
P
∃~x ∈ E, g(~x, ~x) =

 
i=1
g és no definida ⇐⇒ n
2
⇐⇒
αjj (y j ) > 0
P
∃~y ∈ E, g(~y , ~y ) =
 
∃j = 1, ..., n / αjj > 0
 
j=1

5.4 Producte escalar


Definició 5.4.1: Sigui E un espai vectorial real. Direm que < | > és un producte escalar definit en E si verifica:

1) < | > és una forma bilineal simètrica definida en E, < | >: E × E −→ R.

2) < | > és definida positiva i no degenerada: ∀~x ∈ E, ~x 6= ~0 < ~x | ~x >> 0.

En aquesta situació direm que (E, < | >) és espai euclidià .

Si l’espai és de dimensió finita, dimR En = n < +∞, podem parlar de matriu associada a aquest producte escalar, que
no és més que un cas particular de matriu associada a una forma bilineal simètrica:

Siguin les bases: V = {~e1 , ~e2 , . . . , ~en }, N = {~u1 , ~u2 , . . . , ~un }

[< | >]V = [gij ] ∀i, j = 1, ..., n gij =< ~ei | ~ej >=< ~ej | ~ei >= gji
 1
y
2
y 

< ~x | ~y >= x1 2 n
 
∀~x, ~y ∈ En , x · · · x [< | >]V  .  =
 .. 
yn
i el canvi de base:
T
[< | >]N = [Id]N V · [< | >]V · [Id]N V

Proposició 5.4.1: Sigui En un espai vectorial real de dimensió finita i f una forma bilineal simètrica definida en
En :

f és producte escalar en En ⇐⇒ la seva forma normal és la matriu Identitat

Definició 5.4.2: Sigui (E, < | >) espai euclidià i dos vectors d’aquest espai ~x, ~y . Direm que {~x, ~y } són vectors
ortogonals si el seu producte escalar és zero, < ~x | ~y >= 0.

Definició 5.4.3: Sigui (E, < | >) espai euclidià , i F un subespai vectorial d’E, definim el conjunt:

F ⊥ = {~y | ~y ∈ E, ∀~x ∈ F, < ~y | ~x >= 0}


Proposició 5.4.2: F ⊥ és subespai vectorial d’E.

Demostració 2.4.1
a) Per començar verifiquem que ~0 ∈ F ⊥ , i per tant F ⊥ 6= ∅, ja que:

∀~x ∈ F, < ~0 | ~x >= 0


b) ∀~y1 , ~y2 ∈ F ⊥ , ∀λ ∈ R, comprovem que ~y = ~y1 + λ~y2 ∈ F ⊥ ,
∀~x ∈ F, < ~y | ~x >=< ~y1 + λ~y2 | ~x >=< ~y1 | ~x > +λ < ~y2 | ~x >= 0 + λ · 0 = 0

Corol·lari 5.4.3:

E ⊥ = {~0}, {~0}⊥ = E
Proposició 5.4.4: Per a qualsevol F subespai vectorial de E es verifica F ∩ F ⊥ = {~0}.

Demostració 5.4.4
Hem de justificar que l’únic element de la intersecció és el ~0. Sigui ~z ∈ F ∩ F ⊥ , com que ~z ∈ F ⊥ , llavors ∀~x ∈ F ,
< ~z | ~x >= 0. En pertànyer a la intersecció això també serà cert per ~x = ~z, i ens queda < ~z | ~z >= 0 i per les
propietats del producte escalar sabem que ~z = ~0.

Definició 5.4.4: Direm que {~u1 , ~u2 , . . . , ~ur } és un sistema de vectors ortogonals, si i només si, ∀i, j = 1, r i 6=
j < ~ui | ~uj >= 0

Proposició 5.4.5: Tot sistema de vectors ortogonals i no nuls és un sistema lliure.

Demostració 5.4.5
∀i = 1, r ∀αi ∈ R, definim:
r
X
~u = α1 ~u1 + α2 ~u2 + · · · + αr ~ur = αi ~ui = ~0
i=1

Fem ara el producte escalar d’aquest vector ~u per un vector qualsevol ~uj , ∀j = 1, r,
r
X
< ~u | ~uj >=< ~0 | ~uj >= 0 = αi < ~ui | ~uj >= αj < ~uj | ~uj >= 0
i=1

i ja que ~uj 6= ~0, això ens porta a:

∀j = 1, r αj = 0

Definició 5.4.6: Sigui (E, < | >) espai euclidià, ∀~x ∈ E, definim la norma d’aquest vector:
p
k~xk = + < ~x | ~x >
Proposició 5.4.5: (Propietats de la norma)

1) ∀~x ∈ E, k~xk ≥ 0.
2) k~xk = 0 ⇐⇒ ~x = ~0.
3) ∀~x ∈ E, ∀c ∈ R, kc~xk =| c | k~xk

Definició 5.4.7: Si k~xk = 1 direm que ~x és un vector unitari.

∀~v ∈ E, ~v 6= ~0, direm que normalitzem el vector ~v quan el dividim per la seva norma. D’aquesta manera
~v
aconseguim un vector ~x = que és unitari.
k~v k

Exercisi 5.4.1 Sigui (E, < | >) espai euclidià real, ∀~x, ~y , ~z ∈ E, demostreu:
1) < ~x | ~y >= 12 (k~x + ~y k2 − k~xk2 − k~y k2 )
2) < ~x | ~y >= 14 (k~x + ~y k2 − k~x − ~y k2 )
3)k~x + ~y + ~zk2 = k~x + ~y k2 + k~x + ~zk2 + k~y + ~zk2 − k~xk2 − k~y k2 − k~zk2

Proposició 5.4.7 (Teorema de Pitàgores): Sigui (E, < | >) espai euclidià.
∀~x, ~y ∈ E, vectors ortogonals,
k~x + ~y k2 = k~xk2 + k~y k2
Demostració 5.4.7

k~x + ~y k2 =< ~x + ~y | ~x + ~y >=< ~x | ~x > + < ~x | ~y > + < ~y | ~x > + < ~y | ~y >= k~xk2 + k~y k2
Proposició 5.4.8 (Llei del paral·lelògram): Sigui (E, < | >) espai euclidià. ∀~x, ~y ∈ E,

k~x + ~y k2 + k~x − ~y k2 = 2k~xk2 + 2k~y k2


Demostració 5.4.8

< ~x + ~y | ~x + ~y > + < ~x − ~y | ~x − ~y >=< ~x | ~x > + < ~x | ~y > + < ~y | ~x > + < ~y | ~y > +
+ < ~x | ~x > − < ~x | ~y > − < ~y | ~x > + < ~y | ~y >= 2k~xk2 + 2k~y k2
Proposició 5.4.9: Sigui (E, < | >) espai euclidià, i ~x ∈ E, ~x 6= ~0. ∀~y ∈ E, ∃!c ∈ R tal que ~y −c~x i ~x són ortogonals.

Demostració 5.4.9
Imposem aquesta propietat i cerquem el candidat. S’ha de verificar:

< ~y − c~x | ~x >=< ~y | ~x > −c < ~x | ~x >= 0


llavors,

< ~y | ~x >
c=
< ~x | ~x >
Definim doncs, c ∈ R segons l’expressió anterior (que és únic donats ~x, ~y ). Llavors,

< ~y | ~x > < ~y | ~x >


< ~y − c~x | ~x >=< ~y − ~x | ~x >=< ~y | ~x > − < ~x | ~x >=< ~y | ~x > − < ~y | ~x >= 0
< ~x | ~x > < ~x | ~x >

Notacions:

c = coeficient de Fourier de ~y respecte de ~x

< ~y | ~x >
c~x = ~x = P r~x (~y ): Projecció Ortogonal d’~y sobre ~x
< ~x | ~x >

Proposició 5.4.10 (Desigualtat de Schwarz): Sigui (E, < | >) espai euclidià. ∀~x, ~y ∈ E,

|< ~x | ~y >| ≤ k~xk · k~y k

Demostració 5.4.10

Considerarem dos casos: ~x = ~0 i ~x 6= ~0.

1) Si ~x = ~0 es verifica la desigualtat ja que |< ~0 | ~y >|= 0 i k~0k · k~y k = 0.

2) Sigui ~x 6= ~0 i c el coeficient de Fourier de ~y respecte ~x,

k~y k2 = k~y − c~x + c~xk2 = k~y − c~xk2 + kc~xk2

on hem utilitzat el Teorema de Pitàgores en ser ortogonals els vectors ~y − c~x i c~x. Llavors,

| c |2 k~xk2 ≤ k~y k2
en ser les normes valors no negatius podrem escriure:

| c | k~xk ≤ k~y k

|< ~y | ~x >|
=⇒ k~xk ≤ k~y k
k~xk2

el que ens dóna finalment

|< ~x | ~y >| = |< ~y | ~x >| ≤ k~xk · k~y k

Proposició 5.4.11: Sigui (E, < | >) espai euclidià. ∀~x, ~y ∈ E,

|< ~x | ~y >| = k~xk · k~y k ⇐⇒ {~x, ~y } són linealment dependents

Demostració 5.4.11 Exercici.

Definició 5.4.8: Sigui (E, < | >) espai euclidià, ∀~x, ~y ∈ E, ~x 6= ~0, ~y 6= ~0. Definim l’angle format per aquests dos
vectors, α ∈ [0, π], tal que:

< ~x | ~y >
cos α =
k~xk · k~y k

A partir de la desigualtat de Schwarz verifiquem que:

−1 ≤ cos α ≤ 1

Proposició 5.4.12 (Desigualtat triangular): Sigui (E, < | >) espai euclidià. ∀~x, ~y ∈ E,

k~x + ~y k ≤ k~xk + k~y k


Demostració 5.4.12

k~x + ~y k2 =< ~x + ~y | ~x + ~y >= k~xk2 + k~y k2 + < ~x | ~y > + < ~y | ~x > [∗]
Ara utilitzarem la desigualtat de Schwarz:

< ~x | ~y > + < ~y | ~x >= 2 < ~x | ~y >≤ 2 |< ~x | ~y >|≤ 2k~xk · k~y k

Aixı́ doncs arribem a la mateixa desigualtat, que en substituir-la a [∗] ens queda:

k~x + ~y k2 ≤ (k~xk + k~y k)2


i en ser les normes valors no negatius ens permet eliminar els quadrats.

Proposició 5.4.13: Sigui (E, < | >) espai euclidià. Sigui {w ~ 1, w ~ m } ⊂ E, sistema de vectors ortogonals i no
~ 2, . . . , w
nuls. ∀~x ∈ E, sigui ci el coeficient de Fourier de ~x respecte w
~ i . Definim:
m
X
ci w
~ i = P rW (~x) = projecció ortogonal de ~x sobre el subespai W =< w
~ 1, w
~ 2, . . . , w
~ m >K
i=1

Llavors, es verifica:
1) (~x − P rW (~x)) ∈< w
~ 1, w ~ m >⊥
~ 2, . . . , w K
2) ∀i = 1, m, ∀ai ∈ R k~x − P rW (~x)k ≤ k~x − ~y k ∀~y ∈ W

Demostració 5.4.13

1) ∀j = 1, m,
m
X m
X
< ~x − ~i | w
ci w ~ j >=< ~x | w
~j > − ~i | w
ci < w ~ j >=< ~x | w
~ j > −cj < w
~j | w
~ j >=
i=1 i=1

< ~x | w
~j >
=< ~x | w
~j > − ~j | w
<w ~ j >= 0
~j | w
<w ~j >
Pm
2) Considerem ~y = i=1 ai w
~ i:
2 2
m
X m
X m
X m
X
2
k~x − ~y k = ~x − ~ i = ~x −
ai w ci w
~i + ~i −
ci w ~ i = k~s + ~zk2
ai w


i=1 i=1 i=1 i=1
on
m
X m
X

~s = ~x − ~i ∈ W
ci w ~z = (ci − ai )w
~i ∈ W
i=1 i=1

Per tant, els dos vectors són ortogonals i podem aplicar el Teorema de Pitàgores,

m
2 m
2 m 2 m
2
X X X X
~x − ~ i = ~x −
ai w ci w ~ i ≥ ~x −
~ i + (ci − ai )w ci w
~ i


i=1 i=1 i=1 i=1

Eliminem els quadrats i arribem al resultat desitjat.

Proposició 5.4.14 (Desigualtat de Bessel): Sigui (E, < | >) espai euclidià.
Sigui {w
~ 1, w ~ m } ⊂ E, un sistema de vectors ortogonals i unitaris.
~ 2, . . . , w
m
X
∀~x ∈ E, |cj |2 ≤ k~xk2
j=1

on cj és el coeficient de Fourier de ~x respecte de w


~j.

Demostració 5.4.14
m
2 m m
X X X
0 ≤ ~x − ~ i =< ~x −
ci w ~ i |~x −
ci w cj w
~ j >=


i=1 i=1 j=1
m
X m
X m X
X m
= k~xk2 − ~ i |~x > −
ci < w cj < ~x|w
~j > + ~ i |w
ci cj < w ~j >
i=1 j=1 i=1 j=1

Ara tenint en compte que es verifica:

~ i |w
<w ~ j >= 0 per i 6= j, ~ i |w
<w ~ i k2 = 1, aleshores < ~x|w
~ i >= kw ~ j >= cj , ~ i |~x >= ci
<w

substituint obtenim:
m
X m
X m
X
0 ≤ k~xk2 − |ci |2 − |cj |2 + |ci |2
i=1 j=1 i=1

Simplificant:

m
X
|cj |2 ≤ k~xk2
j=1
Definició 5.4.9: Sigui (En , < | >) un espai euclidià de dimensió finita igual a n.
Sigui B = {~e1 , ~e2 , . . . , ~en } ⊂ En . Direm que B és base ortogonal d’En si és un sistema de vectors ortogonals i no
nuls.

Comentari: Ja hem demostrat anteriorment que un sistema de vectors ortogonals i no nuls és un sistema lliure.

Definició 5.4.10: Sigui (En , < | >) un espai euclidià de dimensió finita igual a n.

Sigui B = {~e1 , ~e2 , . . . , ~en } ⊂ En . Direm que B és base ortonormal d’En si és un sistema de vectors ortogonals i
unitaris. És a dir:
< ~ei |~ej >= δij , on δij = 0 si i 6= j, i δii = 1

Proposició 5.4.15: Sigui (E, < | >) espai euclidià. Per a qualsevol subespai vectorial W 6= {~0} de dimensió finita,
existeix una base ortonormal de W .

Demostració 5.4.15 La farem per construcció usant el mètode d’ortogonalització de Gram–Schmidt.


Sigui V = {~e1 , ~e2 , . . . , ~em } una base de W . A partir d’ella en volem obtenir una d’ortogonal N = {~v1 , ~v2 , . . . , ~vm } i
prenent:
1
∀j = 1, ..., m w
~j = ~vj
k~vj k
D = {w
~ 1, w ~ m } serà base ortonormal de W .
~ 2, . . . , w
Comencem definint j vectors, (j ≤ m):

~v1 = ~e1
Pj−1 < ~ej | ~vk >
~vj = ~ej − k=1 ~vk ∀j = 2, ..., m
< ~vk | ~vk >
Demostrarem per recurrència que ∀j = 2, ..., m els vectors {~v1 , ~v2 , . . . , ~vj } són ortogonals i no nuls, i generen el mateix
subespai vectorial que {~e1 , . . . , ~ej }.

1) j = 2:

< ~e2 | ~v1 > < ~e2 | ~v1 >


< ~v2 | ~v1 >=< ~e2 − ~v1 | ~v1 >=< ~e2 | ~v1 > − < ~v1 | ~v1 >= 0
< ~v1 | ~v1 > < ~v1 | ~v1 >
Sabem que ~v1 = ~e1 6= ~0 ja que forma part d’una base de W . Ara demostrarem que ~v2 6= ~0 per reducció a l’absurd.
Suposem que ~v2 = ~0, llavors:

~0 = ~e2 − < ~e2 | ~v1 > ~v1 = ~e2 + λ~e1


< ~v1 | ~v1 >
i arribem a que {~e1 , ~e2 } són linealment dependents, cosa que no és certa ja que formen part d’una base.
Observem que tal com s’ha construı̈t els vectors {~v1 , ~v2 }, es verifica < ~e1 , ~e2 >K =< ~v1 , ~v2 >K .

2) Com a hipòtesi de recurrència admetem que {~v1 , ~v2 , . . . , ~vj−1 } és un sistema de vectors ortogonals i no nuls, i

< ~e1 , ~e2 , . . . , ~ej−1 >R =< ~v1 , ~v2 , . . . , ~vj−1 >R
Ara ens cal demostrar que {~v1 , . . . , ~vj−1 , ~vj } és un sistema de vectors ortogonals i no nuls, i que < ~e1 , . . . , ~ej >R =<
~v1 , . . . , ~vj >R . És a dir:
a) ~vj és ortogonal a ~vi , ∀i = 1, ..., j − 1:

j−1 j−1
X < ~ej | ~vk > X < ~ej | ~vk > < ~ej | ~vi >
< ~vj | ~vi >=< ~ej − ~vk | ~vi >=< ~ej | ~vi > − < ~vk | ~vi >=< ~ej | ~vi > − < ~vi | ~vi >= 0
< ~vk | ~vk > < ~vk | ~vk > < ~vi | ~vi >
k=1 k=1

b) ~vj 6= ~0. Fem-ho per reducció a l’absurd. Suposem que ~vj = ~0, llavors:
j−1 j−1 j−1
~0 = ~vj = ~ej −
X < ~ej | ~vk > X X
~vk = ~ej + λk~vk = ~ej + αk~ek = ~0
< ~vk | ~vk >
k=1 k=1 k=1
per tant {~e1 , ~e2 , . . . , ~ej } és un sistema lligat. Però això no és possible ja que formen part d’una base de W .
c) < ~e1 , . . . , ~ej >R =< ~v1 , . . . , ~vj >R : com que per hipòtesi de recurrència < ~v1 , ..., ~vj−1 >R =< ~e1 , ..., ~ej−1 >R ⊂<
Pj−1
~e1 , ..., ~ej >R , només cal veure que ~vj ∈< ~e1 , ..., ~ej >R , cosa que és certa ja que ~vj = ~ej + k=1 αk~ek , és una combinació
lineal dels vectors ~e1 , ..., ~ej .

Exemple 5.4.1: Considerem un espai vectorial real E, V = {~e1 , ~e2 , ~e3 } una base i < | > un producte escalar definit
en E, del que coneixem la seva matriu associada:

 
5 2 0
[< | >]V = 2 2 1
0 1 1

Es demana obtenir una base ortonormal.

Primer mètode: Obtindrem la forma normal de < | > fent operacions elementals de fila i les mateixes de columna
(reducció Gaussiana)

           
5 2 0 ↔ f3 0 1 1 1 1 0 1 1 0 1 0 0 1 0 0
2 2 1 ∼ 2 2 1 ∼ 1 2 2 −f1 ∼ 0 1 2 ∼ 0 1 2 ∼ 0 1 2 ∼ I3
0 1 1 5 2 0 0 2 5 0 2 5 0 2 5 −2f2 0 0 1

↔ c3 −c1 −2c2
La forma normal de < | > és la matriu I3 , i ja tenim una base ortonormal N .

Si ara apliquem les mateixes operacions elementals de fila a la matriu I3 i la transposem obtindrem la matriu canvi
de base:

   
0 0 1 1 0 0
[Id]N V = 0 1 −2 [f ]N = 0 1 0
1 −1 2 0 0 1

Segon mètode: Obtindrem una base ortonormal W aplicant a la base V = {~e1 , ~e2 , ~e3 } el mètode d’ortogonalització
de Gram–Schmidt:



~v1 = ~e1 = (1, 0, 0)
< ~e2 | ~v1 >


~v2 = ~e2 − ~v1 = (0, 1, 0) − 25 (1, 0, 0) = (−2/5, 1, 0)

< ~v1 | ~v1 >
< ~e3 | ~v1 > < ~e3 | ~v2 > 0 1


~v3 = ~e3 − ~v1 − ~v2 = (0, 0, 1) − (1, 0, 0) − (−2/5, 1, 0) = (1/3, −5/6, 1)


< ~v1 | ~v1 > < ~v2 | ~v2 > 5 6/5

Llavors {(1, 0, 0), (−2/5, 1, 0), (1/3, −5/6, 1)} és base ortogonal. Si multipliquem els vectors per un escalar no nul
obtindrem una nova base ortogonal més còmoda:

M = {w
~ 1 = (1, 0, 0), w ~ 3 = (2, −5, 6)}
~ 2 = (−2, 5, 0), w

Ara calculem les seves normes:

√ √ √
k(1, 0, 0)k = 5 k(−2, 5, 0)k = 30 k(2, −5, 6)k = 6

Dividint els vectors de la base M per les seves normes obtenim una base ortonormal:
√ √ √ √ √ √
W = {~u1 = (1/ 5, 0, 0), ~u2 = (−2/ 30, 5/ 30, 0), ~u3 = (2/ 6, −5/ 6, 6/ 6)}

Proposició 5.4.16: Sigui (En , < | >) espai euclidià de dimensió finita. Per a qualsevol subespai W ∈ En es verifica:

W ⊕ W ⊥ = En

Demostració 5.4.16 Ja sabem que W ∩W ⊥ = {~0}, el que ens permet escriure W ⊕W ⊥ ⊂ En . Anomenant dimK W = r,
el que haurem de demostrar és que dimK W ⊥ = n − r. Considerem una base de W , {~v1 , ~v2 , . . . , ~vr } i la completem fins
obtenir una base d’En :

B = {~v1 , ~v2 , . . . , ~vr , ~ur+1 , . . . , ~un }

Ara apliquem a aquesta base el mètode d’ortogonalització de Gram-Schmidt i obtenim una base ortogonal, de tal
manera que els primers r vectors són base ortogonal de W :

N = {w
~ 1, w ~ r , ~tr+1 , . . . , ~tn }
~ 2, . . . , w

Per construcció, < ~tr+1 , . . . , ~tn >K ⊂ W ⊥ , i aleshores n − r ≤ dimK W ⊥ .

Suposem que n − r < dimK W ⊥ . Llavors:

dimK (W ⊕ W ⊥ ) = dimK W + dimK W ⊥ = r + dimK W ⊥ > r + n − r = n

és a dir, que per una banda W ⊕ W ⊥ ⊂ En i per una altra dimK (W ⊕ W ⊥ ) > n, i això no és possible.

Havent vist que W ⊕ W ⊥ = En , podem concloure que ∀~x ∈ En , ∃!~x1 ∈ W, ∃!~x2 ∈ W ⊥ tals que ~x = ~x1 + ~x2 . Seguint
la notació anterior, W =< w
~ 1, w ~ r >K i W ⊥ =< ~tr+1 , . . . , ~tn >K . Suposem que
~ 2, . . . , w

r
X n
X
~x = αi w
~i + β j~tj
i=1 j=r+1

~ k ∀k = 1, ..., r i per ~tk ∀k = r + 1, ..., n,


Llavors, multiplicant escalarment per la dreta aquesta expressió per w

( Pr Pn Pr
< ~x | w ~ i + j=r+1 β j~tj | w
~ k >=< i=1 αi w ~ k >=< i=1 αi w ~ k >= αk < w
~i | w ~k | w ~k >
Pr n n
< ~x | ~tk >=< i=1 α w
i
~ i + j=r+1 β ~tj | ~tk >=< j=r+1 β ~tj | ~tk >= β k < ~tk | ~tk >
j j
P P

De manera que αk = ck ∀k = 1, ..., r (coeficients de Fourier de ~x respecte de w ~ k ) i β k = ck ∀k = r + 1, ..., n (coeficients


de Fourier de ~x respecte de ~tk ). O el que és el mateix, ~x1 = P rW (~x), ~x2 = P rW ⊥ (~x):

~x = P rW (~x) + P rW ⊥ (~x)

Darrera versió: 24 de juliol de 2020

También podría gustarte