Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1. Introducción
En esta sección se presenta la noción de espacio vectorial que constituye la
estructura básica formal para el estudio del álgebra lineal.
2
1. (v1 + v2) + v3 = v1 + (v2 + v3) (asociatividad)
2. v1 + v2 = v2 + v1 (conmutatividad)
3. v1 + = v1 (exist. de elem. neutro: vector nulo)
4. k . (v1 + v2) = k . v1 + k . v2 (distributividad a la izquierda)
5. (k1 + k2) . v = k1 . v + k2 . v (distributividad a la derecha)
6. (k1 . k2) . v = k1 . (k2 . v) (asociatividad)
7. 1 . v1 = v1 (existencia de elemento neutro
multiplicativo)
Se nota (V, +, K, .)
3
INDEPENDENCIA LINEAL: recíprocamente, los vectores vi son linealmente
r
independientes si la única combinación lineal ki . vi = es aquella
i 1
para la cual k1 = k2 = ... = kr = 0
4
PRODUCTO INTERIOR o INTERNO: Un producto interior en un espacio
vectorial V es una función que a cada par de vectores v1 y v2 en V asocia un
número real <v1 , v2> de tal modo que se satisfagan las siguientes
propiedades:
P1) <v1, v2> = <v2, v1>
P2) <(v1 + v2) , v3> = <v1, v3> + <v2, v3>
P3) <kv1, v2> = k <v1, v2>
P4) <v1, v1> 0; <v1, v1> = 0 v1 =
Propiedades:
N1) v 0, v =0v=
N2) k . v = k v
N3) v v v1 v 2
1 2
(desigualdad triangular)
1
N4) v . v
2
v , v (desigualdad de Schwarz)
1 2
Propiedades:
D1) d(v1, v2) 0 ; d(v1, v2) = 0 v1 = v2
D2) d(v1, v2) = d(v2, v1)
D3) d(v1, v3) d(v1, v2) + d(v2, v3) (desigualdad triangular)
Propiedades:
01) v1v2 v2v1
02) v1v2 k1 v1 k2 v2 k1 , k2
03) ; v v V
h
04) si a v1, a v2, ..., a vh a ki vi
i 1
(si un vector a es ortogonal a un conjunto de vectores, es también ortogonal
a todos los vectores del subespacio generado por ese conjunto de vectores)
módulo y se nota a .
n
La distancia entre los vectores a y b será: d(a,b) =
i 1
( ai bi ) 2
y2 = v2 <v2, u1> u1
2
y
3) lo normalizamos: u2 = 2
y
4) hallamos un vector ortogonal a u1 y a u2 de la siguiente forma:
7
en = (0, 0, 0, ..., 1)
a i 0 si i h
eh = a1 , a 2 , , a n donde
a i 1 si i h
Ejemplo: supongamos que B = (1, -2, 0, 2); (0, -1, 2, 2); (-1, 0, 1, 2) es una
base de un subespacio de 4 y queremos obtener una base ortonormal para
dicho subespacio.
Teorema: Si B=u1, u2, ..., un es una base ortonormal para un espacio con
producto interno euclídeo V entonces cualquier vector a de V puede
expresarse como a = <a , u1> u1 + <a , u2> u2 + ... + <a , un> un
De (3) obtenemos <a , un> un = a <a , u1> u1 <a , u2> u2 ... <a , un-1> un-1
que es la fórmula que se usa para hallar cada vector ortogonal a los
anteriores en el proceso de Gram-Schmidt.
Transformación
1)
2) Si ( (
9
Transformaciones lineales
Sean V y W espacios vectoriales sobre un mismo cuerpo K. Una aplicación
o función t:VW se llama transformación lineal de V en W si y sólo si:
ki v ) = ki t(vi) = k w
i i
entonces se verifica: t ( i esto nos permite
i 1 i 1 i 1
afirmar que las transformaciones lineales preservan las combinaciones
lineales.
Ejemplo 1: la función f: 32 definida por f(x1, x2, x3) = (x1x3, x2x3) es
una TL, ya que se verifican las 2 condiciones:
1) f [(a1, a2, a3) + (b1, b2, b3)] = f(a1+b1, a2+b2, a3+b3) =
= (a1+b1a3b3, a2+b2a3b3) (1)
f(a1, a2, a3) + f(b1, b2, b3) = (a1a3, a2a3) + (b1b3, b2b3) =
= (a1a3+b1b3, a2a3+b2b3) (2)
(1) = (2)
2) f [k(a1, a2, a3)] = f(ka1, ka2, ka3) = (ka1ka3, ka2ka3)
Ejemplo 2: la función f: 32 / f(x1, x2, x3) = (x1x3, x2x3+1) no es una TL,
pues:
1) f [(a1, a2, a3) + (b1, b2, b3)] = f(a1+b1, a2+b2, a3+b3) =
= (a1+b1a3b3, a2+b2a3b3+1) (1)
f(a1, a2, a3) + f(b1, b2, b3) = (a1a3, a2a3+1) + (b1b3, b2b3+1) =
= (a1a3+b1b3, a2a3+1+b2b3+1) (2)
(1) (2)
2) f [k(a1, a2, a3)] k[f(a1, a2, a3)]
10
Nota: basta que no se cumpla una de las condiciones.
Toda matriz Amxn representa una transformación lineal del espacio euclídeo
de n dimensiones En en el espacio euclídeo de m dimensiones Em, ya que
dado cualquier vector x En, existe un vector único y Em tal que y = Ax.
La transformación es lineal, puesto que si x1 En, x2 En, k K:
A(x1+x2) = Ax1 + Ax2 ; A k x = k A x
La suma de dos matrices A=[aij] y B=[bij] se puede realizar sólo si ambas son
de la misma dimensión A + B = [aij + bij]
Dem:
1) (gof)(v1+v2) = g [f(v1+v2)] = g [f(v1) + f(v2)] por ser f TL
= g [f(v1)] + g [f(v2)] por ser g TL
= (gof)(v1) + (gof)(v2)
2) (gof)(kv) = g f(kv)] = g [k f(v)] por ser f TL
= k g [f(v)] por ser g TL
= k (gof)(v)
11
Transf. nula: una aplicación z:VW se denomina transformación nula si
para todo vector v V tenemos z(v) = donde es el vector nulo de W. La
matriz asociada a esta transformación es la matriz nula:
12
NÚCLEO: de una TL se denomina al conjunto de elementos del dominio
cuya imagen o transformado es el vector nulo:
Nt = v/v V, t(v)= Nt V; Nt es un subespacio de V.
a1 j
a
A (a , a , , a ) donde a
1 2 n j 2j
a m j
Ejemplo: la TL t: 43 / t(x1, x2, x3, x4) = (2x1x4, x2+3x4, 6x14x3) puede
2 0 0 1
representarse por la matriz: A 0 1 0 3 aplicada a cualquier
6 0 4 0
vector x 4 (dominio de la TL) resulta un vector y 3 (codominio de la
TL): A x = y
x1
2 0 0 1 y1
A 0 1 0 3 y2
x2
x
6 0 4 0 3 y 3
x4
2 0 0 1 y1
0 x 1 x 0 x 3 x y
ó
1 2 3 4 2
6 0 4 0 y 3
14
x1 1
2 0 0 1 0 x1 2 x 4
0 1 0
3 0
x2
x x 2 3 x 4
6 0 4 0 0
3 3
x3 x 4
4
x 4
1 3 1 3
Todos los vectores de la forma ( x4, 3x4, x4, x4)T = k( ,3, , 1)T
2 4 2 4
pertenecen al núcleo; para base podemos tomar uno cualquiera de ellos,
por ejemplo: (2, 12, 3, 4)T ; la nulidad es n(t)=1; la suma de la nulidad más
el rango es igual a la dimensión del dominio: 4
15
si son LI constituyen una base del recorrido de la TL, si no lo son, se puede
escalonar la matriz y elegir el mayor número de columnas LI como base del
recorrido.
Ejemplo:
p1 p 2 c1 1 1
2 p1 p 2 c 2 donde A 2 1 como los vectores
p 3p c 1 3
1 2 3
columna de A son LI forman una base del recorrido de la TL y su dimensión
es por lo tanto 2: r (A) = 2
FORMA CANÓNICA: Una matriz Nmxn equivalente a una matriz dada A con
rango r(A) = r se dice que es la forma canónica general bajo equivalencia de
A o también la forma normal de A si posee las siguientes propiedades:
1) los primeros r elementos aij con i = j son iguales a 1.
2) cualquier otro elemento de la matriz es 0.
16
En realidad, dos matrices rectangulares de la misma dimensión son
equivalentes si y sólo si tienen el mismo rango.
Sea t:VW una TL, con recorrido Rt. Entonces se dice que t es no singular
si y sólo si existe una transformación t-1: RtV tal que t-1t = t t-1 = I donde
t-1t representa la transformación idéntica sobre V y t t -1 la transformación
idéntica sobre W.
17
Si dos matrices A y B tienen inversa y son conformables para el producto:
(A B)-1 = B-1A-1
1 -1
Si t:VW es una TL no singular (t-1)-1 = t y (k t)-1 = t k0
k
1 -1
Si la matriz A es no singular (A-1)-1 = A y (k A)-1 = A k0
k
MATRIZ TRASPUESTA de la matriz A se denomina a aquella que resulta al
permutar sus filas y columnas: Am = [aij]mxn AT=[aji]nxm
Propiedades:
T1) (A+B)T = AT+ BT
T2) (A B)T = BT AT
T3) (AT)T = A
T4) (k A)T = k AT
T5) Si A es cuadrada: |AT| = |A|
Propiedades:
TO1) |v1 v2| = |t(v1) t(v2)|
TO2) <v1, v2> = <t(v1) , t(v2)>
TO3) v1 v2 t(v1) t(v2)
TO4) cos (v1, v2) = cos (tv1, tv2)
18
Una TL ortogonal es no singular.
Con relación a cualquier base ortonormal, una matriz A representa una TL
ortogonal si y sólo si, considerando las columnas de A como vectores, cada
columna tiene longitud o módulo unidad y dos columnas cualesquiera son
ortogonales, es decir, si todas sus columnas son vectores ortonormales.
También se define una matriz ortogonal como aquella cuya inversa es igual
a su traspuesta: A-1 = AT A es ortogonal
Dem.:
v1 T
2 T
2 T 1
v1 T v1 v v
1 T 2
v v
1 T
n
A AI
T
v 1 2
v , v , , v
n
v v v v
2 T 2
v v
2 T n
n T n T 1
v v v v
n T
v 2
T
v n v n
v 1 , v 1 v 1 , v 2 v 1 , v n 1 0 0
2 1
v , v v 2 , v 2 v 2 , v n 0 1 0
=
n 1
v , v v , v v , v 0 0 1
n 2 n n
v h , v j 0 si h j (1)
igualdad que se da si y sólo si
v , v 1 v 1 ( j 1, 2, , n) ( 2)
j j j
19
Si consideramos la matriz A formada por vectores fila vi se demuestra, de
manera similar, que:
v i v k si i k (1)
A AT =I i
v 1 (i 1, 2, , n ) ( 2)
(1) (todos los vectores fila son ortogonales entre sí)
(2) (todos los vectores fila son normales: módulo = 1).
Dem.:
ATA= I AT A I 1
A T A 1 como A T A
2
A 1 A 1
Se denomina matriz ortogonal propia a la que tiene determinante = 1
No toda matriz con determinante de módulo 1 es ortogonal, por ej.:
2 0
A
0 1 / 2
1 0 1 1
x 1 es vector propio correspondiente
Ejemplo: A 1 2 1
1
2 2 3 0
a =1 porque Ax1 = x1
21
2
x 2 1 es vector propio correspondiente a =2 porque A x2 = 2 x2
2
1
x 3 1 es vector propio correspondiente a =3 porque A x3 = 3 x3
2
1 0 1
1 1
En el ejemplo anterior: A I 2
2 2 3
22
|AI| = 3 + 62 11 + 6 es el polinomio característico; si lo igualamos a
0 tenemos la ecuación característica, cuyas soluciones o raíces son los
valores propios de A: 1=1, 2= 2, 3= 3
x 2 1
de modo que cualquier vector de la forma
x k 1 con k 0 es un
2
0 0
vector propio de A correspondiente al valor propio 1=1
x3 2
de modo que cualquier vector de la forma
1
x k 1 con k 0 es
2 3
x 3 2
un vector propio de A correspondiente al valor propio 2 = 2
23
Teorema: Los vectores propios correspondientes a valores propios
diferentes de una matriz son linealmente independientes.
Demostración: (por inducción sobre k) Sean 1, 2, ..., k valores propios
diferentes de una matriz Anxn y sean v1, v2, ..., vk los vectores propios
correspondientes.
Supongamos ahora que se cumple para los k1 primeros vectores (k>1), es
decir que v1, v2, ..., vk son LI.
como A vi = i vi tenemos
c1 1 v1 + c2 2 v2 + ... + ck-1 k-1 vk-1 + ck k vk = (2)
como los vectores v1, v2, ..., vk-1 son LI la ecuación (4) se verifica sólo si
todos los coeficientes son nulos, es decir: ci(i k) = 0 (i=1,2,...,k1) pero
como i k (i=1,2,...,k1) entonces debe ser ci = 0 (i=1,2,...,k1) y la
ecuación (1) queda reducida a ck vk = como vk es vector propio no es el
vector nulo y debe ser ck = 0 de modo que los k vectores propios son LI.
24
Si la ecuación característica de A admite a raíces o valores propios
diferentes, entonces hay n vectores propios LI y es diagonizable sobre el
cuerpo de los complejos.
3 1 1 2i
Ejemplo 2: A A I 2 4 0
13 3 2 2i
Para 1 = 2i tenemos
3 2i 1 x1 0 1
x 2 (3 2i ) x1 v1
13
3 2i x 2 0
3 2i
25
La condición para que una matriz Anxn sea diagonizable es que a toda raíz i
de orden de multiplicidad m corresponda un sistema (A - iI) x = de rango
(n-m) que determina m vectores característicos LI, es decir, que la
dimensión del espacio característico correspondiente al valor propio i sea
m.
Ejemplo 3:
1 3 3
1 2 2
A 3 5 3 A I 3 12 16 0
6 6 4 3 4
si tomamos para x2 y x3 dos pares de valores no proporcionales obtenemos
dos vectores LI que constituyen la base del espacio solución
correspondiente al valor propio 2 de orden de multiplicidad 2; por ejemplo:
1 1
v 0 v 1
1 2
1 0
3 3 3 18 1
para 3 = 4 A 4 I 3 9 3 v 18 18 1
3
6 6 0 36 2
1 3 1 2 2 0
1
La matriz modal puede ser 0 1 1 P 1
1 3 1
2
1 0 2 1 1 1
2 0 0
1
podemos verificar que P AP 0
2 0
0 0 4
Ejemplo 4:
3 9 12
1 2 0
A 1 3 4 A I 3 2 0
0 0 1 3 1
26
para 1 = 2 = 0 tenemos (A 0 I) = A; como el rango de esta matriz es 2 y
tiene 3 columnas su nulidad es 1 y por lo tanto sólo podemos obtener un
vector LI como solución del sistema (A 0 I) x = ; efectivamente, todos los
vectores solución serán de la forma (3x2, x2, 0)T y no podemos obtener dos
vectores propios LI correspondientes al valor propio 0 cuyo orden de
multiplicidad es 2. Por lo tanto la matriz A no es diagonizable.
27
Si todas las raíces son diferentes la matriz de Jordán coincide con la matriz
diagonal .
Pero el rango de esta matriz es, como máximo, el orden de la matriz menos
el rango de Bi: n (n1) = 1 (si el rango de la matriz Amxp es r y si la matriz
Bpxn es tal que A.B = , el rango de B no puede ser mayor que pr).
Por lo tanto, el rango de Bi* es 1; esto significa que toda columna de Bi* es
CL de las restantes (son todas proporcionales entre sí).
Ejemplo 1:
0 7 6 1 1
A 1 4 0 A I 3 2 2 2 0 2 1
0 2 2 2
3
1 0
A I T
7 4 2
6 0 2
28
( 4 )( 2 ) 7 ( 2 ) 12 6( 4 )
B* Adj ( A I ) 2 (2 ) 6
2 2 ( 4 ) 7
9 9 18
B1* (para 1 1 ) =
3 3 6 cualquiera de su columnas es un
2 2 4
vector propio correspondiente a 1 pero también podríamos haberlo
1 7 6
obtenido directamente de B1 1
3 0 tomando, por ej., los
0 2 3
9
adjuntos de la 1ª fila: v 3
1
2
5 4 9 5 4
De manera similar obtenemos v 1 y v 2
2 3 P 3 1 2
2 1 2 2 1
9 0 6 1 1
Ejemplo 2: A 0 1 0 A I (1 )( 2 9) 0 2 3
12 0 9 3
3
8 0 6
B1 0 0 0 no podemos tomar los adjuntos de la primera fila ni
12 0 10
los de la tercera, porque se anulan todos, pero sí los de la segunda:
0 0
v 8 o v 1
1 1
0 0
29
6 0 6
B2 0 2 0 tomando los adjuntos de la 1ª fila:
12 0 12
24 1
v 2 0 ó 0
24 1
12 0 6
B3 0 4 0 tomando los adjuntos de la 1ª fila:
12 0 6
24 1
v 0
3 ó 0
48 2
S1) A B y B C A C (transitiva)
Dem.: A B A = P-1 B P
si premultiplicamos por P y posmultiplicamos por P-1 resulta
P A P-1 = B (1)
B C B = Q-1 C Q (2)
de (1) y (2) P A P-1 = Q-1 C Q
A = P-1 Q-1 C Q P haciendo Q . P = R R-1 = P-1 . Q-1
A = R-1 C R
S6) si A B An = P-1 Bn P
Dem.: A B A = P-1 B P
A2 = (P-1 B P) (P-1 B P) = P-1 B P P-1 B P = P-1 B2 P
A3 = (P-1 B2 P) (P-1 B P) = P-1 B2 P P-1 B P = P-1 B3 P
.....................
31
n n
1 = i =
i 1
a
i 1
ii = tr(A)
Para probar las primeras tres observaciones con respecto a los valores
propios de A recordamos que si A es diagonizable es semejante a una
1 0 0 0
0 0 0
2
matriz diagonal 0 0 3 0 donde i son los valores
0 0 0 n
propios de A.
32
Si es una matriz 4x4 I (1 )( 2 )( 3 )( 4 )
4 (1 2 3 4 )( ) 3
1 i
Para probar las primeras tres observaciones con respecto a los elementos
de la matriz A, lo haremos considerando una matriz de dimensión 3x3; de
manera similar se procede con una matriz nxn.
a11 a12 a13 a11 a12 a13
A I a 21 a 22 a 23 a 21 a 22 a 23
a 31 a 32 a 33 a 31 a 32 a 33
a12 a13 a11 a12 a13 a11 0 a13
0 a 22 a 23 a 21 a 22 a 23 a 21 a 23
0 a 32 a 33 a 31 a 32 a 33 a 31 0 a 33
33
a12 a13 0 a13
0 a 22 a 23 0 a 23
0 a 32 a 33 0 0 a 33
a11 a12 a13 a11 a12 0 a11 0 a13 a11 0 0
a 21 a 22 a 23 a 21 a 22 0 a 21 a 23 a 21 0
a 31 a 32 a 33 a 31 a 32 a 31 0 a 33 a 31 0
1 1 1 1 0
Ejemplo 1: A 0 1 1 A I 2 3 0 2 1
3 2
0 2 2 3
3
1 = 2 2 = -3 3 = 0
34
= 0(-1) + 0.3 + (-1)3 = -3
3 = i = 0 (-1) 3 = 0
Ejemplo 2:
1 4 0 1 1
A 1 2 0 A I 2 3 2 0
3 2
1 7
0 2 1 2 ,3 2 2 i
1 7 1 7
1 = i = 1 + i - i = 2 = tr(A)
2 2 2 2
1 7 1 7 1 7 1 7
2 = (1) ( + i) + (1) ( i) + ( + i) ( i) =
2 2 2 2 2 2 2 2
1 7 1 7 1 7 2
= i+ + i+ i =3
2 2 2 2 4 4
1 4 2 0 1 0
2 2 2 1 3
1 2 2 1 0 1
1 7 1 7 1 7
3 = i = 1( + i) ( i) = ( + ) = 2 = |A|
2 2 2 2 4 4
1 0 0 2
1 3 0 1
Ejemplo 3: A
0 2 1 0
2 0 0 1
35
1 1
A I 4 6 12 9 0 2 3
4 3 2
3
3, 4
2 = 1.3 + 1. 3 i 1. 3 i + 3. 3 i 3. 3 i 3i 3i= 6
1 0 1 0 1 2 3 0 3 1 1 0
2 6
1 3 0 1 2 1 2 1 0 1 0 1
3 = 1.33 i + 1.3 ( 3 i) + 3. 3 i ( 3 i) + 1. 3 i ( 3 i) = 12
1 0 0 1 0 2 1 0 2 3 0 1
3 1 3 0 1 3 1 0 1 0 2 1 0 12
0 2 1 2 0 1 2 0 1 0 0 1
de la matriz A, F max F i
i
Fi a ij
j 1
n
C max C j C j a ij
j
i 1
Dem.: Si es raíz característica de A, entonces existe un vector no nulo
x1 x1 a11 x1 a12 x 2 a1n x n
x x a x a x a x
2 2
x
21 1 22 2 2n n
tal que x=Ax o sea (1)
x n a n11 x1 a n 2 x 2 a nn x n
xn
tomando módulos m. a m. la 1ª ecuación resulta:
36
|x1| |a11x1| + |a12x2| + ... + |a1nxn| por desigualdad triangular
|| |x1| |a11| |x1| + |a12| |x2| + ... + |a1n| |xn| por módulo de producto
operando de modo similar con las demás ecuaciones, el sistema (1) resulta
x1 x 2 x n a11 a 21 a n1 x1
C1
a12 a 22 a n 2 x 2 a1n a 2 n a nn x n
C2 Cn
como Cj C resulta || (|x1| + |x2| + ... + |xn|) C (|x1| + |x2| + ... + |xn|) como
x es un vector propio sus componentes no pueden ser todas nulas, de modo
que la suma de sus módulos será positiva; dividiendo m. a m. por dicha
suma || C
Como una matriz cuadrada A y su traspuesta AT tienen el mismo polinomio
característico, y por lo tanto, iguales raíces, partiendo de la ecuación
x = Atx se demuestra que || F
si C
min {F, C} que es lo que se quería demostrar.
y F
37
MATRIZ INVOLUTIVA: una matriz cuadrada es involutiva sii su cuadrado es
1 0
la matriz identidad: A2 = I por ejemplo: A
0 1
Todas sus raíces son iguales a 1 ó a 1
Ejemplo 1:
7 2 0 1 3
A 2 6 2 A I 3 18 2 99 162 0 2 6
0 2 5 9
3
4 2 0 2 1
A 3I 2 3 2 v 4 2 2
1
0 2 2 4 2
v1 v 2 0 v1 v 2
38
1 2 0 4 2
A 6 I 2 0 2 v 2 2 2 1
0 2 1 4 2
v2 v3 0 v2 v3
2 2 0 8 2
A 9 I 2 3 2 v 8 4 2
3
0 2 4 4 1
v1 v 3 0 v1 v 3
como los vectores propios son ortogonales entre sí, basta normalizarlos:
u1= 1/3 v1, u2= 1/3 v2, u3= 1/3 v3 entonces podemos diagonalizar la matriz
simétrica A mediante la matriz ortogonal P
1 2 2 3 0 0
P 2 1 2 de modo que P T AP 0 6 0
1
3
2 2 1 0 0 9
7 2 1
Ejemplo 2: A 2 10 2
1 2 7
1 2 6
A I 3 24 2 180 432 0
12
3
1 2 1
A 6I 2 4 2 las soluciones del sistema A - 6I = son de
1 2 1
la forma x1 2 x 2 x3 . Si x2 = x3 =1 tenemos el vector propio
39
v1 1, 1, 1 . Para cada par de valores no proporcionales a los ya dados
T
5 2 1 6 1
A 12 I 2 2 2 v 12 6 2
3
1 2 5 46 1
podemos comprobar que v3 es ortogonal a v1 y a v2; para obtener una
matriz de paso ortogonal debemos normalizarlos:
1 1 1
3 2 6
1 2
como |v1| = 3 ; |v2| = 2 ; |v3| = 6 P 0
3 6
1 1 1
3 2 6
1 0 i
1 2 0
Ejemplo 3: A 0 2 0 A I 3 2 2 0
i 0 1 3 2
A 0I = A es una matriz de rango 2 de modo que no pueden obtenerse 2
vectores propios LI (la nulidad es 1) y la matriz A no es diagonizable.
Ejemplo 4:
1 2 4
1 2 3
A 2 2 2
A I 3 27 54 0
4 2 1 3 6
40
4 2 4 0
A 3I 2 1 2 x 2 2 x 3 2 x1 v 1 2 para obtener v2
4 2 4 1
0 x1 2 x 2 1 x 3 0
ortogonal a v1 resolvemos el sistema
x 2 2 x 3 2 x1
5
una solución es v 2
2
4
5 2 4 2
A 6 I 2 8 2 v 1 podemos comprobar que los tres
3
4 2 5 2
vectores propios son ortogonales entre sí, los normalizamos para obtener la
matriz de paso ortogonal:
5 2
0
3 5 3 0 5 2 5
2 2 1 1
P 6 2 5
5 3 5 3 3 5
3 4 2 5
1 4 2
5 3 5 3
3 0 0
P AP 0 3 0
T
0 0 6
41
Si existiera una raíz compleja 1= + i existiría su conjugada 2 = i.
Formamos la matriz B = (A1I) (A2I) = [A (+i) I] [A (iI)]
= A2 A +Ai I A i A + (2+2) I2
= A2 2A + 2 I2 + 2 I2 = (A I)2 + 2 I teniendo en cuenta que A es
simétrica se puede expresar B = (A I)T (A I) + 2 I Como B es una
matriz singular (producto de dos matrices singulares de la forma A iI)
existe un vector x / Bx=
1 0 0 2 0 4
1
0 1 0 1 3 2
6
0 0 1 4 0 2
Ejemplo2:
1 3 0 0
0 2 1 2
A A I 4 33 3 2 12 5
0 0 1 3
2 1 0 1
13 15 6 15 3 27 9 18
10 13 1 4 12 9
A 1
1
A 3 3 A 2 3 A 12 I
6 3
5 6 12 2 3 18 9 3 0
2 19 4
8 12 9 3
3
3 9 0 0 12 0 0 0 1 3 3 3
0 6 3 6 0 12 0 0 2 1 1 1
1
0 0 3 9 0 0 12 0 5 12 21 16 6
6 3 0 3 0 0 0 12 4 7 7 2
44
1.3. Formas cuadráticas
Una forma cuadrática es una función de n variables. Las formas cuadráticas
tienen mucha importancia, entre otros temas, para:
Nos ocuparemos sólo de las formas cuadráticas reales, aquellas que tienen
todos sus coeficientes reales y su dominio es un espacio real, es decir:
aij i, j y x n
45
3 2 3 x1
x x2
2 2 2
F= 3 x1 + 4 x 1 x2 – 6 x1 x3 + x2 –5 x3 A= 2 1 0
3 0 5 x 3
1 0 0 0
0 2 0 0
= 0 0 3 0 Se dice que F está en forma canónica o
0 0 0 n
diagonal; los coeficientes 2i son los valores propios de la matriz A.
3 0 1 3 0
Ejemplo 1: F= 3 x2 + 5 y2 A= definida positiva
0 5 2 5 0
3 2
Ejemplo 2: F= 3 x2 + 4 x y 5y2 A= |A-I| = + 8 + 11 = 0
2
2 5
4 2 0
1 definida negativa
2 4 2 0
1 0 1
Ejemplo 3: F= x2 –2 x z + z2 + 3 y2
A= 0 3 0
= 0, = 2, = 3
1 2 3
1 0 1
semidefinida positiva
4 2
Ejemplo 4: F= 4x2 – 4 x y – 2 y2 A= 1= 4, 2= 2 indefinida
2 2
48
CONDICIONES NECESARIAS Y SUFICIENTES PARA QUE UNA FORMA
CUADRÁTICA SEA DEFINIDA:
para que sea positiva cualesquiera sean los valores de x e y deben ser
a h
h b a h
a > 0, >0; o sea a > 0, >0
a h b
para que sea negativa cualesquiera sean los valores de x e y deben ser
a h
h b a h
a < 0, <0; o sea a < 0, >0
a h b
3 5
3 2 5 11 2 4
x xy A= 4
11
Ejemplo 1: F= y
4 2 4 5
4 4
3
a 0
4
1 definida negativa.
A 0
2
7 41 7 41
si hallamos las raíces de A: 1 = + <0 2 = <0
4 4 4 4
como las variables aparecen sólo entre paréntesis y cada uno de éstos está
elevado al cuadrado, resulta que la expresión original es positiva para todos
los valores reales de las variables si los coeficientes de todos los paréntesis
son positivos y negativa si todos los coeficientes son negativos. Estos
coeficientes son cocientes entre los determinantes
a h g
a h
a, , h b f por lo tanto, F>0 si los 3 determinantes son
h b
g f c
a h g
a h
positivos y F< 0 si a < 0, >0 y h b f <0
h b
g f c
Como |A| = (1)n |A|, una condición necesaria y suficiente para que x T(A)x
sea definida positiva, y por lo tanto, xT A x sea definida negativa será que
|A1| < 0, |A2| > 0, |A3| < 0, ..., (1)n |An| > 0
Ejemplo 2: F = 3 x2 + 4 y2 + 6 z2 + 2 y z + 4 x z + 2 x y
3 1 2
A= 1 4 1
|A1| = 3 > 0 ; |A2| = 11 > 0 ; |A3| = 51 > 0 F> 0
2 1 6
50
Ejemplo 3:
2 1 2
F = 2 x2 + 2 x y – 4 x z 5 y2 + 6 y z 3 z2
A = 1 5 3
2 3 3
Ejemplo 4: F = 6 x2 – 12 x y 18 y2 + 4 x z 2 z2 + 6 z w 10 w2
6 6 2 0
6 18 0 0
A=
2 0 2 3
0 0 3 10
51
si |A1|>0, |A2|>0, ..., |AK-1|>0 Fk-1(x) es definida positiva; veamos que
también es cierto para n=k:
si |Ak|>0 Fk (x) no tiene raíces nulas y si tuviera raíces negativas tendría
al menos dos: i y j . En el subespacio de dimensión 2 generado por los
vectores propios vi y vj asociados a i y j, respectivamente, todo vector
es de la forma (0, ..., 0, x´i, 0. ---. 0, x´j, 0, ..., 0), por lo que la forma
cuadrática Fk(x) puede reducirse a i x´i2 + j x´j2 definida negativa si i
y j son negativas.
5 10 2
Ejemplo 1: F= 5x2 20 x y + 25 y2 4 x z + 4 z2
A = 10 25 0
2 0 4
|A1| = 5 > 0; |A2| = 25 > 0; |A3| = 0 F0 (semidefinida positiva)
Ejemplo 2: F= x2 + 4 x y – 6 y2 12 z2 + 8 y z + 10 z w + 9 w2
1 2 3 0
2 6 4 4
A= |A1| = 1< 0; |A2| = 2 > 0; |A3| = 2 < 0;
3 4 12 5
0 4 5 9
|A4| = 0 F0 (semidefinida negativa)
52
1 2 3
Ejemplo 3: F= x2 – 4 x y + 6 y2 – 18 y z + 4 z2
A= 2 6 9
3 9 4
|A1| = 1>0; |A2| = 2 > 0; |A3| = 19 < 0 F es indefinida
1 0 1 0
0 1 2 0
Ejemplo 4: F= x2 + y2 + 5 z2 + 2 x z – 4 y z + 6 w2 A=
1 2 5 0
0 0 0 6
|A1| = 1> 0; |A2| = 1 > 0; |A3| = 0; |A4| = 0
~ ~ ~ ~ ~ ~
Observ.: A21 A22 ; A23 A24 ; A25 A26 ya que se intercambian
tanto filas como columnas.
53
Condición necesaria y suficiente para que una forma cuadrática sea
~
semidefinida negativa: que todos los determinantes Ak (k=1,2,...,n-1)
~
cumplan la condición Ak (1)k 0 y |A| = 0
1 0 1 1
0 1 2 0
Ejemplo 1: A= |A1| = 1> 0; |A2| = 1 > 0; |A3| = 0; |A4| = 0
1 2 5 1
1 0 1 2
Como no se cumple la condición suficiente calculamos todos los menores
~ ~ ~ ~
principales: A11 1 0 A12 1 0 A13 5 0 A14 2 0
~ 1 0 ~ 1 1 ~ 1 1
A21 1 0 A22 40 A23 1 0
0 1 1 5 1 2
~ 1 2 ~ 1 0 ~ 5 1
A24 1 0 A25 20 A26 90
2 5 0 2 1 2
No vale la pena calcular los que se obtienen de estos por permutación
porque tendrán valores iguales.
1 0 1 1 0 1
~1 ~2
A3 0 1 2 0 A3 0 1 0 1 0
1 2 5 1 0 2
1 1 1 1 2 0
~3 ~4
A3 1 5 1 4 0 A3 2 5 1 1 0
1 1 2 0 1 2
Los que se obtengan por permutación tendrán signos y valores iguales.
Como el determinante de la matriz es 0 la forma cuadrática (y la matriz
asociada) es semidefinida positiva.
54
1.3.2. Formas cuadráticas condicionadas
Supongamos que deseamos conocer el signo de una forma cuadrática en 2
variables, sujeta a una restricción lineal: F= a x2 + h x y + b y2 sujeta a la
condición x + y = 0
como la restricción implica y x podemos expresar F como función
2
de una sola variable: F= a x2 + 2h x x + b x
2 2 2 x2
= a x2 2h x +b x podemos sacar factor común
2 2
x2
= (a 2 2h + b 2)
2
F será definida positiva sii la expresión entre paréntesis es positiva y F será
definida negativa sii la expresión entre paréntesis es negativa.
Dicha expresión no es otra cosa que el opuesto del determinante
0
a h = 2 h – a 2 – b 2
h b
55
0 b1 b2 b3 bn
b a11 a12 a13 a1n
1
b2 a 21 a 22 a 23 a2n
A
b3 a 31 a 32 a 33 a3n
bn a n1 an2 a n3 a nn
La forma condicionada será definida positiva sii todos los menores
principales (dominantes) de A a partir de A2 son negativos, donde
0 b1 b2 b3
0 b1 b2
b1 a11 a12 a13
A2 b1 a11 a12 , A3 ,..., An A
b2 a 21 a 22 a 23
b2 a 21 a 22
b3 a 31 a 32 a 33
Ejemplo 1:
F= 2 x2 + 4 y2 + z2 – 6 x y – 2 y z – 4 x z sujeta a x + 2 y + 3 z = 0
0 1 2 3
1 2 3 2 0 1 2
A = A2 = 1 2 3 = 24 < 0 A3 = A = 168 < 0
2 3 4 1
2 3 4
3 2 1 1
56
n n
En general, si la forma cuadrática F= aij xi xj
i 1 j 1
n
bi xi 0
i n1
c x 0
está sujeta a m restricciones lineales (m<n) i i
i 1
n
mi xi 0
i 1
0 0 0 b1 b2 b3 bn
0 0 0 c1 c2 c3 cn
0 0 0 m1 m 2 m3 mn
la matriz orlada es A b1 c1 m1 a11 a12 a13 a1n
b2 c 2 m 2 a 21 a 22 a 23 a2n
b c m a a 32 a 33 a3n
3 3 3 31
b c m a a nn
n n n n1 a n 2 a n3
57
Si denominamos Ah al menor principal dominante que contiene hasta el
Ejemplo 2: F= 4 x2 – 2 x y + 2 x w + y2 + 4 y z + 3 z2 + 2 z w + w2
x y 2 w 0
sujeta a
y 2z 0
0 0 1 1 0 2
0 0 0 1 2 0
1 0 4 1 0 1
A = Como n = 4 y m = 2 calculamos los
1 1 1 1 2 0
0 2 0 2 3 1
2 0 1 0 1 1
últimos 2 determinantes:
0 0 1 1 0
0 0 0 1 2
A3 1 0 4 1 0 23 0 A4 A = 218 > 0
1 1 1 1 2
0 2 0 2 3
58
Se puede particionar una matriz A en submatrices, es decir, expresarla
como un conjunto de submatrices disjuntas, cuya unión sea igual a la matriz
A . Por ejemplo: A a ij 3 x 4 la podríamos particionar de la siguiente
forma:
a 11 a 12 a 13 a 14
A 11 A 12
A a 21 a 22 a 23 a 24
A 21 A 22
a 31 a 32 a 33 a 34
donde A 11 y A 12 son submatrices de dimensión 2 x 2 y A 21 y A 22 son
submatrices de dimensión 1x 2 ; pero también podríamos particionar A de
modo que, por ej., A 11 fuera de dimensión 2 x1 , A 12 de dimensión 2 x3 ,
A 21 de dimensión 1x1 y A 22 de dimensión 1x3 , etc.
59
A11 B11 A12 B21 A11 B12 A12 B 22
A B siempre que las
A21 B11 A22 B 21 A21 B12 A22 B22
submatrices A ik y B kj sean conformables para el producto, es decir, que
el número de columnas de A ik sea igual al número de filas de B kj .
A 11 A 12
Si A donde A 11 es de dimensión p x p, A 12 es de
A 21 A 22
dimensión p x (n p), A 21 es de dimensión (n p) x p y A 22 es de
dimensión (n p) x (n p) y X es la inversa de la matriz A : A . X I ;
particionando las matrices X e I igual que A tenemos:
A11 A12 X 11 X 12 I 11 12
A efectuando las operaciones
21 A22 X 21 X 22 21 I 22
indicadas obtenemos el sistema:
A11 X 11 A12 X 21 I 11
A X A X prem. m.a m. por A 1 X A 1 A X
11 12 12 22 12 11 12 11 12 22
A21 X 11 A22 X 21 21 prem. m.a m. por A22 X 21 A22 A21 X 11
1 1
A21 X 12 A22 X 22 I 22
a
reemplazando X 21 en la 1 ecuación del sistema y sacando luego factor
común X 11 resulta 1
X 11 A11 A12 A22 A21 1
reemplazando este
resultado en X 21
1
resulta X 21 A22 A21 A11 A12 A22 A21
1
1
de
modo que
A 1
1
A11 A12 A22 A21
1
A111 A12 A21 A111 A12 A22
1
1
1
A22 A21 A11 A12 A22 A21
1
A 21 A111 A12 A22
1
60
2 2 1
1 1 2 1
Ejemplo 1: A 1 3 1 A111 1
A22
2 4 2 3
1 2 2
1 1 1
1 2 1 1 1 1 5 4
X 11 2 2 1 2 2 1
4 2 3 1 4 1 4 5
1
1 1
3 1 1 2 2
X 12
1
2 1 1 1 2 1
1
3
2 1 2 2 2 2 1
2
1 1 3 1 2 1
1
2 5 2 4 5 5
1 1
1 2 1 1 1 2 1 1 1 3 1 1
21 2 2 1 1 2 4 5 1
4 2 3
X
4 2 3 1 4
1
1
1
1 1 3 1 2 1 3 1
2 1
2
2 5 2 4
X
1 2
22
2 1 3
2
4 2 1
5
5 5
1
1 3 1
de modo que A
5 5 5
1 2 4
5 5 5
61
Si la matriz A es no singular (cuadrada con determinante no nulo) siempre
es posible hacer una partición de modo que A 11 y A 22 sean también
submatrices no singulares.
2 2 1
Por ejemplo: para la matriz A 1 3 3 no podríamos hacer la
1 2 2
2 2 1
partición A 1 3 1 porque A 22 no tiene inversa, pero sí podemos
1 2 2
2 2 1
1 1
3 2
A 1 3 3
4 1 2
hacer la partición A 11
1 2 2
A 11 A 12
A´ donde A 11 y A 22 son submatrices cuadradas y es
A 22
una submatriz nula. Si esto no es posible, se dice que la matriz es
irreducible o no decomponible.
Otra forma de definir las matrices descomponibles (muy útil para reconocer
si una matriz es decomponible o no) es la siguiente.
62
Una matriz A a ij nxn es descomponible si el conjunto formado por los
2 0 1 1
0 6 0 5
Por ejemplo, en la matriz A los elementos nulos son
3 1 4 0
0 7 0 8
a 12 ; a 21 ; a 23 ; a 34 ; a 41 y a 43 .
2 1 0 1
3 4 1 0
11
A A 12
A´
0 0 6 5 A 22
0 0 7 8
63
A 11 x 1 A12 x 2 c 1
Resulta entonces el sistema
A 22 x 2 c2
0 0 3
Ejemplo: A 0 2 0 intercambiando filas 1 y 2 las columnas 1 y 2
2 0 1
2 0 0
resulta A´ 0 0 3
0 2 1
64
INVERSIÓN DE MATRICES DESCOMPONIBLES: si la matriz A es una
matriz no singular descomponible se puede calcular su inversa más
A 11 A 12
fácilmente particionándola: A donde A 11 y A 22 son
A 22
X 11 X 12
submatrices cuadradas y X es su inversa, particionada
X 21 X 22
de la misma forma que A
A 11 X 11 A 12 X 21 I 11
A 11 X 12 A 12 X 22
A 22 X 21 X 21 (1)
A X 1
22 X 22 I 22 22 A 22 (2)
1
reemplazando (1) en la primera ecuación del sistema resulta X 11 A 11
reemplazando (2) en la segunda ecuación del sistema resulta
1 1
X 12 A 11 A 12 A 22
1
A 11
1 1
A 11 1
A 12 A 22
entonces A
A 221
0 5 0 0
1 2 0 0
Ejemplo : A se puede descomponer intercambiando fila
4 1 5 0
5 4 2 1
1 con 4, columna 1 con 4, fila 2 con 3, columna 2 con 3 y resulta la matriz D
65
1 2 4 5
0 5 1 4
1 2 1 1 0, 4
D 0 0 2 1 donde D 11 0 D 11
5
X 11
0 0 5 0 0, 2
0
2 1 1 0 0, 2
D 22 D 22
0
X
1 0, 4
22
5
Calculamos
1 0,4 4 5 0 0,2 3,4 0,64
X 12 D111 D12 D22
1
0 0,2 1 4 1 0,4 0,8 0,28
1 0, 4 3, 4 0, 64
0 0, 2 0,8 0, 28
Entonces D 0 0 0 0, 2 para obtener la inversa de A
0 0 1 0, 4
debemos intercambiar nuevamente filas 1 con 4 y 2 con 3 y las columnas
0, 4 1 0 0
0, 2 0 0 0
correspondientes resultando A
1
0, 28 0,8 0, 2 0
0, 64 3, 4 0, 4 1
son no negativos: A 0 a ij 0 i , j .
66
La notación A B es equivalente a A B 0 .
67
Para todo número real s > r la matriz (s I – A) es no singular y su inversa
( s I A ) 1 es no negativa.
2 2 1
Ejemplo 1: A 1 3 1 esta matriz es positiva, se aplica el Teorema de
1 2 2
Perron:
A I 3 7 2 11 5 0 . Las raíces son 1 5; 2 3 1
1 5 r
A I 3 9 2 26 30 0 2 2 2 i
6 5
3 2 2 i
68
2 6 0
Si elegimos s = 6 > 5
(6 I – A) 0 4 1
1 0 3
12 18 6
(6 I A ) 1 1 2 positiva.
1
6
18
4 6 8
2 1 0
Ejemplo 3: A 1
3 2 matriz no negativa, no descomponible,
0 1 3
podemos también aplicar el 1er Teorema de Frobenius:
1 1
A I 3 8 2 18 11 0
1
2 7 5 r s i m p l e
2
1
3 2 7 5
a la raíz maximal r le corresponde un vector propio positivo:
1 5 1 5 T
, , 1
2 2
3 1 0 2 2 2
para s = 5 >r (5 I–A)
1 2 2 (5 I A ) 1 1
2 6 6 0
4
0 1 2 1 3 5
1 0 2
Ejemplo 4: A 1 2 0 matriz no negativa, descomponible, se aplica
2 0 1
el 2do Teorema de Frobenius:
69
1 3 r
A I 3 4 2 60 2 2 al valor propio r no
1
3
negativo corresponde un vector propio no negativo 2 , 2 , 2 T
3 2 2 0, 6 0 0 , 4
para s=4 >r (4I–A) 1 2 0 ( 4I A )1 0 , 3 0 , 5 0, 2
2 0 3 0 , 4 0 0 , 6
matriz no negativa.
9 4 4
Ejemplo 5: A 0 3 6
matriz no negativa, descomponible, se aplica
0 7 2
el 2do Teorema de Frobenius: A I (9 ) 2 5 36 0
1 2 9 r ( no simple )
3 4
al valor propio r corresponde un vector propio no negativo 1, 0 , 0 T
para s=10>r
1 4 4 14 60 52
(10 I – A) 0 7 6 (10 I A ) 1
1
0 8 6
14
0 7 8 0 7 7
matriz no negativa.
70
r x 1 a 11 x 1 a 12 x 2 ....... a 1n x n
r x 2 a 21 x 1 a 22 x 2 ....... a 2 n x n
........ ................... ...... .........
r x n a n1 x 1 a n 2 x 2 ....... a nn x n
a1n a 2 n a nn x n
Cn
Por ej.:
0, 5 0, 4 20 700
si A y c x es un vector negativo;
0, 6 0, 6 50 925
71
0, 5 0, 4
en cambio, si A
0, 5
para el mismo vector c la solución es
0, 6
3000
positiva: x
3700
A0 A0
n
ó n
a ij 1 ( j 1, 2,..., n) a ij 1 (i 1, 2,..., n)
i 1 j 1
72
p j 0
negativas y su suma es igual a 1, o sea n también se puede
p j 1
j 1
definir como vector columna.
Propiedades:
1) Si A y B son matrices estocásticas, su producto A B es también
unamatriz estocástica.
2) Todas las potencias no negativas de una matriz estocástica A k
1 1
1 1
resulta igual a ese vector, es decir: P de modo que toda
1 1
1, 1, .....,1
T
matriz estocástica tiene el vector propio
correspondiente al valor propio 1
Como los vectores de probabilidad son vectores fila vamos a considerar los
vectores propios de una matriz estocástica como vectores fila; entonces
x P = x de donde x P I los vectores x distintos del vector nulo
que satisfagan este sistema para cada valor propio i serán los vectores
propios correspondientes a ese autovalor i.
73
Teorema: Toda matriz estocástica tiene una raíz característica igual a 1 y
todas sus raíces tienen módulo menor o igual a 1.
Dem: Como P 0 hay una raíz dominante r 0 tal que r i y esa raíz
corresponde a un vector característico no negativo k, según el 2do. teorema
de Frobenius; si k es un vector fila: r k = k P
r k 1 p 11 k 1 p 21 k 2 ....... p n1 k n
r k 2 p 12 k 1 p 22 k 2 ....... p n 2 k n
o sea:
........ ................... ...... .........
r k n p 1n k 1 p 2 n k 2 ....... p nn k n
( p n1 p n 2 p nn ) k n
1
los paréntesis del segundo miembro de la igualdad son la suma de cada una
de las filas de la matriz P de modo que valen 1, por lo que resulta
n
r k 1 k 2 ... k n k 1 k 2 .... k n (1) Si k
i 1
i 0 podemos dividir
Por otra parte, si en lugar de considerar la raíz maximal r tomamos una raíz
cualquiera i también se verifica i k = k P y desarrollando esta expresión
llegamos a que i k 1 k 2 ... k n k 1 k 2 ... k n pero aquí el
vector k puede no ser no negativo (porque no corresponde al valor maximal)
en cuyo caso la suma de sus componentes podría ser 0; sólo en este caso
74
i 1 de modo que si los vectores propios corresponden a raíces distintas
de 1 deben ser tales que la suma de sus componentes sea 0.
1 1
PI v ( 1 / 2, 1) v i 3 / 2
1 / 2 1 / 2
t 2 / 3 (1 / 2, 1) (1 / 3, 2 / 3)
0 1 0 1 1 0
Ejemplo 1: P 0
0
1 PI 0 1 1
1 / 2 1 / 2 0 1 / 2 1 / 2 1
v (1 / 2, 1, 1) vi 5 / 2 t (1 / 5, 2 / 5, 2 / 5)
0 1 0 1 1 0
Ejemplo 2: P 1 / 2 0 1 / 2 P I 1 / 2 1 1 / 2
0 1 0 0 1 1
v (1 / 2, 1, 1 / 2) vi 2 t (1 / 4, 1 / 2, 1 / 4)
75
Ejemplo 3:
1 / 2 0 1 / 2 0 1 / 2 0 1/ 2 0
0 1 / 3 1 / 3 1 / 3 0 2 / 3 1 / 3 1 / 3
P PI
1 / 4 0 1 / 4 1 / 2 1/ 4 0 3 / 4 1 / 2
0 0 0 1 0 0 0 0
v (0, 0, 0, 1 / 6) t (0, 0, 0, 1)
0 1 1/ 2 1/ 2
Ejemplo: P es regular porque P 0
2
3 / 4
1/ 2 1/ 2 1/ 4
1 0
En cambio A no es regular porque
1/ 2 1/ 2
1 0 1 0
A2 A3 y en todas las potencias
3 / 4 1/ 4 7 / 8 1/ 8
sucesivas se mantiene el 0 en el ángulo superior derecho.
m
76
1/ 2 1/ 2 0,31 0, 69 0,3307 0, 663
P 2 ...P 5 ...P 10
1/ 4 3 / 4 0,34 0, 66 0,3298 0, 6702
1/ 3 1/ 3
lim P m T
m
1/ 3 1/ 3
77