Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Manual TE2 v2.1 PDF
Manual TE2 v2.1 PDF
Versión 2.1
14 de febrero de 2020
Pablo Domı́nguez
Jaime Arturo de la Torre
Manuel Pancorbo
Miguel Ángel Rubio
Introducción 7
1. Introducción a la Estadı́stica 13
1. Probabilidad y estadı́stica . . . . . . . . . . . . . . . . . . . 13
1.1. Variables aleatorias discretas . . . . . . . . . . . . . . 13
1.2. Distribución discreta uniforme. . . . . . . . . . . . . 17
1.3. Distribución binomial. . . . . . . . . . . . . . . . . . 19
1.4. Distribución de Poisson . . . . . . . . . . . . . . . . . 25
1.5. Variables aleatorias continuas . . . . . . . . . . . . . 29
1.6. Distribución continua uniforme . . . . . . . . . . . . 30
1.7. Distribución normal. . . . . . . . . . . . . . . . . . . 33
1.8. Distribución χ2 de Pearson. . . . . . . . . . . . . . . 40
1.9. Distribución t de Student. . . . . . . . . . . . . . . . 42
2. Inferencia estadı́stica. . . . . . . . . . . . . . . . . . . . . . . 43
2.1. Inferencia y muestras. . . . . . . . . . . . . . . . . . 46
2.2. Muestreo aleatorio simple (M.A.S) . . . . . . . . . . 47
2.3. Estadı́sticos y distribuciones muestrales. . . . . . . . 50
2.4. Distribuciones muestrales de la media y de la desvia-
ción tı́pica . . . . . . . . . . . . . . . . . . . . . . . . 53
2.5. Teorema central del lı́mite. . . . . . . . . . . . . . . . 54
3
2.6. Estimadores y sus propiedades deseables. . . . . . . . 56
2.7. Métodos de estimación. . . . . . . . . . . . . . . . . . 59
3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4
ÍNDICE GENERAL
5
1.2. Teorema de Wiener-Khinchin. . . . . . . . . . . . . . 196
2. Transformada de Fourier discreta (DFT) . . . . . . . . . . . 197
3. Efectos del muestreo y ventana de digitalización. . . . . . . . 200
3.1. Duración finita de la señal y ((ventanas)) digitales. . . 200
4. Técnicas de filtrado de señales muestreadas. . . . . . . . . . 208
5. Filtros pasivos y activos de orden 2 y superiores. . . . . . . . 211
5.1. Filtros pasivos de segundo orden. . . . . . . . . . . . 211
5.2. Filtros pasivos de orden superior. . . . . . . . . . . . 212
5.3. Filtros activos de segundo orden. . . . . . . . . . . . 215
5.4. Sı́ntesis de filtros de orden superior a partir de la fun-
ción de respuesta en frecuencia. . . . . . . . . . . . . 221
6. Transformada rápida de Fourier (FFT). . . . . . . . . . . . . 225
Bibliografı́a 235
6
INTRODUCCIÓN
Las dos citas en la parte superior tienen una relación interesante en cuanto
a los aspectos de la construcción-descubrimiento de lo que denominamos
((conocimiento cientı́fico)) y podrı́an ser parte de una conversación entre dos
de los grandes genios de la historia de la Humanidad. La frase de Feynmann
hay que englobarla dentro de un ámbito didáctico y ligeramente fuera de
contexto, ya que el texto donde está contenida la cita continúa preguntándo-
se de dónde provienen las leyes cientı́ficas [1], precisamente en el sentido de la
cita de Einstein. Lo que quiere decir el fı́sico norteamericano es que ninguna
teorı́a cientı́fica o modelo matemático que tenga relación con la ((realidad))
fı́sica tiene sentido sin una ((verificación)) experimental. Es decir, si no está,
digamos, ((refrendada)) por los experimentos. En realidad, el proceso formal
es el contrario: las teorı́as fı́sicas se contrastan con los experimentos de ma-
nera que se rechazan en caso de que no sean acordes. Si por el contrario,
todo encaja correctamente dentro de la precisión experimental, no tendre-
mos argumentos para descartar la teorı́a, con lo cual supondremos que es
correcta (al menos de momento).
Es decir, no es posible saber con total certeza si una teorı́a o modelo es
correcta de forma absoluta, porque no es posible realizar infinitos experi-
mentos que la corroboren en cualquier situación posible. Lo que podemos
7
hacer, sin embargo, es descartar el modelo fı́sico con total fiabilidad: si no
coincide con el experimento, la teorı́a es incorrecta. Esta lógica es la base de
buena parte de la Estadı́stica y en concreto de los contrastes de hipóte-
sis, que veremos muy brevemente en este texto. De forma complementaria,
la cita de Albert Einstein afirma que la construcción teórica de modelos
fisico-matemáticos no puede realizarse a través de la experiencia, aunque
esta sea esencial para el desarrollo conjunto de la metodologı́a cientı́fica y
del conocimiento.
En relación con lo anterior conviene que desarrollemos en qué consisten
los modelos dentro de la Matemática. En Ciencias Aplicadas, un modelo
matemático es aquel en el que se emplea algún formalismo para expresar
relaciones, proposiciones sustantivas de hechos, variables, parámetros, en-
tidades y relaciones entre variables y/o entidades que permitan estudiar el
comportamiento de sistemas complejos que no pueden ser observados en la
realidad. Un modelo formal para una cierta teorı́a matemática es un conjun-
to sobre el que se han definido varias relaciones entre algunos elementos del
conjunto que satisfacen las proposiciones derivadas del conjunto de axiomas
que propone la teorı́a. La rama de la Matemática que se encarga de estudiar
de forma sistemática los modelos es la teorı́a de los modelos.
Se podrı́a decir que un modelo en Ciencias Fı́sicas es una forma de repre-
sentar cada uno de los tipos de entidades que intervienen en un cierto tipo
de proceso fı́sico mediante objetos matemáticos. Las relaciones matemáticas
formales entre los objetos del modelo deben representar de alguna manera
las interacciones reales existentes entre las diferentes entidades o partes del
sistema que se esté estudiando. Ası́, una vez traducido (o representado) cier-
to problema se pueden aplicar el Cálculo, el Álgebra y otras herramientas
matemáticas para deducir el comportamiento del sistema bajo estudio. Un
modelo fı́sico requerirá, por tanto, que se pueda seguir el camino inverso al
modelado, de tal forma que se pueda interpretar la realidad a partir de las
predicciones del modelo.
Podemos clasificar los modelos de acuerdo con los siguientes criterios:
8
Introducción
9
del desarrollo de la Teorı́a de la Relatividad Especial de Albert Einstein
(1905) y su relación con el experimento de Michelson-Morley acerca de la
existencia del denominado ((éter)) (1887). En el siglo XIX se pensaba que
la luz se propagaba en un medio desconocido llamado éter. El experimento
de Michelson-Morley se basaba en estudiar la velocidad relativa a la que se
movı́a la Tierra respecto al éter: la velocidad de la luz que proviene del Sol
deberı́a tener entonces diferentes valores en función de la época del año y
de la posición de la Tierra respecto al éter. Michelson desarrolló un sistema
óptico de gran precisión que permitió concluir que no existı́a ninguna varia-
ción apreciable en la velocidad de la luz durante el movimiento de la Tierra
alrededor del Sol. Este resultado dejó completamente desconcertados a los
fı́sicos de la época y no fue hasta la publicación de la Relatividad Especial
de Einstein (y su posterior y lenta aceptación) que se encontró una interpre-
tación satisfactoria a este experimento (la velocidad de la luz es constante
y el éter no existe).
En 1907 se le concedió el premio Nobel de Fı́sica a Michelson por sus contri-
buciones al desarrollo y precisión de las mediciones experimentales mediante
técnicas ópticas (no por la ((confirmación)) experimental de la Relatividad
de Einstein, que en ese momento se consideraba de forma general como algo
puramente especulativo). En el discurso de presentación del premio, a cargo
de K.B. Hasselberg, este leyó lo siguiente:
((En cuanto a la Fı́sica, se ha desarrollado notablemente como una ciencia
de precisión, de tal manera que podemos afirmar justificadamente que la
mayorı́a de los grandes descubrimientos en Fı́sica están basados en su mayor
parte en el alto grado de precisión que puede obtenerse ahora en medidas
tomadas durante el estudio de los fenómenos fı́sicos. [La precisión de la
medida] es la auténtica raı́z, la condición esencial, de nuestra penetración
en las profundidades de las leyes de la Fı́sica, nuestra única vı́a hacia nuevos
descubrimientos.))1
Subyace en estas palabras la creencia general entre la comunidad cientı́fica
de finales del siglo XIX y principios del XX de que toda la Fı́sica esta-
1
Texto traducido al castellano extraı́do de ((Generaciones Cuánticas)) de H. Kragh [3]. El parrafo
en inglés procede a su vez de ((Thematic Origins Of Scientific Thought: Kepler to Einstein)) de G. Holton
[4].
10
Introducción
ba finalizada y que lo único que restaba eran medidas más precisas de los
fenómenos naturales; algo que se demostró falso, gracias entre otros y preci-
samente, al experimento de Michelson sobre la velocidad de la luz. Es decir,
el grado de precisión y la exactitud son fundamentales en la actividad ex-
perimental de las Ciencias Fı́sicas. Sin una precisión adecuada y un método
experimental sofisticado, Michelson no podrı́a haber llegado a una conclu-
sión sobre los resultados de su experimento. En tal caso, los experimentos
negativos pueden ser incluso más alumbradores que aquellos que confirman
una teorı́a, ya que proporcionan un enunciado que es completamente cierto:
si no coincide con el experimento, el modelo fı́sico es incorrecto, al menos
para explicar el fenómeno en cuestión.
Los conceptos de precisión y exactitud ya fueron tratados en el curso de
Técnicas Experimentales I, ası́ como una pequeña introducción al análisis
de errores y a la metodologı́a experimental. Todos estos conocimientos se
dan por supuestos en este texto. En este curso se realiza primero una in-
troducción a la Estadı́stica en el capı́tulo 1, enfocada especialmente en la
probabilidad y las distribuciones. En el capı́tulo 2 se aplica lo aprendido
en el capı́tulo anterior para ampliar conocimientos en métodos en ajus-
tes de datos a funciones y análisis de errores en regresiones lineales. A su
vez, se realiza una pequeña y necesariamente incompleta introducción a la
bondad de los ajustes y al contraste de hipótesis. En el capı́tulo 3 se desa-
rrollan métodos de análisis de señales enfocados al filtrado de las mismas.
Es recomendable que el estudiante curse o esté cursando simultáneamen-
te la asignatura Teorı́a de Circuitos y Electrónica, donde se explican los
diseños básicos de circuitos integradores y derivadores con amplificadores
operacionales (filtros activos de primer orden). El último capı́tulo antes de
los anexos consiste en un resumen detallado de los diferentes sistemas de
unidades que aparecen en Electromagnetismo. Este texto se completa con
cuatro anexos: el primero contiene varios ejemplos desarrollados (adaptados
de exámenes de la asignatura) de análisis de datos de acuerdo a lo explica-
do en los primeros capı́tulos. Los anexos segundo y tercero versan sobre el
cálculo de integrales gaussianas y la probabilida de la distribución normal
tipificada. El cuarto anexo contiene material adicional relacionado con la
teorı́a de filtrado del capı́tulo 3. Cada uno de los cuatro primeros capı́tulos
contiene ejercicios resueltos y una pequeña selección de ejercicios finales de
11
autoevaluación. La solución a estos ejercicios puede encontrarse al final de
este texto, justo antes de la bibliografı́a.
12
Tema 1
INTRODUCCIÓN A LA ESTADÍSTICA
1. PROBABILIDAD Y ESTADÍSTICA
P (xi ) ≥ 0 . (1.1)
13
la unidad (lo que llamamos condición de normalización):
X
N
P (xi ) = 1 . (1.2)
i=1
Y
N
P (x1 && x2 && . . . && xN ) = P (xi ) . (1.4)
i=1
Por otro lado, si dos sucesos xi y xj son mutuamente excluyentes (esto es,
que no pueden darse a la vez), entonces la probabilidad de que se dé xi o
xj viene dada por
14
Introducción a la Estadı́stica
X
N
CDFx (N ) = P (xi ) = 1 . (1.7)
i=1
más información
15
probabilidad P (xi ). Definimos el valor esperado de la variable aleatoria
discreta x (también llamado valor medio o primer momento) como
E(x) = x = hxi = µ
X
N
= xi P (xi ), (1.8)
i=1
donde hemos aprovechado para utilizar las notaciones más comunes que
hacen referencia al valor esperado. El resultado obtenido puede generalizarse
al valor esperado de cualquier función f (x) que dependa de la variable
aleatoria x, que se define como
X
N
f (x) = f (xi )P (xi ). (1.9)
i=1
∆x = x − x = x − x = 0. (1.10)
16
Introducción a la Estadı́stica
17
Ejercicio 1.1 Sea un experimento que consiste en lanzar un dado de seis
caras y observar el resultado. Sabemos que el conjunto de sucesos posible
es X = {1, 2, 3, 4, 5, 6}, con un total de N = 6 posibilidades. Suponiendo
que el dado no esté trucado obtenga el valor medio, la varianza y la
desviación estándar.
Solución
Al informarnos de que el dado no está trucado, nos indican que ((a priori))
podemos considerar que todos los resultados son igualmente probables.
Ası́, la distribución de probabilidad de la variable aleatoria x (esto es,
la probabilidad de que en un lanzamiento se obtenga el valor x) sigue
una distribución discreta uniforme. Dado que los resultados posibles son
N = 6, asignamos a cada uno de ellos una probabilidad P (x) = 1/6, que
cumple por supuesto con la condición de normalización (1.2). El valor
medio de una tirada puede calcularse entonces como:
1X
6
1+2+3+4+5+6
µ= xi = = 3,5 ,
6 i=1 6
18
Introducción a la Estadı́stica
más información
Supongamos una variable aleatoria discreta que solo puede tomar dos valo-
res que son, además, excluyentes entre sı́. Podemos pensar en un experimen-
to como lanzar una moneda al aire, donde los únicos resultados posibles son
que salga cara o que salga cruz. La variable aleatoria ((lado que muestra la
moneda al caer al suelo)), que simplificaremos por x, tendrá una determinada
distribución de probabilidad que, a priori, podemos suponer uniforme.
Generalicemos este experimento al caso de que nuestra variable aleatoria
no siga una distribución de probabilidad uniforme. Sı́ seguirá, desde lue-
go, una determinada distribución. Llamemos a las dos posibilidades ((éxito))
y ((fracaso)). La probabilidad de que la variable aleatoria x tome el valor
((éxito)) la denotaremos por p, de modo que la probabilidad de fracaso será
q = 1 − p.1 Un experimento de este tipo se denomina un ensayo de Ber-
noulli.
La distribución de probabilidad del ensayo de Bernoulli puede obtenerse
considerando una variable aleatoria discreta x ∈ {0, 1}, donde ((0)) se co-
1
Notemos que la condición de normalización p + q = 1 determina unı́vocamente el valor de q a
partir del conocimiento de p.
19
rresponde a la posibilidad ((fracaso)) y ((1)) a la posibilidad ((éxito)). Si la
probabilidad de obtener un 0 es q y la probabilidad de obtener un 1 es p,
podemos considerar la distribución siguiente:
X
1
µ= xf (x) = 0 × q + 1 × p = p , (1.18)
x=0
X1
σ2 = x2 f (x) − µ2 = 02 × q + 12 × p − p2 = p(1 − p) = pq . (1.19)
x=0
más información
Nos preguntamos ahora por una variable que cuantifique el número de éxi-
tos de un proceso de Bernoulli. Esta variable se define como variable
aleatoria binomial. Sabemos que tomará valores en el conjunto X =
{0, 1, 2, 3, . . . , N }, donde N es el número de veces que se repite cada en-
sayo de Bernoulli. La distribución de probabilidad asociada a esta variable
se denomina distribución binomial y viene representada por
20
Introducción a la Estadı́stica
2
Observemos que para N = 1 recuperamos la distribución de probabilidad de Bernoulli (1.17).
21
0.30
p = 0,25
p = 0,50
0.25
0.20
P (xi )
0.15
0.10
0.05
0.00
0 1 2 3 4 5 6 7 8 9 10
xi
Figura 1.1. Distribución binomial para N = 10 ensayos, con una probabilidad p = 0,25 (en rojo) y
p = 0,50 (en verde). Observemos que la distribución binomial es simétrica en caso de que p = q y presenta
asimetrı́a hacia la derecha (de forma que serán más probables los valores pequeños de x) cuando p < q.
Recı́procamente, existirá asimetrı́a a la izquierda si p > q.
este no será más que la suma de los valores medios de cada uno de los
ensayos (dados por la ecuación (1.18)), es decir,
µ = Np . (1.24)
Lo mismo ocurre con la varianza y la desviación tı́pica, que pueden obtenerse
directamente de la ecuación (1.19) como
σ 2 = N pq , (1.25)
p
σ = N pq . (1.26)
Solución
Utilicemos la siguiente notación: S = canasta, N = fallo y x el núme-
ro de canastas. Supongamos que nuestro jugador es capaz de mantener
22
Introducción a la Estadı́stica
Una vez hemos obtenido las distintas probabilidades de todos los posibles
sucesos, podemos calcular la probabilidad de que el jugador enceste 0,
1, 2 o 3 canastas. Bastarı́a con sumar, para cada una de las situaciones
planteadas, aquellos sucesos que dan lugar a la misma. Ası́
23
Ejercicio 1.3 Realice el mismo cálculo que en el ejercicio anterior pero
usando la forma funcional explı́cita de la distribución de probabilidad
(distribución binomial).
Solución
En efecto, las posibles combinaciones de cada número de encestes te-
niendo en cuenta que hay tres lanzamientos resulta ser:
3!
P33,0 = = 1, 3 encestes, 0 fallos.
3!0!
3!
P32,1 = = 3, 2 encestes, 1 fallo.
2!1!
3!
P31,2 = = 3, 1 enceste, 2 fallos.
1!2!
3!
P30,3 = = 1, 0 encestes, 3 fallos.
0!3!
b(x; N, p) = Pnx,N −x px q N −x ,
que coincide, como cabrı́a esperar, con los resultados realizados por fuer-
za bruta en el ejercicio anterior.
Conocida la distribución de probabilidad podrı́amos responder a cual-
quier cuestión. Por ejemplo, si queremos saber cuál es la probabilidad
24
Introducción a la Estadı́stica
X
3
P (x ≥ 2) = b(x; 3, 0,8) = 0,384 + 0,512 = 0,896 .
x=2
25
resultados que aparecen en un experimento que sigue el proceso de Poisson.
El rango de valores que toma la variable de Poisson será X = {0, 1, 2, . . .}.
La distribución de probabilidad asociada a esta variable se denomina distri-
bución de Poisson y dependerá, fundamentalmente, del número medio de
resultados (sucesos) por intervalo, que denotaremos por λ. La distribución
de Poisson se escribe como:
P (x) = p(x; λ) . (1.27)
3
Por este motivo es común hablar de ((eventos raros)) al estudiar la variable de Poisson.
26
Introducción a la Estadı́stica
0.20
Binomia
0.18 Poisson
0.16
0.14
0.12
P (xi )
0.10
0.08
0.06
0.04
0.02
0.00
0 2 4 6 8 10 12 14 16 18 20
xi
Figura 1.2. Comparación entre distribuciones binomial (en aspas rojas) y de Poisson (en cuadrados
verdes) para un mismo valor de N = 100 y p = 0,05.
27
1.0
0.6
0.4
0.2
0.0
0 5 10 15 20
x
Figura 1.3. Función de distribución acumulativa para la distribución de Poisson y distintos valores de λ:
λ = 1,0 (rojo), λ = 5,0 (verde) y λ = 10,0 (azul).
más información
Solución
Este problema sigue una distribución de Poisson con parámetro λ = 3.
28
Introducción a la Estadı́stica
29
integral
Z x2
dx ρ(x), (1.31)
x1
Se dice que una variable aleatoria continua x sigue una distribución conti-
nua uniforme cuando su función de densidad de probabilidad, ρ(x), toma
valores constantes en el intervalo [a, b]. Es decir, se cumple que ρ(x) = K en
ese intervalo y, por tanto, la probabilidad de que tome un valor en cualquier
subintervalo (dentro de ese intervalo) es la misma. Para calcular el valor de
la constante basta con imponer la condición de normalización de la función
de densidad:
Z ∞ Z b
1= ρ(x)dx = ρ(x)dx
−∞ a
Z b (1.36)
1
= Kdx = K(b − a) ⇒ K = .
a (b − a)
30
Introducción a la Estadı́stica
31
Solución
Puesto que no existe ninguna regla para diferenciar entre sı́ dos interva-
los de precipitación (existe la misma probabilidad de que caigan entre
405 l y 406 l, de que caigan entre 411 l y 412 l, entre 489 l y 490 l,
etc.), el principio de indiferencia nos permite suponer que la probabili-
dad es constante en todo el intervalo. Sabiendo esto, podemos calcular
la densidad de probabilidad como
1
ρ(x) = l−1 = 0,01 l−1 .
500 − 400
32
Introducción a la Estadı́stica
Definición y propiedades.
33
normal o de Gauss) y simétrica (por depender de x a través del término
(x − µ)2 ). La distribución está centrada en µ y su anchura es proporcional a
σ. El máximo de la densidad de probabilidad se produce en x = µ, Se puede
demostrar que los puntos de inflexión de la curva normal están situados en
µ − σ y µ + σ. La curva tiende de forma asintótica a cero al alejarse del valor
medio. Además, la condición de normalización asegura que el área entre la
curva normal y el eje X es igual a la unidad.
1.00
(2πσ 2 )−1/2 Nµ,σ (x)
0.75
0.50
0.25
0.00
µ − 3σ µ − 2σ µ−σ µ µ+σ µ + 2σ µ + 3σ
34
Introducción a la Estadı́stica
0.20
Gauss
0.18 Binomia
Poisson
0.16
0.14
0.12
P (xi )
0.10
0.08
0.06
0.04
0.02
0.00
0 2 4 6 8 10 12 14 16 18 20
xi
Figura 1.5. Comparación entre las distribuciones de Gauss, distribución binomial y de Poisson para
N = 100 ensayos, con una probabilidad p = 0,05.
35
A partir de la definición (1.42), vemos que la probabilidad de que x tome
un valor entre x1 y x2 puede calcularse formalmente como
Z x2
1 (x−µ)2
P (x1 < x < x2 ) = √ e− 2σ2 dx . (1.44)
σ 2π x1
Aunque el cálculo de esta integral para los lı́mites x1 → −∞ y x2 → ∞ es
inmediato (ver el Apéndice B), si los lı́mites son finitos la integral no tiene
solución analı́tica, lo que lleva a introducir la función error definida como:
Z x
2 2
erf(x) = √ e−t dt . (1.45)
π 0
µ σ Área
1,0 1,0 0,8413
3,0 1,0 0,9973
3,0 2,5 0,7699
Tabla 1.1. Integrales de la función de distribución gaussiana para distintos valores de µ y σ en el intervalo
[0, 6].
36
Introducción a la Estadı́stica
0.40
0.30
Nµ,σ (x)
0.20
0.10
0.00
0.0 2.0 4.0 6.0 8.0 10.0
x
Esta CDF se tabula por comodidad, tal y como se muestra en la tabla C.1
del apéndice C para distintos valores de zi .
4
Obsérvese la analogı́a con la función error (1.45).
37
Ejercicio 1.6 Supongamos una variable z que sigue una distribución
de probabilidad gaussiana de media nula y varianza unidad. ¿Cuál es
la probabilidad de que la variable z tome un valor menor o igual que
zi = 0,57?
Solución
La distribución que sigue la variable z es, directamente, la distribución
normal tipificada. En este caso, usando la tabla C.1, basta cruzar la fila
0,5 con la columna 0,07 de forma que P (z ≤ 0,57) = 0,7157 (marcado
en azul en la tabla). Esto es, la probabilidad de que la variable z tome
un valor menor o igual que zi = 0,57 es de un 71,57 %.
P (z > zi ) = 1 − P (z ≤ zi ). (1.47)
P (zi ≤ z ≤ zj ) = P (z ≤ zj ) − P (z ≤ zi ). (1.48)
38
Introducción a la Estadı́stica
Solución
El problema se resuelve sabiendo las correspondencias entre los valores de
los pesos de nuestra variable y los valores que corresponden a los mismos
en una distribución normal tipificada. Transformamos estos valores:
x1 − µ 60 − 70
Z1 = = = −3,33 ,
σ 3
x2 − µ 75 − 70
Z2 = = = 1,67 ,
σ 3
cuyos valores de probabilidad según la tabla tipificada son:
P (Z ≤ Z1 ) = 1 − P (Z ≤ −Z1 ) = 1 − 0,9996 = 0,0004 ,
P (Z ≤ Z2 ) = 0,9525 .
Ahora podemos calcular el valor de la probabilidad pedida:
P (60 ≤ X ≤ 75) = P (−3,33 ≤ Z ≤ 1,67)
= P (Z ≤ 1,67) − P (Z ≤ −3,33)
= 0,9525 − 0,0004 = 0,9521 ' 95 %
En el caso de considerar la probabilidad de que un estudiante pese más
de 72 kg, esta vendrá dada por la variable transformada
72 − 70
Z3 = ' 0,67 ,
3
cuya probabilidad tipificada es
P (Z ≤ Z3 ) = 0,7486 .
Tendremos entonces:
P (X > 72) = P (Z > 0,67) = 1 − P (Z ≤ 0,67)
= 1 − 0,7486 = 0,2514 ' 25 % .
39
1.8. Distribución χ2 de Pearson.
más información
40
Introducción a la Estadı́stica
N =1 N =3 N =5 N = 10 N = 50 N = 90
N =2 N =4 N = 30 N = 70
0.5 0.10
0.4 0.08
0.3 0.06
fN (x)
fN (x)
0.2 0.04
0.1 0.02
0 0.00
0 1 2 3 4 5 6 7 8 9 10 0 20 40 60 80 100
x x
Figura 1.7. Función de densidad de probabilidad de χ2N . Al aumentar el número de grados de libertad
la distribución toma una forma simétrica y cada vez más parecida a la distribución normal.
µ = N, (1.52)
σ 2 = 2N . (1.53)
s2
χ2N −1 = (N − 1) (1.54)
σ2
y obedece a una distribución χ2 con (N − 1) grados de libertad. Esta pro-
piedad es muy importante para la estimación de la varianza y el contraste
de hipótesis.
41
1.9. Distribución t de Student.
1 X
N
2
s2N = Xi − X , (1.55)
N − 1 i=1
donde hemos introducido una corrección de Bessel en la varianza (cam-
biando el factor 1/N por 1/(N − 1)). En estas condiciones, se define la
variable aleatoria
X −µ Z
tN −1 = q =q 2
2
(1.56)
SN χN −1
N N −1
42
Introducción a la Estadı́stica
N =1 N = 10
N =2 N = 100
N =5 Normal
0.4
0.3
fN (t)
0.2
0.1
0.0
−4 −2 0 2 4
t
2. INFERENCIA ESTADÍSTICA.
43
con determinados principios. Uno de los propósitos de la Inferencia Es-
tadı́stica es conseguir técnicas para hacer inferencias inductivas y medir el
grado de incertidumbre de tales inferencias. La medida de la incertidumbre
se realiza en términos de probabilidad.
El primer concepto importante es el de población, que es el conjunto de
entes (individuos, cosas, sucesos, etc.) sobre los que se desea obtener in-
formación. La población ha de estar perfectamente definida a la hora de
comenzar el estudio. Por ejemplo, en un ensayo clı́nico en el que se pretende
demostrar la efectividad de un tratamiento, han de estar muy claros cuales
son los criterios de inclusión de un paciente en la población (muestra) a
estudiar.
De la población (que no es sino el conjunto de todos los entes que satisfa-
cen los criterios de selección para nuestro estudio) se extrae un subconjunto
que se denomina muestra. La muestra tiene que de ser representativa de
la población, en el sentido de tener una composición similar en cuanto a
la proporción de caracterı́sticas. Por ejemplo, una muestra para un estudio
de estaturas no incluirá solo a individuos altos (o bajos), sino a individuos
de ambas clases en proporciones similares a las que se encuentran en la
población, en caso contrario diremos que la muestra está sesgada. La re-
presentatividad de la muestra queda garantizada con la elección correcta
del método de muestreo. En el siguiente apartado veremos algunos métodos
que garantizan hacer una selección de las muestras de forma que no estén
sesgadas.
Sobre cada uno de los entes de la muestra medimos una (o varias) carac-
terı́sticas que llamaremos variables y que se denotarán mediante las varia-
bles mayúsculas X, Y, Z, ..... En la teorı́a quedan identificadas población y
variable aleatoria asociada, es decir, cuando en un ejercicio se habla de una
cierta variable aleatoria, esta debe estar asociada de forma unı́voca a una
determinada población. Por ejemplo, no tiene sentido hablar de la tasa de
ceguera, sino que es necesario hablar de la tasa de ceguera en un determina-
do grupo de personas. Un ejemplo de variable aleatoria bien definida serı́a:
((El estudio recoge una estadı́stica de la tasa de ceguera en varones entre 20
y 30 años que residen en Cuenca)). De hecho, cuantas más caracterı́sticas
se proporcionen sobre los entes que constituyen la población del experimen-
to, mejor acotados quedarán los resultados y mayor información se podrá
44
Introducción a la Estadı́stica
45
probable es que se puedan caracterizar utilizando una distribución
normal. En el caso de que sean pocos datos, alguna pista sobre los
datos puede darnos una idea de qué distribución elegir. Por ejemplo,
si sabemos que la variable aleatoria cuyo valor estamos tratando de
inferir solo puede tomar dos valores, esto nos puede llevar a pensar
que lo adecuado sea elegir una distribución de tipo binomial.
46
Introducción a la Estadı́stica
47
proceso de generación de números aleatorios. Una de las ventajas de este
procedimiento es que proporciona valores aleatorios, de tal forma que nunca
predominan los valores altos o los bajos y, por lo tanto la muestra tendrá
una composición similar a la de la población. Además, es un procedimiento
sencillo y produce estimadores de los parámetros desconocidos próximos a
los valores reales de los mismos. El principal inconveniente de este tipo de
muestreo es que necesita un marco adecuado, es decir, que hayamos prese-
leccionado de forma adecuada a los individuos que componen la población
y que el número de individuos entre los que seleccionemos sea lo suficien-
temente amplio. Esto no siempre es fácil de conseguir (puede que no haya
muchos individuos con las caracterı́sticas que nos interesan) y puede ser que
en el proceso de selección se pierda mucha de la información que es relevante
para nosotros.
Muestreo sistemático.
48
Introducción a la Estadı́stica
Muestreo estratificado.
49
Las ventajas de este tipo de muestreo son las siguientes:
50
Introducción a la Estadı́stica
5
Utilizamos letras minúsculas para denotar las observaciones particulares de una muestra (valores
medidos) y letras mayúsculas para denotar las variables aleatorias. A lo largo de la exposición teórica
ambas serán intercambiables y serán utilizadas indistintamente para representar a las correspondientes
51
Sea X una variable aleatoria con distribución de probabilidad F y sean
n variables aleatorias independientes X1 , X2 , . . . , Xn que siguen la misma
distribución de probabilidad F que X. Se dice que x1 , x2 , . . . , xn (los valo-
res obtenidos al medir cada una de las variables X) forman una muestra
aleatoria de tamaño n de la distribución de probabilidad F y/o forman n
observaciones independientes de la variable X.
Matemáticamente, lo anterior se expresa como:
variables aleatorias.
52
Introducción a la Estadı́stica
más información
53
Entonces, el valor esperado (media) y la varianza de la media muestral X̂
son:
E(X̂) = µ, (1.59)
σ2
Var(X̂) = , (1.60)
n
σ
Desv(X̂) = √ . (1.61)
n
La comprobación del resultado es directa si aplicamos que la esperanza de
la suma de varias variables aleatorias independientes es la suma de las espe-
ranzas, ası́ como que la varianza es la suma de las varianzas. Además, hemos
de tener en cuenta que si multiplicamos una variable por una constante, la
varianza queda multiplicada por la constante al cuadrado. Entonces:
" n #
X Xi 1X
n
1
E(X̂) = E = E(Xi ) = nµ = µ ,
i=1
n n i=1 n
" n #
X Xi Xn
Xi σ2 σ2
Var(X̂) = Var = Var =n 2 = .
i=1
n i=1
n n n
54
Introducción a la Estadı́stica
más información
55
2.6. Estimadores y sus propiedades deseables.
Vamos ahora a estudiar el caso de una población en la que se mide una cierta
variable estadı́stica X cuya distribución de probabilidad es conocida pero
de la que son desconocidos los parámetros que definen esta distribución. Un
ejemplo de esta situación se darı́a cuando tenemos una variable que sigue
una distribución normal de la que desconocemos tanto la media µ como la
varianza σ 2 , parámetros que, por tanto, queremos estimar.
A este respecto, comenzamos por extraer una muestra aleatoria simple de la
población. Esto es, recolectamos una colección de n datos, X1 , X2 , . . . , Xn ,
a partir de los cuales queremos estudiar la forma de una función (que de-
finiremos de forma genérica como θ̂ = u(X2 , . . . , Xn ) que nos proporcione
una estimación θ̂ del parámetro θ que queremos estudiar. Obviamente, es
necesario tomar la forma de la función apropiadamente, ya que buscamos
obtener una buena estimación del parámetro que nos interesa. Una vez ele-
gida la forma de la función, podemos evaluarla sobre los valores que tenemos
en nuestra muestra. El valor que obtengamos se denominará ((estimador del
parámetro θ)) sobre la muestra. Obviamente, si hemos tomado diferentes
muestras, estas tendrán elementos diferentes entre sı́ y, en consecuencia, ob-
tendremos diferentes estimaciones para el valor del parámetro que queremos
estudiar.
Obtener diferentes valores para la estimación del parámetro nos indica que
este mismo valor (que denominaremos de aquı́ en adelante estimador) es
en sı́ una variable aleatoria. Esto nos permite ahora dar un sentido más
concreto a la idea de ((tomar la forma de la función de forma apropiada)).
Trataremos entonces de elegir una función que tenga un valor medio (sobre
las muestras) que sea lo más parecido al valor que creemos que debe tomar el
parámetro realmente y que tenga, alrededor de ese valor medio, una varianza
que sea lo más pequeña posible.
Por ejemplo, supongamos que los datos que estamos manejando nos per-
miten llegar a la conclusión de que la caracterı́stica en la que estamos in-
teresados tiene, sobre nuestra muestra, una distribución normal. En este
caso, tomaremos como estimador de la media poblacional el valor medio de
la media muestral. Esto es, tomaremos varias muestras de la población y
calcularemos el valor medio de los valores de cada una. Obtendremos ası́ un
56
Introducción a la Estadı́stica
57
Esta propiedad es bastante importante ya que los posibles valores
del estimador siempre van a fluctuar alrededor del verdadero valor del
parámetro. Por ejemplo, la media muestral es un buen estimador de la
media poblacional (si la población sigue una distribución normal, cosa
que se cumplirá siempre que la población sea grande), ya que se trata
de un estimador insesgado. Es sencillo comprobar que la esperanza de
su distribución muestral es la media poblacional, µ. En este ejemplo
debemos destacar que el que la distribución de probabilidad de la
población sea normal es importante ya que, aunque los valores de
la media muestral y la media poblacional no coincidan, se va a dar
siempre que los valores de cada una de las muestras que tomemos va
a estar alrededor del valor de la media de la población. De hecho, los
valores de las medias muestrales se van a distribuir de forma simétrica
alrededor del valor de la media poblacional. En el momento en el que
tomemos un número grande de muestras, los valores medios de cada
una de ellas se van a colocar bastante cerca del valor ((real)) de la
media poblacional, con lo que no solo se podrá estimar un buen valor
del parámetro ((media poblacional)), sino que además la estimación de
este valor se va a hacer de forma bastante precisa.
58
Introducción a la Estadı́stica
Eficiencia. Está claro que un estimador será tanto mejor cuanto menor sea
su varianza (error con el que se hace la estimación), ya que los valores
que tomamos en la estimación se concentran alrededor del verdadero
valor del parámetro. Se dice que un estimador insesgado es eficiente
si tiene varianza mı́nima, es decir, la varianza deberı́a tender a cero
cuando aumenta el número de estimaciones.
Una cota inferior para la varianza de un cierto estimador se puede ob-
tener aplicando el criterio de cota de Cramer-Rao. Supongamos
que se toma una muestra aleatoria de valores de una cierta pobla-
ción, {X1 , X2 , . . . , Xn }, cuyos elementos siguen una distribución de
probabilidad que vamos a denotar por f (x; θ) (aquı́ θ representa el
(los) parámetro(s) de los que depende la distribución y que quere-
mos estimar). Si la distribución de probabilidad es regular, cualquier
estimador insesgado verifica que:
1
Var(θ̂) ≥ 2 .
∂ ln f (X;θ)
∂θ
59
con los poblacionales. Los momentos se definen como:
1X k
n
mk = x .
n i=1 i
Puesto que los valores medios de las muestras que hemos tomado de la
población siguen una distribución normal, los valores de los errores, tal
y como los hemos definido en el apartado anterior, también seguirán
una distribución normal que denotaremos como N (0, σ).
Mı́nimos cuadrados. Veamos el método de los mı́nimos cuadrados desde
el punto de vista de los estimadores. En concreto, tratamos de mi-
nimizar la suma de los cuadrados de las diferencias entre los valores
60
Introducción a la Estadı́stica
X
n X
n
D= ε2i = (xi − µ)2
i=1 i=1
∂D X
n
= 2(xi − µ)(−1) = 0 .
∂µ i=1
O lo que es lo mismo:
X
N
(xi − µ) = 0.
i=1
3. EJERCICIOS
61
Ej. 1.2 — Una empresa de electrónica observa que el número de com-
ponentes que fallan antes de cumplir 100 horas de funcionamiento es una
variable aleatoria de Poisson. Si el número promedio de estos fallos es ocho,
¿cuál es la probabilidad de que falle un componente en 25 horas?
(a) a = 1,909.
(b) a = 2,009.
(c) a = 1,606.
(d) a = 0,3141.
Ej. 1.5 — Supongamos que se lanza un dado, sabiendo que todas las pun-
tuaciones tienen la misma probabilidad de salir. ¿Qué probabilidad hay de
que en dos tiradas salgan dos cuatros?
(a) 1/6
(b) 1/2
(c) 1/36
(d) 1/72
62
Introducción a la Estadı́stica
Ej. 1.7 — Supongamos que la nota de un examen siempre sigue una dis-
tribución normal. Las notas de un profesor de Matemáticas tienen una media
de 7 y una desviación media de 3. Otro profesor tiene una media de 6 y una
desviación media de 0,9. ¿Con qué profesor es más sencillo aprobar y con
cuál es más sencillo sacar nota?
(a) Es más sencillo aprobar con el primero, pero sacar nota con el se-
gundo.
(b) Es más sencillo aprobar con el segundo, pero sacar nota con el pri-
mero.
(c) Es más sencillo aprobar con el primero y sacar nota con él.
(d) Es más sencillo aprobar con el segundo y sacar nota con él.
63
Tema 2
ESTADÍSTICA APLICADA: AJUSTES, ANÁLISIS DE ERRORES Y
CRITERIOS DE DECISIONES
1. GAUSSIANAS Y ERRORES
65
distribución de X tiene las siguientes caracterı́sticas:
P
Tiene un valor esperado hXi = µi .
P
Su varianza es V (X) = σi2 .
Es gaussiana cuando N → ∞.
Este resultado es el que provoca que las distribuciones gaussianas sean tan
importantes. Una cantidad que es producida por la suma de otras cantidades
puede considerarse, al menos aproximadamente, como gaussiana, indepen-
dientemente de las distribuciones originales. Los errores en las mediciones
funcionan muy bien en este sentido, pero también otras muchas cantidades
como, por poner un ejemplo, las propiedades anatómicas de las personas
(alturas, longitud de brazos y dedos, etc) debido a que estas son debidas a
muchos efectos combinados, tanto de tipo genético como ambientales.
En cualquier caso, hay que tener en cuenta que este resultado funciona muy
bien en el centro de la distribución, más que en sus extremos. Es decir, las
distribuciones pueden ser indistinguibles de una gaussiana a una distancia
de uno o dos σ del centro de la misma, pero no más allá.
Y
N
L (x1 , x2 , ...xN , α1 , ...αn ) = f (xi ; α) (2.1)
i=1
66
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
donde estamos suponiendo que los estimadores α, que son los objetos que
hay que encontrar, son variables aleatorias.
Solución
La función de máxima verosimilitud será:
Y 1
L = e −ti /τ
τ
67
Ejercicio 2.2 Supongamos una distribución normal, N (µ, σ 2 ), tal que
su densidad de probabilidad es:
1 1 (x−µ)
2
f (x) = √ e− 2 σ2
2πσ
Si se tienen N datos que se rigen por distribuciones normales, obtenga
los estimadores por el método de máxima verosimilitud.
Solución
La función de máxima verosimilitud será la multiplicación de las f (xi )
para cada uno de los posibles N datos:
1 1 P
(xi −µ)2
L = e− 2σ2
(2π)N/2 σ N
68
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
más información
Y = F (X; λ)
69
del lı́mite, que las fluctuaciones de las medidas de Y con respecto al valor
teórico siguen una distribución gaussiana, tendremos que:
1 1 (yi − F (xi ; λ))2
f (yi ) = p exp −
2π(σi )2 2 σi2
N X 1
ln L = − ln(2π) − ln σi − S(λ) (2.3)
2 2
70
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
Al resolver esta ecuación, obtenemos los λ̂k deseados que son los que mi-
nimizan S(λ) y que permiten obtener F (X; λ). Por supuesto, resolver la
ecuación anterior de forma general no es un proceso inmediato. Primero,
vamos a aplicar esta estrategia en del método de mı́nimos cuadrados y de
máxima verosimilitud para el ajuste de datos experimentales a funciones.
donde las fk (x) son funciones cualesquiera. Vemos que esta función F (x; λ)
no es muy general, pero lo es más que las funciones polinómicas, por ejem-
plo, y que son las que habitualmente se emplean en el ajuste por mı́nimos
cuadrados. En este caso, la función a minimizar es:
P
X (yi − j λj fj (x))2
S(λ) =
i
σi2
71
Aquı́ tenemos una colección de ecuaciones, no solo una. Habrá tantas como
parámetros λk tengamos. Es decir, si derivamos respecto a un λk :
( ! )
∂k S(λ) X X 2 fk (xi )
= yi − λj fj (x) =0 (2.7)
∂λk i j
σi2
λ = M −1 Y (2.8)
72
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
Vamos a calcular esos dos términos dentro de la expresión del valor esperado
de forma separada empleando las ecuaciones anteriores. Primero vemos que:
X X fj (xi )
λk − αk = (M −1 )kj (Yj − Ȳj ) = (M −1 )kj 2
(yi − ȳi ) (2.9)
j ij
σ i
E igualmente obtenemos el otro término sin más que cambiar los ı́ndices (k
por q, j por p y i por l):
X fp (xl )
λq − α q = (M −1 )qp 2
(yl − ȳl ) (2.10)
pl
σ l
73
Aplicando el estimador y la expresión (2.11) obtenemos:
X fj (xi )fp (xl )
E[(λk − αk )(λq − αq )] = (M −1 )qp (M −1 )kj 2
δil
ijpl
σ l
El lector puede comprobar que parte del término final de la anterior expre-
sión es igual a Mjp :
X fj (xi )fp (xl )
2
δil = Mjp
il
σ l
Finalmente obtenemos:
X
E[(λk − αk )(λq − αq )] = (M −1 )kj (M −1 )qp Mjp =
jp
X
= (M −1 )kj δjq = (M −1 )kq
jp
Ajuste lineal.
74
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
y = λ1 x + λ2
Solución
75
Empleando estos datos y la expresiones anteriores se obtiene que:
4792,5 4150 975
Y= M=
1152,5 975 281
Ahora bien, para obtener los parámetros tenemos que emplear la fórmula
λ = M −1 Y que supone tener que invertir la matriz M . Para el caso 2×2
esto es muy sencillo ya que si tenemos una matriz de la forma ac db su
inversa viene dada por:
1 d −b
ad − bc −c a
76
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
Datos
4
y
1
1 2 3 4 5 6
x
Figura 2.1. Regresiones lineales correspondientes al ejercicio anterior, al incluir los errores y sin incluirlos.
77
menospreciar los datos menos precisos. La pregunta que podemos hacernos
aquı́ tiene su importancia: ¿queremos menospreciar los datos menos preci-
sos? Al final y al cabo son mediciones experimentales y su inclusión nos
informa acerca de la precisión experimental. Es más, en muchos casos y
en muchas publicaciones cientı́ficas no se realiza este cálculo, obteniéndose
entonces el ajuste mediante regresión lineal sin preocuparse de los errores
en las y. De esta forma, puede entenderse que tenemos en cuenta todos los
datos por igual y además sabemos que el error en los parámetros va a ser
una cota máxima. Como siempre, un punto intermedio y razonado a la hora
de realizar estas consideraciones es siempre deseable, pero aquı́ tenemos un
cierto factor de falta de objetividad que hay que tener presente. El objetivo
de esta discusión es ayudar a desmitificar el método de los mı́nimos cua-
drados, ası́ como la indiscutibilidad del resultado que se obtiene a través
de él ya que, como hemos visto, los parámetros que obtenemos dependen
de las desviaciones tı́picas de los datos, las cuales, además, también pueden
contener cierto factor de subjetividad.
y = λ1 x + λ2
e igualmente:
∂S X (yi − λ1 xi − λ2 )
= −2 =0
∂λ2 σi2
78
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
−E + λ1 D + λ2 A = 0, −C + λ1 A + λ2 B = 0
EB − CA DC − EA
λ1 = , λ2 =
DB − A2 DB − A2
λC −1 = a
y que:
D A
C −1
≡ (2.15)
A B
Por tanto:
1 B −A
C =
DB − A2 −A D
79
de la función S. Recordemos que la matriz hessiana de una función f que
depende de unas variables x1 ...xn se define de la siguiente forma:
∂2f ∂2f 2f
∂x21 ∂x1 ∂x2
· · · ∂x∂1 ∂x n
∂2f ∂2f 2f
∂x2 ∂x1 2 · · · ∂x∂2 ∂x
H(f ) ≡
..
∂x
..
2
.. .
n
. . . ..
∂2f ∂2f ∂2f
∂xn ∂x1 ∂xn ∂x2
··· ∂x2 n
80
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
81
Métodos de descenso en la dirección del gradiente: necesitan el valor
de la función y sus primeras derivadas en una serie de puntos.
82
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
3.1. Método χ2 .
donde wio son las frecuencias observadas y wit las frecuencias teóricas de ese
determinado suceso, mientras que las σi2 son las varianzas poblacionales de
las frecuencias teóricas. Estas últimas cantidades, según la distribución de
Poisson, son iguales a las frecuencias teóricas (wit ). Por tanto:
X
n
(wo − wt )
2
i i
χ2 = (2.19)
i=1
wt
83
expresiones para la media y la desviación tı́pica. Esto supone tres ligaduras,
de forma que el número de grados de libertad será ν = n − 3. En caso de
que estemos usando el método χ2 para la bondad de un ajuste a una fun-
ción lineal, el número de parámetros es igual a dos (los correspondientes a
la recta de regresión) y por lo tanto el número de grados de libertad será
ν = n − 2.
Volviendo al caso de las frecuencias y del valor esperado de χ2 , este será
igual a n−1, que es igual al número de grados de libertad. Este número viene
dado porque se considera que la la suma de las frecuencias, tanto teóricas
como experimentales, tiene que ser igual a un determinado número fijo N .
Esta afirmación es en sı́ misma una expresión teórica que se considera como
una ligadura en el sistema, la cual reducirı́a el número efectivo de datos
observados. Ası́, el valor medio de χ2 es, en este caso:
E[χ2 ] = n − 1 (2.20)
84
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
Por tanto, la función (2.21) es una medida de la desviación entre los valores
medidos y los valores obtenidos a través del ajuste de la función f , de
forma que χ2 = 0 si el ajuste fuese perfecto. Dado que los valores esperados
del numerador de la expresión anteriores son iguales a las varianzas σi2 , se
obtiene que el valor esperado de χ2 es:
E[χ2 ] = n
E[χ2 ] = n − m (2.22)
Ejercicio 2.4 Tenemos una moneda que se lanza al aire 200 veces,
observándose 118 caras y 82 cruces. Las frecuencias teóricas, wt , son
100 para las caras y 100 para las cruces, ya que ambos sucesos son
estadı́sticamente igual de probables y su probabilidad es 1/2 en ambos
casos. ¿Estará trucada la moneda?
Solución
85
El número de sucesos, n, es igual a 2, ya que solo hay dos posibilidades,
cara o cruz. Según (2.20), el valor esperado para χ2 = 2 − 1 = 1. Pero
empleando (2.19) se obtiene que:
χ2 = 6,5
Solución
Las frecuencias teóricas o esperadas, wt , serán igual al número de dı́gitos
divido por el número de sucesos, es decir, 20. El valor esperado para
E[χ2 ] = n − 1 = 10 − 1 = 9. Si calculamos el valor de χ2 , obtenemos
que es igual a 7. Por tanto, concluimos que no hay sospechas de que la
tendencia de los datos no sea aleatoria.
86
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
más información
Ejercicio 2.6 Usando los datos del ejercicio 2.4 y los resultados obteni-
dos para las regresiones lineales detallados en los apartados anteriores,
calcule los valores de χ2 y E[χ2 ] para los dos casos considerados: cuando
no se usaban desviaciones tı́picas para cada dato y cuando sı́ se usa-
ban.Para obtener la varianza de y en el primer caso, puede usarse la
siguiente expresión:
1 X
s2 (y) = (yi − axi − b)2
n−2
Solución
Mediante el uso de las desviaciones tı́picas en la regresión se obtiene el
resultado y = 1,04 x + 0,51, y por tanto:
X
6
yi − 1,04 xi + 0,51
2
χ = = 25,6
i=1
σi2
87
Hay mucha diferencia entre los valores, ası́ que podemos decir que el
ajuste no es bueno. Si no utilizásemos desviaciones, obtendrı́amos χ2 = 4,
con lo cual la conclusión del test es totalmente distinta. Las diferencias
entre ambos métodos están muy relacionadas con el cuarto punto que
puede verse en la figura 2.1.
Finalmente, comentamos una definición que será útil en las siguientes sec-
ciones. Como hemos visto, si repetimos el experimento suficientes veces,
el valor medio o esperado de χ2 deberá ser aproximadamente igual a ν,
el número de grados de libertad. De esta manera, puede definirse una chi
reducida, representada como χ̃2 , tal que:
χ2
χ̃2 ≡ (2.23)
ν
88
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
89
N (µ, σ) donde se conoce la desviación tı́pica, σ, pero no la media µ. Esta
media puede estimarse usando:
1X
x̄ = xi
n
(n − 1)s2
χ2 =
σ2
Esta imprecisión suele ser notable, ası́ que no tiene mucho sentido expresar
la desviación tı́pica con gran exactitud. Es por esto que la metodologı́a
habitual es determinar s(x) de forma que en el intervalo x̄ ± s(x) queden
2/3 de los datos. Igualmente, por esto se recomienda que las desviaciones
tı́picas se expresen sólo con una cifra significativa, a lo mucho 2 si la primera
cifra es un 1 o un 2.
90
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
más información
Hemos comentado que la desviación tı́pica nos indica el tanto por ciento
de los datos se encuentran en un determinado intervalo. Si suponemos
que la distribución subyacente es la normal, podemos denominar a estas
desviaciones como ((sigmas)), de forma que hablaremos de el número de
sigmas al referirnos a la precisión de los experimentos. En campos como
la Fı́sica Nuclear o la Fı́sica de Partı́culas, se habla habitualmente del
((número de sigmas necesarios para confirmar un descubrimiento)). Esta
regla suele ser la de 5σ (cinco sigmas), que proporciona una probabi-
lidad del 99,999942 %. Hace unos años se usaban 3σ pero se demostró
que, al menos en Fı́sica de Partı́culas, esa precisión era insuficiente
para confirmar con suficiente fiabilidad el descubrimiento de nuevas
partı́culas.
Los criterios de decisiones consisten en aplicar algo muy básico (en el sen-
tido de fundamental) y que se encuentra muy ligado con la práctica del
método cientı́fico: las hipótesis nunca se pueden demostrar ciertas de forma
91
directa, ya que no podemos realizar infinitos experimentos. Por contra, lo
que hacemos es buscar que una hipótesis sea falsa, ya que eso es algo que po-
demos realizar con fiabilidad completa. Es decir, la ((inferencia estadı́stica))
funciona por reducción al absurdo: si no podemos probar como válida
una hipótesis, comprobamos si esta es falsa. De forma lógico-matemática
esto es equivalente a aplicar la relación x = ¬¬x, donde x serı́a la hipótesis
en cuestión y ¬ es el sı́mbolo para negación en Lógica.
En definitiva, en el contraste de hipótesis tendremos dos hipótesis: la hipóte-
sis nula, que normalmente se denota como H0 , y su contradicción, a la que
se suele denominar ((hipótesis alternativa)) y que suele escribirse como H1 .
La hipótesis nula supone que un parámetro no toma un valor determina-
do, o que ciertos parámetros o fenómenos no tienen relación entre ellos. El
método clásico de contraste de hipótesis supone buscar si debe rechazarse
la hipótesis nula, que en principio se considera cierta, de forma que se niega
que no haya relación entre los parámetros o fenómenos (por ejemplo) y, por
tanto, sı́ que existe alguna relación.
Por tanto, los posibles errores que podemos cometer a la hora de aceptar o
rechazar hipótesis vendrán dados por la siguiente tabla lógica:
H0 cierta H1 cierta
Tomamos H0 X Error tipo II
Tomamos H1 Error tipo I X
En esta tabla tenemos dos tipos de errores: el ((error tipo I)) y el ((error
tipo II)). Si suponemos que H1 es la hipótesis aceptada, cuando en realidad
H0 es cierta, estamos cometiendo un error de tipo I. Este error tendrá una
cierta probabilidad que podremos expresar y calcular mediante una cantidad
denominada nivel de significación o ((significancia estadı́stica)). A esta
cantidad la denotaremos como Q (aunque a menudo se usa el sı́mbolo α). Al
ser una probabilidad, tomará los valores entre 0 y 1, aunque normalmente se
expresa en tantos por ciento. Este tipo de error es el también llamado ((falso
positivo)), ya que estamos suponiendo como correcta la hipótesis de relación
(positiva) entre los parámetros cuando en realidad no lo es (hipótesis nula
cierta).
92
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
más información
93
N + nσ hasta infinito, esto es:
Z ∞
pn = √
f (x)dx
N +n N
94
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
95
P ( %) 99,9 99,5 99 95 90 85 80 75 70 65
zc 3,29 2,81 2,58 1,96 1,64 1,44 1,28 1,15 1,04 0,935
Tabla 2.1. Valores de zc (Gauss) para grado de confianza P .
Distribución gaussiana
96
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
donde:
s2 (x) s2 (y)
s2 (x̄ − ȳ) = s2 (x̄) + s2 (ȳ) = + (2.30)
nx ny
Por tanto, podemos afirmar que, si se cumple la relación (2.28) con el es-
tadı́stico de prueba de la expresión (2.29), la diferencia entre x e y no es
significativa con grado de confianza P (o nivel de significación Q = 1 − P )
para un determinado zc dado por la tabla 2.1.
Solución
Establecemos una confianza del 95 %, que proporciona un valor crı́tico
zc = 1,96 a partir de la tabla 2.1. Calculamos entonces que:
x̄ = 5, s(x) = 3,16,
ȳ = 5,8, s(y) = 2,85
97
Grados de libertad ν
P ( %) 1 2 3 4 5 6 8 10 15 30 60 100
99 63,66 9,92 5,84 4,60 4,03 3,71 3,36 3,17 2,95 2,75 2,66 2,63
95 12,71 4,30 3,18 2,78 2,57 2,45 2,31 2,23 2,13 2,04 2,00 1,99
90 6,31 2,92 2,35 2,13 2,02 1,94 1,86 1,81 1,75 1,70 1,67 1,66
80 3,08 1,89 1,64 1,53 1,48 1,44 1,40 1,37 1,34 1,31 1,30 1,29
Tabla 2.2. Valores de t (t de Student) para grado de confianza P y ν grados de libertad.
Distribución t de Student
Z≤t (2.32)
donde el valor t se elige de la tabla 2.2 y donde, en este caso, hemos de tener
en cuenta que los grados de libertad son ν = n − 1.
Si pretendemos evaluar la coincidencia de los resultados experimentales x̄ y
ȳ, podemos usar el estadı́stico (2.29) junto con la condición (2.32). En este
caso tenemos que tener en cuenta que el número de grados de libertad es
ν = nx + ny − 2 y que s(x̄ − ȳ) debe estimarse partiendo de la expresión
(2.30) y suponiendo s = s(x) = s(y). En tal caso, obtenemos:
s
1 1
s(x̄ − ȳ) = s +
nx ny
98
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
Ejercicio 2.8 Hemos medido una determinada magnitud por dos me-
dios diferentes. En el primero, que llamamos x, se realizan 5 medidas,
mientras que en el segundo, que llamamos y, tomamos 8 medidas. Para
el primer caso, obtenemos x̄ = 43,5, s(x) = 0,8; mientras que para el
segundo, calculamos ȳ = 45,1, s(y) = 1,2. Determine si las medidas se
realizaron correctamente en ambos casos.
Solución
Dado que tenemos pocos datos, usamos los métodos correspondientes a
la t de Student. Elegimos un grado de confianza del 95 %. Los grados
de libertad del sistema son ν = 5 + 8 − 2 = 11. Usando la tabla 2.2 e
interpolando podemos aproximar que el t correspondiente es 2,2.
Aplicando la fórmula (2.33), se calcula que s(x̄ − ȳ) = 0,61 y entonces
el estadı́stico es:
|x̄ − a| 45,1 − 43,5
Z= √ = = 2,62
s(x)/ n 0,61
Por tanto, vemos que Z > (t = 2,2), con lo que podemos dudar acerca
de los datos que tenemos. Es de suponer que uno o ambos métodos
son defectuosos o que las medidas no se efectuaron correctamente en al
menos uno de los dos experimentos.
99
Distribución χ2
X
n
(yi − f (xi ; λm ))2
S= (2.34)
i=1
s2 (yi )
S ≤ χ2c (2.35)
100
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
Grados de libertad ν
P ( %) 1 2 3 4 5 6 8 10 15 30 60 100
99 6,63 9,21 11,3 13,3 15,1 16,8 20,1 23,2 30,6 50,9 88,4 135,8
95 3,84 5,99 7,81 9,49 11,1 12,6 15,5 18,3 25,0 43,8 79,1 124,3
90 2,71 4,61 6,25 7,78 9,24 10,6 13,4 16,0 22,3 40,3 74,4 118,5
80 1,64 3,22 4,64 5,99 7,29 8,56 11,0 13,4 19,3 36,2 69,5 112,2
Tabla 2.3. Valores de χ2c para grado de confianza P y ν grados de libertad.
Solución
Elegimos una confianza del P = 95 % y dado que ν = 5 (no hay paráme-
tros que determinar en la función teórica), buscamos en la tabla 2.3 y
obtenemos χ2c = 11,1. Si calculamos S mediante (2.34) se obtiene que
2
√S ≤ χc podemos concluir que la hipótesis de ajuste a la
S = 4,6. Al ser
función y = π x se cumple con una confianza del 95 %.
101
Si χ̃20 1, podemos descartar el ajuste.
Si χ̃20 > 1,5 para 50 < ν < 100, podemos cuestionar el ajuste.
Solución
Calculamos S mediante (2.34), de forma que obtenemos S = 4,6. En tal
caso la chi-reducida es:
S
χ̃20 = = 0,92
ν
2
χ̃0 ∼ 1 podemos concluir que la hipótesis de ajuste a la función
Al ser √
y = π x es válida, pero hay que hacer la salvedad de que se tienen
muy pocos puntos y eso puede distorsionar la conclusión. Por ejemplo,
supongamos que aumentamos ligeramente el error de los datos, hasta
s(y) = 0,04. En tal caso, obtendrı́amos S = 2,6 y χ̃20 = 0,52 y podrı́amos
empezar a dudar del resultado que nos proporciona el test.
102
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
5. EJERCICIOS
Ej. 2.1 — Supongamos que tenemos una serie de datos que siguen una
distribución binomial. En este caso, tenemos una serie de mediciones que
se dividen en éxito o fracaso. El éxito será X = 1 y el fracaso X = 0. La
función de probabilidad para una de las medidas es:
x 1−x 1 − p cuando x = 0
f (x, p) = p (1 − p) =
p cuando x = 1
donde p es la probabilidad de éxito que es la cantidad que queremos obtener.
Supongamos que en el experimento tenemos n medidas y f éxitos. Obtenga
la función de máxima verosimilitud y los estimadores.
(a) Dado que χ2 = 14, la ruleta está trucada a favor del casino.
103
σ = 0,011. Queremos realizar un test χ2 para saber si este ajuste es correcto
o no dentro de un intervalo de confianza. En tal caso ¿cuál serı́a el número
de grados de libertad ν que tenemos que usar?
(a) 20
(b) 18
(c) 17
Ej. 2.4 — Siguiendo con el ejemplo del ejercicio anterior (20 datos alea-
torios ajustados a una normal con µ = 2,366 σ = 0,011), tenemos los
siguientes datos:
Intervalo Frec. expe- Frec.
rimental calculada
2,34 − 2,35 0,05 0,059
2,35 − 2,36 0,25 0,220
2,36 − 2,37 0,40 0,361
2,37 − 2,38 0,20 0,220
2,38 − 2,39 0,10 0,059
Es posible demostrar que, según la distribución chi-cuadrado, se tiene que:
√
χ2c = ν + 2 2 ν
cuando se usa una probabilidad P (χ2 < χ2c ) = 0,96 y donde ν son los grados
de libertad. Usando este resultado, podemos concluir que:
(c) Como χ2 = 3,2 < χ2c = 6, el ajuste es correcto con una confianza del
96 %
(d) Como χ2 = 3,2 < χ2c = 30, el ajuste es correcto con una confianza
del 96 %
104
Estadı́stica aplicada: ajustes, análisis de errores y criterios de decisiones
(xi ; yi ) = (1; 60), (2; 56), (3; 71), (4; 66), (5; 86)
105
Tema 3
TEORÍA DE FILTRADO
1. CONCEPTOS GENERALES.
107
es decir, que: i) una combinación lineal de señales de entrada da lugar a una
señal de salida que es combinación lineal de las salidas correspondientes a
cada una de las señales de entrada tomadas por separado y ii) que para
cualquier valor constante en el tiempo de las señales de entrada, la señal de
salida se mantiene constante1 . En todo lo que sigue asumiremos, también
sin pérdida de generalidad, que tratamos con señales de entrada y salida de
una sola componente (la generalización a señales vectoriales es relativamente
sencilla).
Señales
0; si t ≤ t0
fa (t) =
f (t); si t > t0
1
Es decir, las caracterı́sticas del sistema no varı́an con el tiempo. En sistemas electrónicos esto
es una idealización que puede ser poco realista si se analizan los circuitos en términos estrictos. Por
ejemplo, se pueden producir variaciones de los parámetros de un transistor o amplificador causadas por
variaciones de la temperatura externa o por la disipación de calor generado por el propio dispositivo. En
cualquier caso, estas variaciones suelen tener tiempos de evolución mucho más largos que las variables
del sistema, por lo que la aproximación de invariancia temporal suele ser adecuada.
108
Teorı́a de filtrado
fa (t) = f (t)θ(t − t0 )
Por otro lado, una señal digital, independientemente de que haya sido
generada digitalizando una señal analógica o por cálculo numérico en un
ordenador, está constituida por un conjunto de N valores discretos situados
en tiempos determinados τi que pueden estar equiespaciados o no. Por lo
tanto, para construir la representación matemática de una señal digital es
necesario hacer uso de la función δ de Dirac3 , utilizando funciones δ colo-
cadas en los tiempos a los que se ha muestreado la señal:
0; si t 6= τi
fd (t) =
f (t)δ(t − τi ); si t = τi
donde f (t) serı́a la función origen de la señal que se ha obtenido por digi-
talización. Es decir:
X
N −1
fd (t) = f (t)δ(t − τi )
i=o
2
La función escalón de Heaviside, θ(t − t0 ), es la función que toma valor nulo para t < t0 y valor
unidad para t ≥ t0 .
3
R t 6= t0 y valor
La función δ de Dirac, δ(t−t0 ), es la función que toma valor nulo en todos los puntos
∞ en t = t0 . Su propiedad más importante es, para cualquier función f (t), se cumple f (t)δ(t − t0 ) =
f (t0 ).
109
través de la antitransformación (o transformación inversa) de Fourier4 :
Z ∞
−1 1
f (t) = F [F (ω)] = F (ω)ejωt dt
2π 0
Bloques
X(t) Y(t)
Figura 3.1. Esquema general de un bloque con una señal de entrada y una señal de salida.
dn dn−1 dm dm−1
y(t)+a n y(t)+...+a 1 y(t) = c m+1 x(t)+c m x(t)+...+c1 x(t)
dtn dtn−1 dtm dtm−1
donde (an , ..., a1) y (cn , ..., c1 ) son coeficientes reales constantes (algunos de
ellos pueden ser nulos). Un ejemplo tı́pico puede ser un oscilador forzado, en
el que la señal de entrada es la forzante y la señal de salida el desplazamiento
4
La normalización de la transformada y la antitransformada es un tanto arbitraria. En esta re-
presentación hemos optado por utilizar una constante unidad para la transformada y 1/2π para la
antitransformada. Igualmente se podrı́a √
haber optado por la recı́proca (unidad para la antitransformada
y 1/2π para la transformada) o bien 1/ 2π para ambas. La única condición que debe cumplirse es que
el producto de las dos constantes sea 1/2π.
110
Teorı́a de filtrado
d2 d
y(t) + a 2 y(t) + ... + a1 y(t) = c1 x(t)
dt2 dt
dn dn−1
[...] + a n [...] + ... + a1 [...] ,
dtn dtn−1
dm dm−1
cm+1 m [...] + cm m−1 [...] + ... + c1 [...]
dt dt
son operadores lineales que trabajan sobre funciones que representan señales
de salida y entrada respectivamente. En cualquier caso, esta es una repre-
sentación complicada de utilizar y nos interesa obtener una representación
más simple.
Respuesta impulsional.
Para obtener una representación matemática más sencilla del bloque basta
con considerar que todo bloque está completamente caracterizado por su
respuesta a un impulso ideal5 (una δ de Dirac). En efecto, si sabemos
la respuesta a un impulso ideal, que denominaremos g(t), podemos obtener
la señal de salida, y(t), como la respuesta a una señal de entrada, x(t), sin
más que considerar que la señal de entrada es la suma de muchos impulsos
ideales sucesivos. Por un lado, al ser el sistema invariante en el tiempo, la
respuesta impulsional es siempre la misma. Por otro lado, al ser lineal, la
respuesta a una suma de impulsos sucesivos será igual a la suma de las res-
puestas correspondientes a cada uno de los impulsos sucesivos, es decir, será
5
Esta es una consecuencia general de la teorı́a de funciones de Green para ecuaciones diferenciales
de coeficientes constantes. En particular, la respuesta a un impulso ideal es la función de Green de la
ecuación diferencial que representa el bloque.
111
igual a la suma del producto de los valores de la señal de entrada y la con-
tribución de la función respuesta impulsional convenientemente desplazada
en el tiempo una cantidad igual al tiempo en que ocurre cada impulso.
Es decir, suponemos que la variable temporal está discretizada en pequeños
intervalos de tiempo, k∆t, (k = 0...N −1), de manera que la señal de entrada
se puede suponer constituida por un tren de N impulsos de amplitud x(k∆t)
situados en las coordenadas temporales correspondientes. La contribución
de cada impulso de la señal de entrada a la señal de salida será:
X−1
k=N
y(t) = x(k∆t)g(t − k∆t) ∆t
k=0
X−1
k=N Z +∞
y(t) = lı́m x(k∆t)g(t − k∆t)∆t = x(τ )g(t − τ ) dτ
∆t→0 0
N →∞ k=0
112
Teorı́a de filtrado
Función de transferencia.
Y (s) = G(s)X(s)
6
Aunque aquı́ se ha justificado de manera cualitativa, este resultado se puede probar de manera
rigurosa y es la base de la denominada ((Teorı́a de Respuesta Lineal)), que tiene múltiples aplicaciones
en Fı́sica e Ingenierı́a.
113
es decir, la transformada de Laplace de la señal de salida es igual al producto
algebraico de las transformadas de Laplace de la respuesta impulsional y la
señal de entrada.
Esta expresión sirve también como definición operacional de la función
de transferencia del sistema, que, por un lado, es la transformada de
Laplace, G(s), de la función de respuesta impulsional de un sistema, g(t),
y por otro, se puede obtener como el cociente entre las transformadas de
Laplace de las señales de salida y de entrada:
Y (s)
G(s) =
X(s)
Por lo tanto, para condiciones iniciales nulas (s(0) = 0), el sistema general
representado por la ecuación diferencial ordinaria:
dn dn−1 dm dm−1
y(t)+a n y(t)+...+a 1 y(t) = c m+1 x(t)+c m x(t)+...+c1 x(t)
dtn dtn−1 dtm dtm−1
de donde:
Y (s) cm+1 sm + cm sm−1 + ... + c1
G(s) = =
X(s) sn + an sn−1 + ... + a1
114
Teorı́a de filtrado
X(s) Y(s)
A
1/S
Figura 3.2. Diagrama de bloques compuesto por un bloque proporcional, un bloque integrador y un
bloque derivador.
115
En el diagrama la figura 3.2, el bloque rotulado S corresponde a una etapa
derivadora (señal de salida igual a la derivada temporal de la señal de entra-
da), el bloque rotulado A a una etapa en la que la salida es, sencillamente,
proporcional a la entrada con constante de proporcionalidad A y el bloque
rotulado 1/S corresponde a una etapa integradora (señal de salida igual a
la integral en el tiempo de la señal de entrada).
La función de transferencia del sistema de la figura 3.2 se obtiene, fácilmente,
a partir de la relación entre Y (s) y X(s), es decir:
X(s)
Y (s) sX(s) + AX(s) + 2
G(s) = = s = s + As + 1
X(s) X(s) s
X(s) Y(s)
G(s)
H(s)
de donde:
Y (s) − G(s)H(s)Y (s) = G(s)X(s)
116
Teorı́a de filtrado
es decir:
Y (s) G(s)
K(s) = =
X(s) 1 − H(s)G(s)
esta función de transferencia general tendrá m ceros (las raı́ces del polinomio
del numerador) y n polos (las raı́ces del polinomio del denominador). es
decir, se podrá escribir como:
(s − z1 )(s − z2 )...(s − zm )
G(s) =
(s − p1 )(s − p2 )...(s − pn )
G(t) = eλt
117
Dado que, en general, λ es complejo se puede representar como λ = σ + jω,
por lo que:
G(t) = eσt+jωt = eσt ejωt
7
Recordemos que, de acuerdo con la relación de Euler, ejωt = cos ωt + j sen ωt
118
Teorı́a de filtrado
Y (ω) = G(ω)X(ω)
o bien:
Y (ω)
G(ω) =
X(ω)
G(ω) = G(ω)eiφ(ω)
q
|Y (ω)|
G(ω) = |G(ω)| = [Re(G(ω))]2 + [Im(G(ω))]2 =
|X(ω)|
Im(G(ω))
φ(ω) = arctan
Re (G(ω))
8
También se puede ver haciendo la transformada de Fourier de la expresión de la respuesta del
sistema en función de la señal de entrada y la respuesta impulsional, aplicando el teorema de convolución,
que también es válido para la transformada de Fourier.
119
expresión9 :
|Y (ω)|
Gdb (ω) = 20 log10 (G(ω)) = 20 log10
|X(ω)|
1
G(s) =
s − p1
1 (−jω − p1 ) p1 + jω
G(ω) = = =− 2
jω − p1 (jω − p1 ) (−jω − p1 ) ω + p21
9
Esta expresión es válida para señales eléctricas de tipo tensión o corriente. Sin embargo, si
se habla de ganancia de potencia es necesario tener en cuenta que la potencia eléctrica es pro-
porcional al cuadrado de la corriente o tensión, por lo que en ese caso la definición correcta es
Gdb (ω) = 10 log10 (|Y (ω)|2 /|X(ω)|2 )
120
Teorı́a de filtrado
10
Habitualmente se utiliza la terminologı́a abreviada de decibelios por década (se sobreentiende de
frecuencia) y se expresa como db/dec.
121
Solución
La forma exacta de la función de transferencia en este caso es:
1 1
G(s) = ∗
= =
(s − p1 )(s − p1 ) s2 − 2σ1 s + |p1 |2
1
= 2
s − 2σ1 s + +σ12 + ω12
Entonces, la respuesta en frecuencia correspondiente será:
1 1
G(ω) = 2 = =
(jω) − 2jσ1 ω + +σ12 + ω12 −ω + σ1 + ω12 − j2σ1 ω
2 2
122
Teorı́a de filtrado
G(s) = s − z1
en cuyo caso:
G(ω) = −z1 + jω
123
Por lo tanto, si se conocen los polos y los ceros de la función de transferencia
de un sistema es sencillo realizar un dibujo aproximado del diagrama de
Bode de ganancia de amplitud. Para ello basta con completar sucesivamente
las siguientes etapas:
K(s − z1 )
G(s) =
(s − p1 ) (s − p2 )
124
Teorı́a de filtrado
80
70
60
50
(db) 40
30
G(ω)
20
10
-10
-20
10-2 100 102 104 106 108 1010
ω (Hz)
Figura 3.4. Diagrama de Bode de ganancia. En él se representa la ganancia de amplitud (módulo de la
respuesta en frecuencia) en función de la frecuencia.
jω − z1 −z1 + jω
G(ω) = K =K =
(jω − p1 ) (jω − p2 ) p1 p2 − ω 2 − jω(p1 + p2 )
(−z1 + jω) [p1 p2 − ω 2 + jω(p1 + p2 )]
=K =
[p1 p2 − ω 2 − jω(p1 + p2 )] [p1 p2 − ω 2 + jω(p1 + p2 )]
− [z1 p1 p2 − z1 ω 2 + jωz1 (p1 + p2 )] + jω [p1 p2 − ω 2 + jω(p1 + p2 )]
=K =
(p1 p2 − ω 2 )2 + ω 2 (p1 + p2 )2
[−z1 p1 p2 + z1 ω 2 − jωz1 (p1 + p2 )] + [jωp1 p2 − jω 3 − ω 2 (p1 + p2 )]
=K =
(p1 p2 − ω 2 )2 + ω 2 (p1 + p2 )2
ω 2 [z1 − (p1 + p2 )] − z1 p1 p2 + jω [p1 p2 − z1 (p1 + p2 ) − ω 2 ]
=K
(p1 p2 − ω 2 )2 + ω 2 (p1 + p2 )2
125
Efectos de los polos y los ceros de la función de transferencia sobre la fase
de la respuesta en frecuencia.
la fase será:
0; si ω p1
Im(G(ω)) ω
φ(ω) = arctan = arctan = π/4; si ω = p1
Re (G(ω)) p1
π/2; si ω p1
Solución
En este caso, la ganancia de amplitud será:
0; si ω z1
ω
φ(ω) = arctan − = − π ; si ω = z1
z1 π4
− 2 ; si ω z1
126
Teorı́a de filtrado
3. Cerca de los polos la fase será una función creciente y cada polo
añadirá a la fase una contribución de +π/4 a la frecuencia del po-
lo y, en total, de +π/2 a frecuencias significativamente mayores que
la del polo11 .
4. Cerca de los ceros la fase será una función decreciente y cada cero
añadirá a la fase una contribución de −π/4 a la frecuencia del cero y,
en total, de −π/2 a frecuencias significativamente mayores que la del
cero.
11
Tı́picamente para frecuencias mayores que 10 veces la del polo o cero.
127
1,0
0,5
(rad)
φ(ω)/(π/2) 0,0
-0,5
-1,0
10-2 100 102 104 106 108 1010
ω (Hz)
Figura 3.5. Diagrama de Bode de fase (nótese que los valores de la fase están normalizados a π/2).
1.3. Filtros.
128
Teorı́a de filtrado
129
por lo tanto, la ganancia de amplitud es constante por debajo de la
frecuencia de corte y decae con una pendiente de −20 db/dec por
encima de la frecuencia de corte. Para este tipo de filtros se suele de-
finir la banda pasante como la banda de frecuencias que va desde
la continua hasta la frecuencia de corte, ωc , que es aquella para la
cual la ganancia de amplitud se hace 3 db inferior a la ganancia de
baja frecuencia. Consecuentemente, el ancho de banda (anchura de
la banda pasante) del filtro es igual a la frecuencia de corte.
Filtros paso alto. Es el caso opuesto al anterior, es decir, son filtros cuya
ganancia de amplitud es muy pequeña a baja frecuencia y aumenta
rápidamente en las proximidades de la frecuencia de corte, a partir
de la cual la ganancia es prácticamente constante. Se utilizan pa-
ra eliminar ruido lentamente variable en señales en las que se sabe
que toda la información significativa está por encima de una cierta
frecuencia. Son filtros que, por ejemplo, eliminan los valores de conti-
nua (frecuencia nula) y dejan pasar señales rápidamente variables. Un
ejemplo clásico es un circuito derivador, cuya función de transferencia
es G(s) ∝ (s − ωc ) y, por lo tanto, la ganancia de amplitud crece con
una pendiente de +20 db/dec por debajo de la frecuencia de corte y
es constante por encima de la frecuencia de corte.
Filtros paso banda. Son filtros que presentan ganancia pequeña a baja y
alta frecuencia, mientras que presentan una ganancia significativa en
una banda continua de frecuencia intermedia. Se pueden considerar
formados por un filtro paso alto y otro paso bajo con la frecuencia de
corte del paso alto menor que la correspondiente al paso bajo (véase,
por ejemplo, la curva de ganancia de amplitud de la figura 3.4. Se sue-
len utilizar en casos en que se conoce que la información significativa
de la señal de entrada está en una banda de frecuencia bien determi-
nada. Eliminan las componentes lentamente y rápidamente variables
y dejan pasar componentes de frecuencias intermedias. Para este tipo
de filtros la banda pasante es la banda de frecuencias que va desde la
frecuencia de corte del paso alto, ωca , hasta la frecuencia de corte del
paso alto, ωcb . En este caso las dos frecuencias de corte son aquellas
para las cuales la ganancia de amplitud es 3 db inferior a la ganancia
en la banda de ganancia constante. Consecuentemente, el ancho de
130
Teorı́a de filtrado
131
R C
Vi C Vo Vi R Vo
(a) (b)
Figura 3.6. Esquemas de filtros elementales con componentes pasivos: (a) filtro paso bajo (integrador),
(b) filtro paso alto (derivador).
de donde:
1
G(s) =
1 + sRC
y también:
1
Gdb (ω) = q
1 + (ωRC)2
132
Teorı́a de filtrado
de donde:
sRC
G(s) =
1 + sRC
y también:
1 4 2 2
1
Gdb (ω) = (ωRC) + (ωRC)
1 + (ωRC)2
12
i) No entra ni sale corriente del A.O. a través de las entradas inversora y no inversora y ii) la
tensión en las entradas inversora y no inversora es la misma.
133
Z2 I2
VCC
Ii Z1
VO
Vi
-VCC
Figura 3.7. Esquema de amplificador en configuración inversora con impedancias genéricas en la entrada
inversora y en la retroalimentación.
1
G(jω) = G2 (jω)G1 (jω) = −
(ωRC)2
1
G(s) = G2 (s)G1 (s) = −
(sRC)2
134
Teorı́a de filtrado
C
I2
VCC
Ii R
Vi(t)
VO
-VCC
RF
C
VCC
Ii R
Vi(t)
VO
-VCC
Figura 3.9. Integrador a partir de operacional en configuración inversora con resistencia de retroalimen-
tación.
135
manera causarı́an la saturación del operacional. Sin embargo, la respuesta
en frecuencia de este circuito ya no es exactamente la de un integrador, sino
que es:
1
1 RF /(jωC) RF jωC RF 1
G(jω) = − =− =−
R RF + 1/(jωC) R 1 R 1 + jωRF C
RF +
jωC
que, como se ve, no tiene la misma forma funcional que la correspondiente al
integrador ideal, sino que es análoga a la del filtro paso bajo pasivo con una
ganancia en baja frecuencia seleccionable, −RF /R, y frecuencia de corte
ωc = 1/RF C.
Volviendo al circuito de la figura 3.7, si ahora hacemos que Z1 sea un con-
densador y Z2 una resistencia tendremos el circuito de la figura 3.10. En
este caso la respuesta en frecuencia pasa a ser:
G(ω) = −jωRC
3. SEÑALES MUESTREADAS.
136
Teorı́a de filtrado
VCC
Ii
Vi(t) C
VO
-VCC
Figura 3.10. Esquema de un circuito diferenciador por medio de un amplificador operacional en configu-
ración inversora.
13
Esta expresión contiene un cierto abuso de lenguaje puesto que el tiempo de muestreo, estricta-
mente, deberı́a designar al tiempo de apertura de la etapa sample-and-hold.
137
tiempo: el tiempo de captura, tiempo durante el que está abierta la puer-
ta de la etapa sample-and-hold, tiempo de conversión, tiempo que tarde el
conversor AD en cuantificar la señal, y el tiempo de repetición (tiempo de
muestreo) del proceso de muestreo y conversión. Para un sistema tı́pico de
conversión AD en laboratorio estos tiempos son del orden de 1 µs, para el
tiempo de captura, 5 µs para el tiempo de conversión y entre 10 µs y 100
s para el tiempo de muestreo.
Empezaremos, a riesgo de resultar repetitivos, por recopilar aquı́, breve-
mente, las definiciones relativas a las señales dadas al principio del capı́tulo.
Cualquier señal discreta se puede representar haciendo uso de la función δ
de Dirac.
De forma discreta, teniendo en cuenta que f (t) serı́a la señal analógica
(continua) origen de la señal discreta, podemos escribir:
X
N −1
fd (t) = f (t)δ(t − τi )
i=0
X
N −1
fd (t) = f (t)δ(t − iτ )
i=0
138
Teorı́a de filtrado
Dada una señal analógica periódica continua, xa (t), que está limitada en
banda de frecuencia de manera que la frecuencia más alta (ancho de banda)
que contiene es ωmáx , si esta señal se muestrea con una frecuencia de mues-
treo, ωs , la señal analógica original se puede recuperar fielmente a partir de
la señal digital muestreada, xd (it/ωs ) si y solo si la frecuencia de muestreo
es superior al doble de la frecuencia más alta contenida en la señal origi-
nal, es decir, si ωs > 2ωmáx . Más concretamente, la señal original se puede
recuperar a partir de la señal digital interpolando por medio de la función:
sen 2πωmáx t
g(t) =
2πωmáx t
esto es:
∞
X X ∞
i i
xa (t) = xd g t− = xd (iτs ) g (t − iτs )
i=1
ωs ωs i=1
139
Muestreo correcto
Muestreo incorrecto
1.0
0.0
-0.5
-1.0
0 10 20
t (s)
Figura 3.11. Señal sinusoidal de frecuencia f = 1 Hz, muestreada con dos frecuencias de muestreo dis-
tintas, f1 = 10 Hz (negro) y f2 = 1,1416 Hz (en rojo).
140
Teorı́a de filtrado
1E-3
1E-4
1E-5
1E-6
P(f) (u.a.)
1E-7
1E-8
1E-9
1E-10
Muestreo correcto
1E-11
Muestreo incorrecto
1E-12
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
f (Hz)
Figura 3.12. Espectros de potencia correspondientes a los dos muestreos representados en la figura 3.11.
141
4. EJERCICIOS
(a) Nula.
142
Teorı́a de filtrado
(c) 550 Hz tanto para el paso bajo como para el paso alto.
(b) 74 Hz.
(c) 15 Hz.
(d) 30 Hz.
143
Ej. 3.6 — Un determinado sistema tiene la siguiente función de transfe-
rencia:
1
G(s) = 2
s − 2s + 2
Deduzca, si es posible, si el sistema es estable o inestable.
144
Tema 4
UNIDADES ELECTROMAGNÉTICAS
Abraham, Planck, Bridgman, Birge y otros cientı́ficos [5] han insistido sobre
la arbitrariedad en el número de unidades fundamentales y, por lo tanto,
también en la arbitrariedad en las dimensiones de cualquier magnitud fı́sica
en función de dichas unidades fundamentales. Los aspectos deseables de un
sistema de unidades en cualquier campo son conveniencia y claridad. Ası́,
los fı́sicos teóricos dedicados a la Teorı́a de la Relatividad, Teorı́a Cuántica
de Campos y a la Teorı́a de las Partı́culas Elementales, encuentran conve-
niente la modificación de las constante universales, tales como la acción de
Planck (h) y la velocidad de la luz en el vacı́o (c), de forma que estas sean
adimensionales y de valor unidad. El sistema de unidades resultante, lla-
mado ((unidades naturales)), tiene solamente una unidad fundamental, que
145
acostumbra a tomarse como la longitud. Las magnitudes se expresan me-
diante esa única unidad, siendo sus dimensiones potencias de la dimensión
de dicha unidad. Todas la magnitudes, bien sean longitud, tiempo, fuerza
o energı́a, etc., pueden expresarse en un sistema o en otro, siempre que las
unidades fundamentales sean el metro, el kilogramo y el segundo (sistema
MKS). Simplemente es un asunto de conveniencia.
A continuación, hemos de realizar algunos comentarios sobre las unidades
o patrones fundamentales, considerados como magnitudes independientes,
ası́ como acerca de las unidades o patrones derivados, las cuales se definen
tanto en cantidad como en dimensión (teórica y práctica) en función de las
unidades fundamentales.
La tradición hace que consideremos la masa M, la longitud L y el tiempo
T como magnitudes fundamentales. Pero con las magnitudes eléctricas no
ha habido tradición. Consideremos, por ejemplo, la unidad de corriente. El
((amperio internacional)) (aceptado durante un largo periodo como unidad
práctica de corriente) se definı́a en función de la masa de plata depositada
por unidad de tiempo en un proceso de electrólisis en un voltı́metro ade-
cuado. Tal unidad de corriente se consideraba como la unidad fundamental
independiente de las unidades de masa, longitud y tiempo, ya que la canti-
dad de corriente que servı́a de unidad se obtenı́a a partir de una experiencia
de electrólisis que se consideraba reproducible. El patrón de corriente acep-
tado en la actualidad es ahora el ((amperio absoluto)) cuya definición se
aclara en la siguiente sección.
1
En España se declaró de uso legal este sistema por ley de 8 de noviembre de 1967. Un decreto de
25 de abril de 1974 adoptó las modificaciones que habı́an sufrido las unidades desde la fecha de la ley.
146
Unidades electromagnéticas
2
La cantidad de sustancia fue añadida en 1971. Las otras magnitudes habı́an sido ya aceptadas en
1954.
3
Más detalles sobre las resoluciones de esta Conferencia en la dirección https://www.bipm.org/
en/measurement-units/rev-si/
147
Unidad SI Constante asociada Valor fijado
segundo, s ∆νCs (1) 9 192 631 770 Hz
metro, m c (2) 299 792 458 m s−1
kilogramo, kg Cte. de Planck, h 6,626 070 15 × 10−34 kg m2 s−1
amperio, A Carga del electrón, e 1,602 176 634 × 10−19 A s
kelvin, K Cte. de Boltzmann, k 1,380 649 × 10−23 kg m2 s−2 K−1
mol Cte. de Avogadro, NA 6,022 140 76 × 1023 mol−1
candela, cd Kcd (3) 683 cd sr kg−1 m−2 s3
Tabla 4.2. Definición de las unidades del S.I. a partir de constantes fundamentales según la resolución
de la CGPM de 16 de noviembre de 2018.
1
Frecuencia de la transición hiperfina del estado fundamental imperturbado del Cs133 .
2
Velocidad de la luz en el vacı́o.
3
Intensidad radiante de una fuente monocromática de frecuencia 540 × 1012 Hz que emite
con la eficiencia dada; ((sr)) se refiere a ((estereoradián)).
148
Unidades electromagnéticas
4
Como consecuencia de la ecuación (4.5).
149
Sistema k1 k2 α k3
Electrostático −2 2 −2
1 c [T L ] 1 1
(e.s.u)
Electromagnético
c−2 [T2 L−2 ] 1 1 1
(e.m.u)
−2 2 −2 −1
Gaussiano 1 c [T L ] c [T L] c [TL−1 ]
−1
sistema gaussiano todas las cantidades fı́sicas son reducidas a las tres dimen-
siones mecánicas: ((longitud)), ((masa)) y ((tiempo)), medidas en centı́metros,
gramos y segundos. Es decir, son las unidades del sistema cegesimal (en
estas unidades mecánicas están basados también los sistemas electrostático,
electromagnético y Heaviside-Lorentz). El SI utiliza también las tres dimen-
siones mecánicas pero medidas en metros, kilogramos y segundos. Pero lo
más importante es que el SI introduce una nueva dimensión: la ((corriente
eléctrica)) cuya unidad es el Amperio (A). Por lo tanto, en este sistema se
utilizan cuatro dimensiones para caracterizar todas las cantidades fı́sicas.
En la discusión de unidades y dimensiones en electromagnetismo tomaremos
como punto de partida la elección tradicional de longitud (L), masa (M) y
tiempo (T) como dimensiones básicas independientes. Además tomaremos
la definición comúnmente aceptada de corriente como carga por unidad de
tiempo:
dq
I=
dt
Esto significa que la relación entre la carga y la corriente tiene dimensiones
de tiempo. Entonces, la ecuación de continuidad para las densidades de
carga y de corriente toma la forma:
∂ρ
∇·J + =0 (4.2)
∂t
150
Unidades electromagnéticas
más información
qq 0
F1 = k1 (4.3)
r2
5
Hagamos notar que todas las magnitudes expresadas en el SI las distinguiremos con un asterisco
(*)
151
En los fenómenos magnéticos estacionarios, las observaciones de Ampère
constituyen la base para especificar la interacción y definir el campo magnéti-
co6 , B. La ley de Ampère para la fuerza entre los elementos de dos conduc-
tores puede escribirse como:
ds1 × (ds2 × r12 )
dF = k2 I1 I2 3
(4.5)
r12
6
En muchos textos el campo B se denomina ((inducción magnética)) y se reserva el nombre de
((campo magnético)) para el campo H.
152
Unidades electromagnéticas
Sistema εo µo D, H
Electrostático c−2 D = E + 4πP
1
(e.s.u) [T2 L−2 ] H = c2 B − 4πM
Electromagnético c−2 D = c−2 E + 4πP
1
(e.m.u) [T2 L−2 ] H = B − 4πM
D = E + 4πP
Gaussiano 1 1
H = B − 4πM
D=E+P
Heaviside-Lorentz 1 1
H=B−M
SI (MKSA) ∼ 107 /4πc2 ∼ 4π × 10−7 D = εo E + P
(Racionalizado) [M−1 L−3 T4 I2 ] [MLT−2 I−2 ] H = µ−1o B−M
donde α ahora representa una nueva constante, sin relación con la constante
de estructura fina. Las dimensiones de la razón entre el campo eléctrico y el
campo magnético se pueden hallar de (4.2), (4.4), (4.6) y (4.11). El resultado
es que E/B tiene por dimensiones [LT−1 ][α−1 ].
La tercera y última relación para especificar las unidades electromagnéti-
cas es la Ley de Inducción de Faraday, que conecta entre sı́ los fenómenos
153
Ecuaciones de Maxwell Fuerza de
Sistema
macroscópicas Lorentz
Electrostático ∇ · D = 4πρ ∇ × H = 4πJ + ∂D
∂B
∂t E+v×B
(e.s.u) ∇ × E + ∂t = 0 ∇·B = 0
Electromagnético ∇ · D = 4πρ ∇ × H = 4πJ + ∂D ∂t E+v×B
(e.m.u) ∇ × E + ∂B
∂t
=0 ∇·B = 0
∇ · D = 4πρ ∇ × H = 4π J + 1c ∂D v
Gaussiano 1 ∂B
c ∂t E+ ×B
∇ × E + c ∂t = 0 ∇·B = 0
c
∇·D = ρ ∇ × H = 1c J + ∂D v
Heaviside-Lorentz ∂t E+ ×B
∇ × E + 1c ∂B
∂t
=0 ∇·B = 0 c
SI (MKSA) ∇·D = ρ ∇ × H = J + ∂D
∂B
∂t E+v×B
(Racionalizado) ∇ × E + ∂t = 0 ∇·B = 0
∇ · E = 4πk1 ρ,
k2 α ∂E
∇ × B = 4πk2 αJ + ,
k1 ∂t (4.13)
∂B
∇ × E + k3 = 0,
∂t
∇·B = 0
En las regiones sin fuentes se pueden combinar las dos ecuaciones con rota-
154
Unidades electromagnéticas
k2 α ∂ 2 B
∇ 2 B − k3 =0 (4.14)
k1 ∂t2
155
Magnitud Gaussiano SI
− 12
Velocidad de la luz c √ (µo εo )
Campo eléctrico (potencial, voltaje, fem) E(φ, V, E) po E(φ, V, E)
4πε
Desplazamiento D 4π/εo D
Densidad de carga (carga, densidad de corriente, 1
ρ(q, J, I, P) (4πεo )− 2 ρ(q, J, I, P)
corriente, polarización) p
Campo magnético B √4π/µo B
Campo magnetizante H p 4πµo H
Magnetización M 4π/µo M
Conductividad σ (4πεo )−1 σ
Constante dieléctrica ε ε/εo
Permeabilidad µ µ/µo
Resistencia (impedancia) R(Z) 4πεo R(Z)
Inductancia L 4πεo L
Capacitancia C (4πεo )−1 C
Tabla 4.6. Tabla de conversión de sı́mbolos y fórmulas entre los sistemas Gaussiano y SI.
D = εo E + λP,
1 (4.17)
H = B − λ0 M
µo
156
Unidades electromagnéticas
gaussiano SI
Densidad de energı́a w= 1
8π
(E · D + B · H) w = 12 (E∗ · D∗ +B∗ · H∗ )
Vector de Poynting S= c
4π
E ×H S = E ∗ × H∗
Tabla 4.7. Otras ecuaciones electromagnéticas expresadas en los sistemas Gaussiano y SI.
D = εE,
(4.18)
B = µH
J = σE
siendo σ la conductividad.
157
Magnitud Fı́sica Sı́mbolo SI Gaussiano
Longitud l 1 m (metro) 102 cm (centı́metro)
Masa m 1 kg (kilogramo) 103 g (gramo)
Tiempo t 1 s (segundo) 1s
Frecuencia ν 1 Hz (hercio) 1 Hz
Fuerza F 1 N (newton) 105 dyn (dina)
Trabajo W
1 J (julio) 107 erg (ergio)
Energı́a U
Potencia P 1 W (watio) 107 erg s−1
Carga q 1 C (culombio) 3̄ × 109 statC (statculomb)
Densidad de carga ρ 1 C m−3 3̄ × 103 statC cm−3
Corriente I 1 A (amperio) 3̄ × 109 statA (statamperio)
Densidad de corriente J 1 A m−2 3̄ × 105 statA cm−2
−1
Potencial φ, V 1 V (voltio) (3̄00) statV (statvoltio)
−1
Fuerza electromotriz E 1 V (3̄00) statV
Campo eléctrico E 1 V m−1 1
3̄
× 10−4 statV cm−1
Polarización P 1 C m−2 3̄ × 105 statC cm−2
Desplazamiento D 1 C m−2 3̄ (4π × 105 ) statC cm−2
2
Conductividad σ 1 Ω−1 m−1 (3̄) × 109 s−1
1 2
Resistencia R 1 Ω (ohmio) 3̄
× 10−11 s cm−1
Capacitancia C 1 F (faradio) 3̄ × 1011 cm
2
Tabla 4.8. Tabla de conversión de magnitudes fı́sicas entre los sistemas Gaussiano y SI.
158
Unidades electromagnéticas
Solución
En el SI la definición de L∗ viene a través de:
dI ∗
E ∗ = L∗
dt
√ √ −1
A partir de la tabla 4.8, E = 4πεo E ∗ , I = 4πεo I ∗ . De donde:
E √ dI
√ = L∗ 4πεo ,
4πεo dt
dI
E = 4πεo L∗
dt
Para mantener la forma de la ecuación en el sistema gaussiano, necesa-
riamente hay que sustituir L = 4πεo L∗
La tabla 4.8 se ha dispuesto de forma tal que dada una cantidad correcta-
mente expresada de una magnitud fı́sica, sea en unidades del SI o gaussianas,
se puede expresar como un número equivalente de unidades en el otro sis-
tema. Todos los factores 3̄ (excepto los exponentes) deberán reemplazarse,
en los trabajos de gran precisión, por 2,99792458, que es el coeficiente de la
159
expresión de la velocidad de la luz en el vacı́o.
4. EJERCICIOS
e = 1,602 × 10−19 C,
~ = 1,055 × 10−34 kg m2 s−1 ,
c = 2,998 × 108 m s−1
(a) SI y Electrostático.
160
Unidades electromagnéticas
161
Anexos
163
Tema A
EJEMPLOS DESARROLLADOS DE ANÁLISIS DE DATOS
EXPERIMENTALES
A finales del XIX, una de las grandes inconsistencias de la Fı́sica era el com-
portamiento del denominado ((cuerpo negro)). Se denominan como ((cuerpos
negros)) a aquellos objetos tales que absorben toda la luz y energı́a radiante
que les llega. Sin embargo, estos objetos no son ((negros)), ya que emiten
energı́a de una determinada longitud de onda, al ser calentados a una tem-
peratura concreta.
Ya desde finales del siglo XVIII se sabı́a que muchos objetos se volvı́an de
color rojo para la misma temperatura cuando se calentaban en un horno,
independientemente de su composición quı́mica, forma o tamaño. Algo que
extrañó a los cientı́ficos (a partir de mediados del siglo XIX) es que los sóli-
dos que mostraban este comportamiento generaban un espectro continuo,
en lugar de las tı́picas bandas o lı́neas que aparecen al calentar gases. Hacia
finales del siglo XIX se consideraba que la Fı́sica de aquel momento era tan
sofisticada que serı́a capaz de explicar cualquier fenómeno natural, pero las
165
mediciones que se obtenı́an acerca del cuerpo negro seguı́an sin entenderse.
En este ejercicio daremos un pequeño salto temporal hasta el año 1900.
Disponemos de los resultados de un sofisticado experimento, diseñado y
desarrollado por unos notables espectroscopistas alemanes, para la radia-
ción emitida por un cuerpo negro a una temperatura de 1500 K para varias
longitudes de onda. Queremos comparar estas mediciones con dos expresio-
nes teóricas propuestas para predecir la radiación del cuerpo negro. Una de
ellas, basada en la distribución de velocidades para las moléculas de un gas
propuesta por Maxwell, es la expresión exponencial de Wien:
1 −C2 /(λT )
Eλ (λ, T ) = C1 e (A.1)
λ5
donde Eλ es la irradiancia espectral (la magnitud que se mide), T es la
temperatura absoluta, λ es la longitud de onda y C1 y C2 son dos constantes
que vienen dadas por las siguientes expresiones:
C1 = 8πc2 h
(A.2)
C2 = hc/kB
donde todas las magnitudes son las mismas que en la expresión (A.1) y las
constantes vienen también dadas por (A.2) y (A.3).
Las medidas extraı́das a partir del experimento para la irradiancia espectral
en función de la longitud de onda son las siguientes:
166
Ejemplos desarrollados de análisis de datos experimentales
λ (µm) 1,00 1,25 1,50 1,75 2,00 2,25 2,50 3,00 4,00 6,00 8,00 10,00 12,00
aEλ (J/s m−3 ) 1,02 2,27 3,31 3,82 3,88 3,69 3,36 2,61 1,47 0,49 0,19 0,09 0,05
Tabla A.1. Radiación del cuerpo negro (T = 1500 K). Los valores de Eλ están multiplicados por un
factor a = 10−11
Las medidas están dadas en unidades del SI, pero para el caso de Eλ he-
mos multiplicado por una constante a = 10−11 para ası́ poder visualizar y
representar mejor los datos. De inicio, vamos a considerar que el error para
los datos de la longitud de onda es igual a ∆λ = 0,01 µm e igualmente para
los valores de la irradiancia espectral medida: ∆Eλ = 0,01 × 1011 J/s m−3 .
Estos dos errores son los mismos para los valores correspondientes dados en
la tabla A.1. El error para la temperatura medida será ∆T = 10 K, mientras
que las incertidumbres de las constantes datas por (A.3) podemos conside-
rarlas despreciables. Con esta información, queremos evaluar si los datos
experimentales para la radiación del cuerpo negro ajustan correctamente a
la expresión de Wien, ec. (A.1), o a la de Planck, ec (A.4).
Primero, realizaremos un análisis de los datos y representación gráfica que
nos permita realizar una primera evaluación.
Realice una tabla con los valores teóricos para Eλ a partir de las expre-
siones de Wien, ec. (A.1) y Planck, ec (A.4), usando los valores de λ
dados en la tabla A.1. No calcule todas las incertidumbres asociadas a
cada valor, haga solamente una estimación del error relativo, ∆Eλ /Eλ ,
cuando se aplica la fórmula de Wien para el dato correspondiente a
λ = 2 µm (para simplificar los cálculos, use propagación de errores
lineal, no cuadrática). Antes de representar, observe los resultados y
comente los resultados obtenidos.
Represente correctamente los valores obtenidos a partir de las dos
expresiones, junto con los experimentales (sin añadir barras de errores)
en la hoja en escala semilogarı́tmica que se adjunta en este examen
(entregue la hoja de la gráfica junto con el resto sus respuestas al
examen). Evalúe lo que observa. ¿Los datos obtenidos a través de las
expresiones de Wien y de Planck son similares o se diferencian? ¿Se
parecen a los datos experimentales?
167
Justifique, evaluando el comportamiento de las expresiones teóricas,
(A.1) y (A.4), las diferencias observadas en la gráfica.
Para obtener los datos pedidos, primero hemos de calcular las dos constantes
que aparecen en las expresiones teóricas. Los valores son los siguientes:
C1 = 1,49669 × 10−15 J.m2 /s
(A.5)
C2 = 0,01439 m.K/s
λ (µm) 1,00 1,25 1,50 1,75 2,00 2,25 2,50 3,00 4,00 6,00 8,00 10,00 12,00
aEλ (exp.) 1,02 2,27 3,31 3,82 3,88 3,69 3,36 2,61 1,47 0,49 0,19 0,09 0,05
aEλ (Wien) 1,02 2,28 3,29 3,79 3,86 3,65 3,30 2,51 1,33 0,39 0,14 0,06 0,03
aEλ (Planck) 1,02 2,28 3,30 3,81 3,89 3,70 3,38 2,62 1,46 0,49 0,20 0,09 0,05
Tabla A.2. Radiación del cuerpo negro (T = 1500 K), a = 10−11 , unidades de Eλ son (J/s m−3 )
168
Ejemplos desarrollados de análisis de datos experimentales
que depende notablemente de λ. Cuanto mayor sea λ, menor será este error.
Es de suponer por tanto, que los errores relativos mayores se encuentren en
la zona de baja longitud de onda. El valor que vamos a evaluar (λ = 2
µm) está en esa región, ası́ que obtendremos un error relativamente alto. Si
usamos λ = 2,00 ± 0,01 µm, T = 1500 ± 10 K:
5 0,01439
∆E/Eλ = −6
+ −6
× 10−8 +
2 × 10 1500 × (2 × 10 ) 2
0,01439
+ × 10 ≈ 8 × 10−2
2 × 10−6 15002
169
Irradiancia espectral para un cuerpo negro a T=1500 K
10
Puntos experimentales
Expresi n de Planck
Expresi n de Wien
11
Eλ (J/s m ) x 10
1
-3
0.1
0.01
0 2 4 6 8 10 12
λ (µm)
170
Ejemplos desarrollados de análisis de datos experimentales
2. DISPERSIÓN DE PIONES.
171
Energı́a y sección eficaz.
E (GeV) 0,55 0,60 0,65 0,70 0,80 0,85 0,90 0,95 1,00
σ (b) 19 ± 2 40 ± 3 55 ± 2 90 ± 5 100 ± 5 66 ± 4 60 ± 3 25 ± 2 10 ± 1
100
80
σ (mb)
60
40
20
0
0.5 0.6 0.7 0.8 0.9 1.0
E (GeV)
172
Ejemplos desarrollados de análisis de datos experimentales
173
Discuta el resultado y evalúe la bondad del ajuste realizado. Discu-
ta también la fiabilidad de criterio de decisiones empleado. Comente
razonadamente la conclusión a la que ha llegado a partir del test chi-
cuadrado en comparación con los ajustes a regresión lineal del apar-
tado anterior.
B = 32 ± 4 GeV−2
A = 105 ± 6 b
Estos valores con compatibles con los proporcionados con el ajuste a gaus-
siana, e incluso proporcionan errores menores. Hay que comentar que de-
berı́amos haber notado que los datos en x no están equiespaciados y eso
puede introducir que unos datos pesen más que otros a la hora de calcular
la regresión.
Para obtener los errores de la cantidad y ≡ ln(σ − σ0 ) usamos propagación
de errores como habitualmente:
1
∆y = (∆σ0 + ∆σ)
σ − σ0
174
Ejemplos desarrollados de análisis de datos experimentales
5.0
4.5
4.0
ln (σ−σ0)
3.5
3.0
2.5
(E−E0)²
175
∆y ≡ σi . El error en los parámetros m y b viene dado por:
p −1 !
M
σ = p 11 −1
M22
a b
Calculando la inversa de la matriz mediante:
c d
1 d −b
ad − bc −c a
obtenemos que:
−1 1, 179 −0,0036
M =
−0,0036 2,395 × 10−5
De donde:
b = 4, 709..., m = − − 33, 96...
∆b = 0, 0049...; ∆m = 1, 09...
A = 110,9 ± 0,5 b
Las incertidumbres de los valores son ahora mucho menores que las propor-
cionadas por el ajuste gaussiano y por la regresión lineal sin errores.
Los grados de libertad, ν, son el número de datos menos el número de
parámetros a los que estamos ajustando en la función teórica, λm . Como
176
Ejemplos desarrollados de análisis de datos experimentales
con A, M y B constantes.
177
catalogaba las estrellas de la vecina galaxia Pequeña Nube de Magallanes
(PNM), entre las cuales se encontraban varias estrellas tipo cefeida. Leavitt
descubrió que el periodo de oscilación de éstas estaba correlacionado con su
brillo promedio (descubrimiento que permitió ((medir)) el tamaño del Uni-
verso conocido). En particular, la magnitud visual sigue un comportamiento
lineal con el logaritmo del periodo.
Los astrofı́sicos miden el brillo mediante la magnitud visual, m, que se
obtiene a partir del logaritmo de la intensidad luminosa percibida cambiado
de signo; por ello, los mayores valores de magnitud corresponden a menores
intensidades y viceversa. La intensidad a su vez depende de la luminosidad
intrı́nseca del astro y de la distancia a la que se observa. La magnitud
absoluta, M , es la magnitud visual tal y como se percibirı́a a una distancia
fija. Es, por tanto, una medida logarı́tmica de la luminosidad de la estrella.
Vamos a comprobar la ley observada por H. Leavitt. Para ello, tomaremos
los datos de la tabla A.5, correspondientes a varias cefeidas de la PNM,
usados por ella misma en su trabajo cientı́fico.
178
Ejemplos desarrollados de análisis de datos experimentales
0
Denom. M P (d) M0 (M − M )2 /(∆M 0 )2
Polaris −3,60 3,97 −3,0 ± 0,3 4,00
ζ Gem −3,99 10,15 −3,9 ± 0,4 0,05
TT Aql −4,26 13,75 −4,2 ± 0,5 0,01
` Car −5,22 35,5 −5,2 ± 0,6 0,00
RS Pup −5,70 41,4 −5,3 ± 0,7 0,33
S Vul −6,08 68,5 −5,8 ± 0,7 0,16
Tabla A.6. Magnitud absoluta media y el periodo de oscilación de varias cefeidas de la VL. Las columnas
2 y 3 son datos en crudo. Las columnas 4 y 5 corresponden a desarrollos que se piden como ejercicio.
179
Pruebe la hipótesis de que la ley de Leavitt obtenida para la PNM
es la misma que para la VL mediante un test χ2 con una confianza
del 95 %. Para ello compare los valores de M y M 0 y use la tabla 2.3,
identificando correctamente el número de grados de libertad aplica-
ble. ¿Podemos aceptar o rechazar la hipótesis de partida? Razone la
respuesta.
1
Como redondeo de cifras terminadas en 5 se admite tanto el criterio de redondear por arriba
como por abajo. En la tabla A.5 se ha seguido el criterio de que si la cifra anterior es impar, entonces se
redondea por arriba; y si es par se redondea por abajo. Por ejemplo, un error de 0,35 se redondea a 0,4
y una magnitud de 11,65 se redondea a 11,6.
180
Ejemplos desarrollados de análisis de datos experimentales
16
Ajuste: λ1 = −2,3 ± 0,4 λ2 = 16,4 ± 0,5
15
14
Magnitud
13
12
11
1 10 100 1000
Periodo (d)
Redondeando:
λ1 = −2,3 ± 0,4
λ2 = 16,4 ± 0,5
Para representar la recta que se pide basta con tomar 2 puntos y trazar la
recta. Por ejemplo, en el punto P = 10 d, m = −2,3 + 16,4 = 14,1 y en el
punto P = 100 d, m = −2,3 × 2 + 16,4 = 11,8. La recta está trazada en la
figura A.4.
181
El cálculo del valor medio de M 0 es inmediato sin más que aplicar la fórmula
dada, M 0 = λ1 log10 P + b, con λ1 = −2,3 y b = −1,62. Para propagar el
error aplicamos:
s 2 2 q
∂M 0 ∂M 0
∆M = 0 2
∆λ1 + ∆b = (log10 P )2 ∆λ21 + ∆b2
2
∂λ1 ∂b
con ∆λ1 = 0,4 y ∆b = 0,12. Los resultados listados están en la tabla A.6,
en la columna M 0 .
Finalmente, Calculamos la variable S definida por:
0 2
X Mi − Mi
S=
i
(∆Mi0 )2
182
Ejemplos desarrollados de análisis de datos experimentales
183
control o si está acotada. Un factor R0 < 1 indica que el número de
infectados tiende asintóticamente a cero con el tiempo y, por tanto, la
epidemia está controlada. Por el contrario, un factor R0 > 1 implica
un crecimiento continuo en el número de infectados y, por tanto, un
riesgo para la supervivencia si no se toman medidas de control. El rit-
mo básico de reproducción se relaciona con la tasa de infección diaria
a través de la expresión
R0 = β τ (A.8)
donde τ es el tiempo durante el cual el virus es capaz de infectar a
otras personas. Según los análisis de la OMS, el virus de ébola tiene
un tiempo de supervivencia τ = (5,6 ± 0,2) dı́as. Obtenga el valor de
R0 con su error y decida si la Humanidad está en peligro o no.
A partir de los datos de la tabla A.7, estime mediante un ajuste por
mı́nimos cuadrados la probabilidad de supervivencia de un pacien-
te, esto es, el porcentaje de pacientes infectados (con su error) que
afortunadamente no fallecen.
Dando por válida la relación entre fallecimientos y contagiados rea-
lizada en el apartado anterior, los informativos publicaban de forma
alarmante que el porcentaje de pacientes infectados que fallecı́an era
de un 57 %. Usando un método χ2 ¿podrı́a afirmarse con una confian-
za del 90 % que esta hipótesis es cierta? (Considere s(yi ) = 1 para
todos los valores).
Para poder representar los datos, es conveniente convertir las fechas a dı́as,
tomando como referencia t = 0 el dı́a 16 de junio de 2014. De esta forma,
obtenemos los valores representados en la tabla A.8.
Dado el tipo de ecuación que aparece en (A.7), la gráfica más conveniente
es la correspondiente a una escala semilogarı́tmica. Tomando logaritmos a
ambos lados de la ecuación (A.7) tendremos la relación lineal solicitada, tal
y como se muestra en la figura A.5.
Como hemos indicado, si tomamos logaritmos a ambos lados de la ecuación
(A.7) obtenemos:
log10 N = log10 N0 + t log10 β
184
Ejemplos desarrollados de análisis de datos experimentales
y = b + xm
1
∆y = ∆N .
N ln 10
185
10000
1000
10
1
−20 0 20 40 60
Días desde el 16 de junio de 2014
origen:
m = log10 β = 0,0223 ⇒ β = 10m = 1,05263 . . . ,
b = log10 N0 = 1,60 ⇒ N0 = 10b = 40,178 . . .
186
Ejemplos desarrollados de análisis de datos experimentales
de forma que:
R0 = (1,31 ± 0,07)
donde Nif son los fallecidos, Nic son los contagiados, f (Nic ) = mN ci + b y
s(Nif ) = 1 = cte. Sustituyendo por los valores proporcionados en la tabla
A.7 obtenemos:
χ2c = 484,7
187
Teniendo en cuenta el número de grados de libertad ν = 8 − 2 = 6, se tiene
para un grado de confianza del 90 % que χ2 = 10,6 χ2c , por lo que la
hipótesis debe ser descartada.
188
Tema B
INTEGRALES GAUSSIANAS
x = r cos θ , (B.4)
y = r sen θ . (B.5)
189
Por lo que la integral inicial I será, simplemente
Z ∞ r
−ax2 π
I= e dx = . (B.8)
−∞ a
Dado que la integral es una función par es inmediato obtener la integral en
el intervalo (0, ∞) como
Z ∞ r
−ax2 1 1 π
e dx = I = . (B.9)
0 2 2 a
Obviamente, la integral dará el mismo resultado para el intervalo (−∞, 0).
La figura B.1 muestra el valor de la integral gaussiana
Z x
2
I(x) = e−at dt , (B.10)
−∞
pπ
a
3
pπ
4 a
pπ
I(x)
1
2 a
1
pπ
4 a
−5 −4 −3 −2 −1 0 1 2 3 4 5
x
Figura B.1. Formap de la integral gaussiana I(x). Observamos la simetrı́a respecto del origen y la conver-
gencia al lı́mite π/a.
190
Integrales gaussianas
a
√
m= a (B.11)
2
n= √ (B.12)
2 a
b2
d= −c (B.13)
4a
lo que nos permite escribir
Z ∞ Z ∞ Z ∞
−(ax2 +bx+c) −(mx+n)2 ed 2
I= e dx = ed
e dx = e−y dy (B.14)
−∞ −∞ m −∞
191
Tema C
TABLA DE PROBABILIDADES DE LA DISTRIBUCIÓN NORMAL
TIPIFICADA
zi 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990
3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993
3.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995
3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997
3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998
3.5 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998
3.6 0.9998 0.9998 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.7 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.8 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.9 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
Tabla C.1. Valores de probabilidad para P (z ≤ zi ) correspondientes a la integral bajo la curva N0,1 (z).
193
Tema D
CONTENIDOS ADICIONALES DE TEORÍA DE FILTRADO
1. CONVOLUCIÓN Y AUTOCORRELACIÓN
195
La convolución de dos señales temporales es igual a la antitransfor-
mada de Fourier del producto de las transformadas de Fourier de las
señales:
196
Contenidos adicionales de teorı́a de filtrado
M −1
1 X
x(t) = Xk (ω)eiωk t (D.1)
M k=0
1
Del inglés Discrete Fourier Transform.
2
Del inglés Inverse Discrete Fourier Transform.
197
en donde los coeficientes Xk (ω) expresan el peso de la frecuencia k-ésima en
la señal. En general, estos coeficientes son números complejos, por lo que
para analizar el contenido en frecuencias de la señal se suele trabajar con el
cuadrado de su módulo, |Xk (ω)|2 , esto es, con el espectro de potencia de la
señal.
Sin embargo, lo más habitual es que las señales, tanto de procedencia ex-
perimental como de simulación, estén compuestas por N muestras (xi con
i = 0, 1, 2, ..., N − 1), hayan sido muestreadas a intervalos constantes de
tiempo, ∆t y, por lo tanto, tengan una duración finita T = N ∆t. En es-
tas condiciones, la frecuencia mı́nima es ∆ω = 2π/T = 2π/N ∆t y el res-
to de las frecuencias son múltiplos de ella, es decir, ωk = 2πk/N ∆t con
k = 0, 1, 2, ..., N − 1. Por lo tanto, para señales de longitud finita y mues-
tras equiespaciadas, la DFT se obtiene a partir de:
−1 k −1 ki
X
N
−2πj i∆t X
N
−2πj
X(ω) = Xk = xi e N ∆t = xi e N
i=0 i=0
N −1 ki
1 X 2πj
x(t) = xi = Xk e N
N k=0
−1 ki N −1
X
N
−2πj X 2πki 2πki
Xk = xi e N = xi cos − + j sin − ,
i=0 i=0
N N
N −1 ki N −1
1 X 2πj 1 X 2πki 2πki
xi = Xk e N = Xk cos + j sin
N k=0 N k=0 N N
3
La normalización es un tanto arbitraria; la única condición es que el producto de las constantes de
normalización
√ de la DFT y la IDFT sea 1/N . Una normalización en la que ambas tengan una constante
1/ N también es perfectamente admisible.
198
Contenidos adicionales de teorı́a de filtrado
−1 (m + N )i N −1 mi
X
N
−2πj X −2πj
Xm+N = xi e N = xi e N e−2πji =
i=0 i=0
−1 mi
X
N
−2πj
= xi e N = Xm
i=0
N −1 k(m + N ) N −1 km
1 X 2πj 1 X 2πj
xm+N = Xk e N = Xk e N e2πjk =
N k=0 N k=0
N −1 km
1 X 2πj
= X k e N = xm
N k=0
199
cuadrado de una función es igual a la integral de su espectro de potencia:
X −1 N −1
1 X
N
2
|xi | = |Xk |2
i=0
N k=0
En esta sección y la que sigue vamos a analizar dos problemas que aparecen
al trabajar en el espacio de frecuencias a partir de la DFT o FFT de señales
temporales. El problema ligado a la frecuencia de muestreo ya fue descrito
en el capı́tulo 3. A continuación, desarrollamos un problema relacionado con
la duración finita de las señales reales.
El otro problema está relacionado con la duración finita de toda señal dis-
creta. En efecto, las señales f (t) sobre las que se calculan las DFT o FFT
están compuestas por un número finito, N , de datos4 separados por un in-
tervalo temporal δt, por lo que la duración de la señal es (N −1)δt. Es decir,
en términos matemáticos rigurosos, la señal cuya DFT o FFT se calcula se
puede considerar como el producto de la señal real f (t) por una función
((ventana)), g(t), que es una función rectangular que toma valor unidad en
0 ≤ t ≤ N δt y valor nulo fuera de ese intervalo temporal. Además, la trans-
formada de Fourier es una transformación que nos permite representar una
función como suma de componentes periódicas. Sin embargo, en la ma-
yor parte de los casos, la función discretizada no será periódica, es decir,
f (t = 0) 6= f (t = N δt), lo que introduce problemas adicionales para la
4
En lo que sigue supondremos que el ı́ndice, n, de la serie de datos comienza en 0 y, por consiguiente,
termina en N − 1.
200
Contenidos adicionales de teorı́a de filtrado
201
1,0
0,9
0,8
Hann
0,7 Rectangular
(u.a.)
0,6
0,5
P(f)
0,4
0,3
0,2
0,1
0,0
0 1 2 3 4 5
f/∆f
Figura D.1. Espectro de Fourier de las ventanas rectangular (en rojo) y de Hann (en negro), en repre-
sentación doblemente lineal.
Otros dos datos importantes son la atenuación del segundo máximo respecto
al máximo principal, que es de, aproximadamente, −14 db y que la potencia
en los siguientes máximos secundarios decrece con una pendiente de −20
db/dec, como se aprecia en la figura D.3, equivalente a D.1 y D.2 pero en
escala doblemente logarı́tmica. La relación de alturas entre los dos primeros
máximos y la pendiente de decaimiento de los máximos secundarios son
datos importantes porque indican cuanto se separa el espectro de la señal
discreta del espectro teórico de dicha señal por causa de la ventana.
Existe gran cantidad de trabajos sobre distintas funciones ventana que pue-
den ser más adecuadas para diversas utilizaciones especı́ficas. Aquı́ solo
mencionaremos la ventana de Hann, haciendo una comparación detallada
con la rectangular. La ventana de Hann es de utilización general y viene
dada por la función:
1 2πn
gh (n) = 1 − cos
2 N −1
202
Contenidos adicionales de teorı́a de filtrado
0
Hann
Rectangular
-20
(db)
-40
P(f)
-60
-80
0 10
f/∆f
Figura D.2. Espectro de Fourier de las ventanas rectangular (en rojo) y de Hann (en negro), en repre-
sentación semilogarı́tmica.
203
0
Hann
Rectangular
-20
(db)
-40
P(f)
-60
-80
0,1 1 10
f/∆f
Figura D.3. Espectro de Fourier de las ventanas rectangular (en rojo) y de Hann (en negro), en repre-
sentación doblemente logarı́tmica.
204
Contenidos adicionales de teorı́a de filtrado
0,01
Rectangular
1E-5 Hann
1E-8
1E-14
1E-17
1E-20
1E-23
0,1 1 10 100
f (Hz)
Figura D.4. Espectros de potencia de la señal indicada en el texto obtenidos, respectivamente, utilizando
las ventanas rectangular y de Hann. La representación es doblemente logarı́tmica.
5
Del inglés Dirac comb. Es una sucesión de deltas de Dirac situadas en los instantes puntua-
les
P∞ en que se realiza la digitalización o simulación del valor de la señal. En términos matemáticos
i=−∞ δ (x − iτ ), donde τ es el inverso de la frecuencia de muestreo.
205
0,1
Rectangular
Hann
1E-7
1E-10
1E-13
198 199 200 201 202
f (Hz)
Figura D.5. Vista expandida y centrada en el pico de 200 Hz de los espectros de la figura anterior. La
representación es lineal en el eje de abscisas y logarı́tmica en el eje de ordenadas.
206
Contenidos adicionales de teorı́a de filtrado
207
También para la convolución correspondiente a k = −1 es fácil ver que
también aparecerá un pico en la frecuencia:
f− = −fm + f1
Una vez que hemos visto los conceptos fundamentales relacionados con la
DFT y la IDFT, podemos pasar a discutir como se pueden aprovechar ambas
transformadas para realizar filtrados sobre señales muestreadas. En térmi-
nos generales y al igual que en el caso de señales eléctricas continuas en el
tiempo, el filtrado de señales muestreadas por medio de transformadas de
Fourier discretas aprovecha el hecho de que la convolución en el dominio
temporal se transforma en una simple multiplicación en el dominio de fre-
cuencias. Más concretamente, la forma tı́pica de implementar un filtrado de
una señal muestreada consta de las siguientes etapas:
Decidir qué tipo de filtro (paso bajo, paso alto, etc.), el orden del filtro
y la frecuencia de corte.
Diseñar la función de transferencia, por medio de las mismas técnicas
utilizadas para el filtrado de señales analógicas continuas en el tiempo,
y obtener la expresión de la correspondiente función (compleja) de
respuesta en frecuencia.
Obtener la DFT de la señal muestreada que se desea filtrar. El resul-
tado de la DFT será, en general, una función compleja que tomará
valores en el intervalo de frecuencias −fm ≤ f ≤ +fm y simétrica
respecto a fm = 0.
Realizar la multiplicación (en general compleja) de la transformada
de la señal por la función de respuesta en frecuencia.
208
Contenidos adicionales de teorı́a de filtrado
2
Senal
-2
0 2 4 6 8 10
t (s)
40
Potencia Espectral
20
0
0 1 2 3 4 5
frec (Hz)
Figura D.6. Parte superior: Representación temporal de la función descrita en el texto. Parte inferior:
Módulo de la DFT de la señal temporal.
209
40 40 40
Potencia Espectral
20 20 20
0 0 0
0 1 2 3 4 5 0 1 2 3 4 5 0 1 2 3 4 5
frec (Hz) frec (Hz) frec (Hz)
2 2 2
Senal
0 0 0
-2 -2 -2
0 2 4 6 8 10 0 2 4 6 8 10 0 2 4 6 8 10
t (s) t (s) t (s)
Figura D.7. Ejemplo de filtrado por eliminación de componentes de frecuencias seleccionadas. Las imáge-
nes de la fila superior indican, en trazo rojo, la frecuencia que se conserva de la transformada de Fourier
y, en trazo azul, las que se eliminan. En las imágenes de la fila inferior se han representado, simultánea-
mente, la señal original (en trazo azul) y la señal reconstruida a partir de su transformada de Fourier (en
trazo rojo) después de haber eliminado las frecuencias indicadas en la figura superior correspondiente.
210
Contenidos adicionales de teorı́a de filtrado
de donde:
1 1
G(s) = =
1 + s2 LC s s
1− 1+
ωc ωc
y también:
1 1
Gdb (ω) = =
1 − ω 2 LC 1 − (ω/ωc )2
donde ωc = (LC)−1/2 .
Por lo tanto, la ganancia de amplitud de este circuito presenta un pico de
resonancia6 para ω = ωc , mientras que para frecuencias mayores o menores
6
El inductor siempre presenta una pequeña resistencia eléctrica que evita que la ganancia se haga
infinita para ω = ωc .
211
que ωc , la ganancia es Gdb (ω) ' (ωc /ω)2 , y, por consiguiente, decrece con
una pendiente de −40 db/dec, mientras que para frecuencias menores que
ωc la ganancia de amplitud tiende a la unidad. Es decir, el circuito se com-
porta como un filtro paso bajo de segundo orden (dado que su función de
transferencia tiene dos polos simples) con frecuencia de corte ωc = (LC)−1/2 .
Por otro lado, si hacemos la sustitución de la resistencia por la inducción
en el circuito de la figura de la derecha, tenemos:
ZL jωL −ω 2 LC
G(ω) = = 1 =
ZL + ZC jωL + jωC 1 − ω 2 LC
de donde:
1 (s/ωC )2
G(s) = =
1 + s2 LC s s
1− 1+
ωc ωc
y también:
ω 2 LC
Gdb (ω) = 2
ω LC − 1
212
Contenidos adicionales de teorı́a de filtrado
R1 R2
Vi C1 V1 C2 Vo
Figura D.9. Esquema de un filtro paso bajo pasivo de orden 2 formado por dos etapas RC de primer
orden.
7
Estas redes de componentes pasivos se denominan en inglés ladder networks (((redes en escalera))).
Basta mirar el dibujo e imaginarse dos o tres etapas más para entender el porqué de dicha denominación.
213
En términos circuitales, la nueva rama de la segunda etapa, en la que se
encuentran R2 y C2 , está situada en paralelo con la rama de la primera etapa
que contiene al condensador C1 . Por lo tanto, la rama de R2 y C2 modifica
la impedancia de salida de la primera etapa y, asimismo, la impedancia
de entrada de la segunda etapa queda modificada al estar en paralelo con
C1 . Es decir, llamando Z2 a la impedancia equivalente a la combinación en
paralelo de C1 y la serie de R2 y C2 , tenemos:
y también:
ZC2 ZC2 Z2
Vo = V1 = Vi =
ZR2 + ZC2 ZR2 + ZC2 ZR1 + Z2
Zc1 (ZR2 + ZC2 )
ZC2 Zc1 + ZR2 + ZC2
= V
ZR2 + ZC2 Zc1 (ZR2 + ZC2 ) i
Z R1 +
Zc1 + ZR2 + ZC2
Por lo tanto, la ganancia del filtro de segundo orden ası́ obtenido es:
1 1
jωC1
R2 + jωC2
1 1 1
Vo jωC2 jωC1
+ R2 + jωC
G(ω) = = 1
2
Vi R2 + jωC 2
1 1
R2 + jωC2
jωC1
R1 + 1 1
jωC1
+ R2 + jωC2
214
Contenidos adicionales de teorı́a de filtrado
Z4
V1 V+
Z1 Z2 Vo
Vz
Z3 V-
R3 R4
Figura D.10. Esquema de un filtro activo general de segundo orden según la topologı́a de Sallen-Key.
215
Para obtener su respuesta en frecuencia basta con obtener la ganancia de
acuerdo con el método general y después sustituir las impedancias complejas
de los elementos Zi . Para obtener la ganancia aplicaremos en primer lugar la
ley de Kirchoff al nudo situado entre las impedancias Z1 y Z2 . Tendremos:
Vz − Vi Vz − Vo Vz − V+
+ + = 0,
Z1 Z4 Z2
1 1 1 Vi Vo V+
Vz + + = + +
Z1 Z2 Z4 Z1 Z4 Z2
de donde:
V+ = cVi + dVo
siendo:
Z2 Z3 Z4 N1
c(ω) = ≡ ,
Z2 Z2 Z4 + Z1 Z2 Z4 + Z1 Z2 Z2 + Z2 Z3 Z4 + Z1 Z2 Z3 D
Z1 Z2 Z3 N2
d(ω) = ≡
Z2 Z2 Z4 + Z1 Z2 Z4 + Z1 Z2 Z2 + Z2 Z3 Z4 + Z1 Z2 Z3 D
216
Contenidos adicionales de teorı́a de filtrado
de donde
K
G(ω) = =
D(ω) KN2 (ω)
−
N1 (ω) N1 (ω)
−1
Z2 Z2 Z4 + Z1 Z2 Z4 + Z1 Z2 Z2 + Z2 Z3 Z4 + Z1 Z2 Z3 KZ1 Z2 Z3
=K× − =
Z2 Z3 Z4 Z2 Z3 Z4
−1
Z2 Z1 Z1 Z2 Z1 KZ1
=K× + + +1+ − =
Z3 Z3 Z3 Z4 Z4 Z4
−1
Z1 Z2 Z1 Z2 (1 − K)Z1
=K× + + + +1
Z3 Z4 Z3 Z3 Z4
217
Esta última expresión ya nos permite elegir las impedancias adecuadas con
vistas a construir el filtro de segundo orden que se desee. Veamos algunos
ejemplos.
Un filtro paso bajo de segundo orden con una frecuencia de corte ωc tendrá
una función de transferencia con un polo doble en s = ωc y una cierta
ganancia de amplitud constante a baja frecuencia:
G
G ωc2 G 1
G(s) = = 2 = 2 2
(s − ωc )2
s ωc s s
−1 −2 +1
ωc ωc ωc
entonces:
1
ωc = √
R1 R2 C1 C2
además, el coeficiente del término lineal en ω permite definir el factor de
calidad del filtro, Q, que es un parámetro que está relacionado con la
218
Contenidos adicionales de teorı́a de filtrado
por lo tanto:
1 1
ωc = , Q=
RC 3−K
Un filtro paso alto de segundo orden con una frecuencia de corte ωc tiene
que atenuar las frecuencias bajas hasta una cierta frecuencia de corte y tener
ganancia constante para frecuencias superiores a la frecuencia de corte. Por
lo tanto, tendrá una función de transferencia con un cero doble en s = 0 y
un polo doble en s = ωc . Es decir:
2
s
ωc
G(s) = G 2
s s
−2 +1
ωc ωc
219
Comparando esta expresión con la obtenida en función de las impedancias
desconocidas vemos que la única manera de conseguir que los términos del
denominador tengan la dependencia buscada respecto a la frecuencia ω es
proceder a la inversa que en el caso del filtro paso bajo: hacer que Z1 y
Z2 sean resistencias y que Z1 y Z2 sean condensadores. Si hacemos Z1 =
1/jωC1 , Z2 = 1/jωC2 , Z3 = R1 y Z4 = R2 . Por lo tanto, en este caso
tendremos:
K
G(ω) = =
1 j j (1 − K)
− 2 − − −j +1
ω (R1 R2 C1 C2 ) ωR1 C1 ωR1 C2 ωR2 C1
−Kω 2 (R1 R2 C1 C2 )
= 2
ω (R1 R2 C1 C2 ) + jωR2 C2 + jωR2 C1 + jωR1 C2 (1 − K) + 1
y entonces:
1
ωc = √
R1 R2 C1 C2
Para la implementación del filtro elegimos resistencias iguales entre sı́ (R1 =
R2 = R) y capacitancias iguales entre sı́ (C1 = C2 = C). De este modo
tenemos:
−Kω 2 (RC)2
G(ω) = =
ω 2 (RC)2 + jωRC + jωRC + jωRC(1 − K) + 1
Kω 2 (RC)2
=
ω 2 (RC)2 + jωRC(3 − K) + 1
y entonces:
1 1
ωc = , Q=
RC 3−K
220
Contenidos adicionales de teorı́a de filtrado
221
se puede escribir como:
G
G(s) = 0 2 n
−s
1+
ωc2
s2 1
− 2
= (−1) n
ωc
G0 G0
G(s) = Qn s−s =
k Bn (s)
k=1 ωc
2
n
Y 2k + n − 1
2
Bn (s) = s − 2s cos π + 1 , si n es par.
k=1
2n
2
n
Y 2k + n − 1
2
Bn (s) = (s + 1) s − 2s cos π + 1 , si n es impar.
k=1
2n
Estos polinomios están tabulados y los cuatro primeros, con sus coeficientes
222
Contenidos adicionales de teorı́a de filtrado
y entonces:
1
ωc = √
R1 R2 C1 C2
de forma que: √
R1 R2 C1 C2 ωc
Q= =
C1 (R1 + R2 ) 2α
donde:
√ −1
ωc 1 R1 R2 C1 C2 C1 (R1 + R2 )
2α = =√ =
Q R1 R2 C1 C2 C1 (R1 + R2 ) R1 R2 C1 C2
Por lo tanto, para que el filtro Sallen-Key paso bajo de orden 2 sea un
filtro paso bajo de Butterworth basta con hacer que el denominador de la
223
función de transferencia coincida con el polinomio de Butterworth de orden
2, B2 (n), es decir, debemos elegir los componentes de la red RC de forma
que se cumplan:
1
= R1 R2 C1 C2 = 1,
ωc2
2α 2k + n − 1
= C1 (R1 + R2 ) = −2 cos π
ωc2 2n
Por lo tanto, al tener cuatro parámetros relacionados entre sı́ por dos ecua-
ciones, se pueden fijar libremente dos de ellos y obtener los otros dos a través
de las mencionadas ecuaciones.
8
Los primeros polinomios de Chebyshev son T0 (x) = 1; T1 (x) = x; T2 (x) = 2x2 − 1; T3 (x) =
4x3 − 3x; T4 (x) = 8x4 − 8x2 + 1
224
Contenidos adicionales de teorı́a de filtrado
10
Butterworth
0
Chebyshev
-10
G(ω) (db)
-20
-30
-40
-50
-60
100 1000 10000
ω (s )
-1
Figura D.11. Ganancias de amplitud correspondientes a filtros de orden 4 con ωc = 1000 s−1 de Butter-
worth y Chebyshev (ε = 1).
9
La abreviatura corresponde a las iniciales en inglés de Fast Fourier Transform.
10
El esquema de cálculo de esta FFT ya fue utilizado por Gauss en 1805, aunque se dio a conocer
póstumamente.
225
el cálculo de la DFT separando las muestras en dos mitades compuestas,
respectivamente, por las muestras de ı́ndice par (x2m = x0 , x2 ,...,xN −2 ) y
las de ı́ndice impar (x2m+1 = x1 , x3 ,...,xN −1 ). En tal caso, la DFT se puede
separar, como hemos indicado, en dos sumas, una para las muestras pares
y otra para las impares, como sigue:
−1 N/2−1 N/2−1
X
N X X (2m+1)k
−2πj ik −2πj 2mk
Xk = xi e N = x2m e N + x2m+1 e−2πj N =
i=0 m=0 m=0
N/2−1 N/2−1
X mk
−2πj N/2 k
X mk k
= x2m e +e −2πj N
x2m+1 e−2πj N/2 = Pk + e−2πj N Ik
m=0 m=0
226
Contenidos adicionales de teorı́a de filtrado
de la serie original otra vez en N/4 términos pares e impares de las series de
muestras obtenidas en la primera subdivisión. El proceso de subdivisión se
continua hasta llegar a subseries que contienen ya cada una solamente dos
términos.
227
SOLUCIONES DE LOS EJERCICIOS
P (x ≤ 1) = (2!/1!)e−2 = 0,27067
1.4. Respuesta C.
229
1.5. Respuesta C.
n = 50, p = 0, 6, q = 1 − 0, 6 = 0, 4
media = n × p = 30,
√
sigma = n × p × q = 3,46
1.7. Respuesta B.
230
Contenidos adicionales de teorı́a de filtrado
ln L = f ln p + (n − f ) ln(1 − p)
d ln L f n−f
= − =0
dp p 1−p
rrojo = 0,38,
rnegro = 0,07,
rverde = 13,74
2.3. Respuesta D. Hay tres ligaduras dado que el número de datos es fijo
y se han calculado la media y la desviación tı́pica a partir de ellos.
Para realizar el test χ2 tendremos que usar la función teórica con los
valores de la media y de la desviación.
231
2.6. Si usamos:
X
n
(yi − fi )2
S=
i=1
s2 (yi )
k2 = [L−2 ][T2 ]
232
Contenidos adicionales de teorı́a de filtrado
E = βE∗
233
Para que la ecuación recupere su forma tiene que ocurrir que la can-
tidad entre paréntesis sea la unidad:
βc10−6 = 1
106
β= ' 3,3 × 10−5
3 × 1010
4.6. Respuesta A.
234
BIBLIOGRAFÍA
235
[13] J. Gorgas, N. Cardiel, J. Zamorano, Estadı́stica Básica para estudiantes
de ciencias, ebook, 2011.
236
BIBLIOGRAFÍA
237