Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2. INTRODUCCIÓN
Una señal contiene información acerca del estado o comportamiento de un
sistema físico.
La señal, puede ser representada como funciones de una o más variables
independientes. Ejemplo : voz, imagen fotográfica, señal sísmica. La variable
puede ser continua o discreta.
Un sistema en tiempo continuo, las señales de entrada y salida están
representadas en tiempo continuo.
Un sistema en tiempo discreto, las señales de entrada y salida están
representadas en tiempo discreto. Un sistema digital, las señales de entrada y
salida son digitales. En el Procesamiento Digital de Señales, las señales son
discretas tanto en amplitud como en el tiempo y puede realizarse tanto en
software como en hardware, usando en este ultimo caso técnicas VLSI.
La señales discretas pueden ser obtenidas de maneras diferentes:
a. Por muestreo de una señal continua.
b. Generados por algún proceso discreto.
c. Modelo matemático.
nT : tiempo de la secuencia
T : periodo de muestreo
1/T : frecuencia de muestreo
x[n] : muestra n. Es indefinida para valores no enteros de n.
Ejemplo 2.1
En la figura 2.2, se muestra una secuencia, de una señal sinusoidal.
Ejemplo 2.2
En la figura 2.3, se muestra una secuencia, de una señal exponencial real.
Ejemplo 2.3
En la figura 2.4, se muestra una secuencia obtenida por el muestreo de una
señal análoga.
x[n].y[n]
x[n] + y[n]
α x[n]
d. Retardo de una secuencia
Una secuencia y[n], esta retrazada con respecto a x[n] si:
y[n] = x[n-no]
no : es un entero
n≠0
δ [n] = 0,
1, n=0
p[n] = a δ [n + 3] + a δ [n −1] + a δ [n − 2] + a δ [n − 7]
−3 1 2 7
• En general alguna secuencia puede ser expresada como
∞
x[n] = ∑ x[k ]δ [n − k ]
k =−∞
1, n≥0
u[n] =
0, n<0
x[n] = Aα n
Si A y α son números reales, entonces la secuencia es real.
Si 0 < α < 1 y A es positiva, entonces los valores de la secuencia son positivos
y decrece con el incremento de n.
Para − 1 < α < 0 , los valores de la secuencia decrecen en magnitud con el
incremento de n.
Si | α |> 1 , la secuencia crece en magnitud cuando n incrementa.
h. Secuencia Sinusoidal
• La forma general
A cos(w n + Φ) = A cos(w n + w N + Φ)
0 0 0
el cuál requiere que
w N = 2πk
0
donde k, es un entero. En la figura 2.5, se muestra una onda sinusoidal en
tiempo discreto, para dos valores de w
0
y[n] = T{x[n]}
Ejemplo 2.4
• Sistema de retardo ideal
M
1 2
y[n] = ∑ x[n − k ]
M + M +1 k = −M
1 2 1
2.2.1 Sistemas sin Memoria
Un sistema, es denominado sin memoria, si la salida y[n], a cada valor de n
depende, solo si en la entrada, x[n] tiene el mismo valor n.
Ejemplo 2.6
y[n] = (x[n])2
x[n] = ∑ a x [n]
k k k
entonces
y[n] = ∑ a y [n]
k k k
donde y [n] es la respuesta a la entrada x [n]
k k
2.2.4 Causalidad
Un sistema es causal si para cada selección de n , el valor de la secuencia de
0
n = n , depende solo de los valores de la secuencia de entrada
salida a índice
0
para n ≤ n . Esto implica si x [n] = x [n ] para n ≤ n , entonces
0 1 2 0
y [n] = y [n] para n ≤ n . Esto es, el sistema es no anticipativo.
1 2 0
• Ejemplo 2.7
Sea el sistema
y[n]=x[n+1]-x[n]
El sistema es no causal.
• Ejemplo 2.8
Sea el sistema
y[n]=x[n]-x[n-1]
El sistema es causal.
2.2.5 Estabilidad
Un sistema es estable en la entrada-limitada, salida-limitada (BIBO), en el
sentido si cada secuencia de entrada limitada produce una secuencia de salida
limitada.
La entrada x[n] esta limitada
La estabilidad, requiere que para cada entrada limitada, existe un valor finito
positivo fijo, B y tal que
∞
y[n] = T ∑ x[k ]δ [n − k ]
k =−∞
∞ ∞
y[n] = ∑ x[k ]T {δ [n − k ]}= ∑ x[k ]h [n]
k
k = −∞ k = −∞
La propiedad de Invarianza, en el tiempo, implica que si h[n] es la respuesta a
δ [n] ,entonces la respuesta a δ [n − k ] es h[n-k].
∞
y[n] = ∑ x[k ]h[n − k ]
k = −∞
Un “Sistema Lineal Invariante en el Tiempo”, es completamente
caracterizado por su respuesta impulsional h[n], en el sentido que dado h[n] se
computa y[n] debido a alguna entrada x[n]. La anterior relación es llamada
“Convolución Suma”.
Decimos que y[n] es la convolución de x[n] con h[n] y esta dado por
y[n]=x[n]*h[n]
Ejemplo 2.9
Calcule la salida y[n], de un sistema lineal invariante en el tiempo, si la entrada
x[n] y su respuesta impulsional h[n], están representadas en la figura 2.7
x[n]*h[n] = h[n]*x[n]
∞
S = ∑| h[k ] |< ∞
k =−∞
Esto puede ser mostrado como sigue
∞ ∞
| y[n] |=| ∑ h[k ]x[n − k ] |≤ ∑| h[k ] || x[n − k ] |
k =−∞ k = −∞
Si x[n] esta limitado
| x[n] |≤ Bx
Entonces
∞
| y[n] |≤ Bx ∑| h[k ] |
k = −∞
• Ejemplo 2.9 : Retardo ideal
h[n] = δ [n − n ], n entero positivo fijo
d d
1 ∞
h[n] = δ [n − k ]
M + M + M +1 k =∑−∞
1 2 3
• Ejemplo 2.11 : Acumulador
∞
h[n] = ∑δ [k ]
k =−∞
• Ejemplo 2.12 : Diferencia adelantada
N M
∑ ak y[n − k ] = ∑ bk x[n − k ]
k =0 k =0
Ejemplo 2.14
∞ jw(n − k )
y[n] = ∑ h[k ]e
k = −∞
jwn ∞ − jwk
y[n] = e ∑ h[k ]e
k = −∞
Si definimos
∞
H (e jw ) = ∑ h[k ]e− jwk
k =−∞
Entonces
y[n] = H (e jw )e jwn
Consecuentemente, x[n] = e
jwn , es una eigefunción del sistema y el eigenvalor
asociado es, H (e
jwn ) .
El eigenvalor H (e
jwn ) , es llamado la respuesta en frecuencia del sistema. En
general, H (e
jwn ) , es compleja y puede ser expresada en términos de su
parte real e imaginaria como
H (e jw ) = H (e jw ) + jH (e jw )
R I
o en términos de su magnitud y fase es
jw
H (e jw ) =| H (e jw ) | e jAng.H (e )
π
x[n] = 1
∫ X (e jw )e jwn dw
2π −π
donde X (e
jw ) , está dado por
∞ − jwn
X ( e jw ) = ∑ x[ n ]e
n = −∞
X (e jw ) = X (e jw ) + jX (e jw )
R I
o en su forma polar
jw)
X (e jw ) =| X (e jw ) | e Ang.X (e
| H (e jwn ) | : Magnitud
Ejemplo 2.15
Determinar la respuesta impulsional h[n], de un filtro ideal paso-bajo. La
respuesta en frecuencia está dado
jw
1, w 〈 wc
H (e ) =
lp 0, wc〈 w ≤π
sin wcn
= πn - ∞〈n〈∞
M sin w n − jwn
H (e jw ) = ∑ c e
n = −M πn
M
donde
1
xe[n] = ( x[n] + x *[−n]
2
y
1
xo[n] = ( x[n] − x *[−n]
2
Una secuencia real, que tiene una conjugada simétrica dada por
xe[n] = xe [−n] , es llamada una secuencia par.
Una secuencia real, que tiene una secuencia conjugada antisimétrica tal que
x [n] = − x [−n] es llamada secuencia impar.
o o
Una Transformada de Fourier X (e
jw ) , puede ser descompuesta en una suma
de funciones de conjugada simétrica y conjugada antisimétrica
X (e jw ) = X e (e jw ) + X o (e jw ),
donde
X e (e jw ) = [ X (e jw ) + X * (e− jw )
1
2
y
X o (e jw ) = [ X (e jw ) − X * (e− jw )
1
2
Claramente, X (e
jw ) es la conjugada-simétrica y X (e jw ) es la conjugada-
e o
antisimétrica, es decir
X e (e jw ) = X *e (e − jw )
X o (e jw ) = − X *o (e − jw )
X (e jw ) = X (e jw ) + jX (e jw )
R I
Específicamente,
X (e jw ) = X (e− jw )
R R
y
X (e jw ) = − X (e − jw )
I I
En otras palabras, la parte real de la transformada de Fourier, es una función
par, y la parte imaginaria es una función impar, si la secuencia es real.
Para expresar X (e
jw ) en forma polar
jw
X (e jw ) =| X (e jw ) | e Ang.X (e )
X (e jw ) = F{x[n]}
x[n] = F −1{X (e jw )}
x[n] ↔ X (e jw )
2.9.1 Linealidad de la Transformada de Fourier
Si
x [n] ↔ X (e jw )
1 1
y
x [n] ↔ X (e jw )
2 2
entonces
ax [n] + bx [n] ↔ aX (e jw ) + bX (e jw )
1 2 1 2
2.9.2 Cambio de tiempo y cambio de frecuencia
Si
x[n] ↔ X(e jw )
jw n j (w−w )
e 0 x[n] ↔ X(e 0 )
x[n] ↔ X(e jw )
x[−n] ↔ X(e− jw )
2.9.4 Diferenciación en frecuencia
Si
x[n] ↔ X(e jw )
entonces
jw
dX(e )
nx[n] ↔ j
dw
2.9.5 Teorema de Parseval
Si
x[n] ↔ X(e jw )
∞ 2
1 π jw
2
E = ∑ x[n] =
2π −∫π
X (e ) dw
n=−∞
2
La función, X (e jw ) , es llamada la densidad espectral de energía, y
determina como la energía esta distribuida en la frecuencia.
x[n] ↔ X(e jw )
y
h[n] ↔ H(e jw )
y si
∞
y[n] = ∑ x[k]h[n - k] = x[n] * h[n]
k = -∞
entonces
Y (e jw ) = X (e jw )H (e jw )
2.9.7 Teorema de Modulación
Si
x[n] ↔ X(e jw )
y
w[n] ↔ W(e jw )
y si
y[n] = x[n]w[n]
entonces
jw 1 π jθ j (w −θ )
Y (e ) = ∫ X (e )W (e ) dθ
2π − π
Ejemplo
Definamos una señal exponencial x(t) como:
e −2t , t≥0
x(t ) =
0 , t<0
Aplicamos
Entonces:
» Tm=t(3)-t(2);
» Fm=1/Tm;
» X=fft(x);
» VAX=2*abs(X)/N;
» XdB=20*log10(VAX);
» F=Fm*(0:N/2)/N;
» plot(F,XdB(1:N/2+1))
» xlabel('Frecuencia(Hz)')
» ylabel('Respuesta de Magnitud(dB)')
» title('Espectro de Frecuencia de la Señal exp(-2*t)')
jX I j Jm {X [e jω ]}
jXR (e jω )
3. e jω 0 n X [n] (
X e j (ω −ω 0 ) )
4. x[− n] (
X e − jω )
X e *
( ) jω
Si x[n] es real
5. nx[n] j
( )
dX e jω
dω
6. x [n ]* y [n ] X (e jω )Y (e jω )
7. x [n ]y [n ] 1
2π
π
∫π
−
( )( )
X e j 0 Y e j (ω − 0 ) d 0
Teorema de Parseval:
( )
∞ π
∑ X [n]
2
1
= ∫π X e jω dω
2
8.
n = −∞ 2π −
3. 1 (− ∞∠ n∠∞ ) ∞
∑ 2πδ (ω + 2π k )
k = −∞
4. ∂ n u [n] ( a ∠1) 1
1 − ae − jω
5. u[n] 1
+
∞
1 − e jω ∑ πδ (ω
k = −∞
+ 2π k )
1n sen p (n + 1)
u[n ]( r ∠1)
1
7.
1 − 2r cos ω p e − jω + r 2 e − j 2ω
senω c n
X (e jω ) = 1, ω ∠ω e
8.
πn
0, ω e ∠ ω ≤ π
9. x[n] = 1, 0 ≤ n ≤ M
sen[ω (M + 1) / 2] − jωM / 2
0,en el resto e
sen(ω / 2 )
jω
0n
10. e ∞
∑ 2πδ (ω − ω
k = −∞
0 + 2π k )
12. cos(ω 0 n + φ )
∑ [π e ](ω − ω
∞
j φδ
0 + 2 π k ) + π e − j φδ (ω + ω 0 + 2π k )
k = −∞