Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Contenido:
Los términos tiempo continuo y analógico son idénticos en significado cuando lo aplicamos a
sistemas y señales . Las señales analógicas son funciones de variables en tiempo continuo y sistemas
analógicos son aquellos que son descritos en términos de tales señales, de la misma forma los
conceptos de tiempo discreto y digital son definidos.
Cuando los costos de la computadora empezaron a disminuir , su uso para efectos de control empezó a
gran escala en industria tales como: Procesamiento químico, manufacturas, plantas de
comunicaciones.
Cuando aparecieron las minicomputadoras más rápidas, con mayor capacidad de procesamiento y
mucho más baratas que sus antecesoras, empezó una verdadera revolución en la industria
nuevamente, computadoras generales o de propósito especifico empezaron a aparecer.
Sin embargo para poder procesar las señales analógicas mediante la computadora digital es
necesario una conversión señales. En lo cual cada señal analógica que se desea manipular mediante
una computadora debe ser convertida de su forma analógica a su forma digital mediante un
convertidor analógico digital tal como lo muestra la figura no. 1.1.
Pero se debe tomar en cuenta que la salida de la computadora no debe cambiar hasta que el próximo
conjunto de conversiones D/A y cálculos se realicen, es por eso que en algunos procesos de D/A deben
ser mantenidos durante cada ciclo lo cual nos lleva a la utilización de un dispositivo muestreador -
retenedor.
Las señales de entrada son analógicas y las salidas deben ser también son señales analógicas, y entre
ellas puede llevarse a cabo un poderoso procesamiento computacional; operaciones como raíz
cuadrada, correlación, generación de funciones, y un análisis espectral los cuales son una verdadera
pesadilla en “hardware analógico “ son implementados digitalmente por una rutina de software.
La tabla no. 2.1 muestra una breve reseña de la cronología de la computadora digital.
Fecha
A.C. El ábaco esta en uso. Se difunde su uso por Europa y Asia.
1650 Pascal construye un calculador mecánico de escritorio para sumas
1670 Leibiniz construye un calculador capaz de realizar suma, resta, multiplicación, división y
raíz cuadrada.
1800 Jacquard perfecciona el telar automático el cual es programado utilizando tarjetas
perforadas.
1830 Babbage desarrolla los principios de la computadora moderna, incluyendo memoria,
control del programa y capacidades de ramificación.
1890 Hollerith utiliza un sistema de tarjetas perforadas para el censo de los Estados Unidos ,
Holleriths company más tarde se convertiría en IBM
1940 Aiken construye una computadora electromecánica programable MARK I utilizada para
cálculos de balística para la armada de los Estados unidos.
1946 Eckert and Mauchly construye la primera computadora digital basada en tubos de vacío
ENIAC en la Universidad de Pennsylvania.
1948 Von Neumann dirige la construcción de la primera computadora con programa
almacenado en Princeton.
1950 Sperry Rand Corporation construye la primera computadora para el procesamiento de
datos comerciales usando diodos semiconductores y tubos de vacío UNIVAC I.
1952 IBM realiza el estudio de mercado para la comercialización de la primera computadora
digital IBM 701.
1960 La segunda generación de computadoras es introducida al mercado los tubos de vacío
son cambiados por componentes de estado sólido.
1964 La tercera generación de computadoras empieza. la presencia del circuito integrado
predomina como en la IBM 360
1965 Digital Equipament Corporation comercializa la PDP-8, la industria de
minicomputadoras empieza.
1973 Intel comercializa la primera microcomputadora la cual utiliza el procesador 8080.
1975 10 diferentes microprocesadores son comercializados, incluyendo el F8 de fairchild, el
Intel 8080A, el motorola 6800, Signetics 2650.
1977 Motorola, Texas Instruments, Intel y Zilog comienzan la competencia en la
comercialización de microprocesadores de 16 bits, y los microprocesadores de 32 bits son
anunciados.
1978 Rockwell International comercializa el sistema de microprocesador AIM-65 a un precio
de 500 dólares. El sistema incluye display alfanumérico, una pequeña impresora, un
interface para el casete y puertos de entrada y salida, el software esta en almacenado en
una memoria ROM, el cual incluye el sistema monitor, ensamblador y el compilador
Basic.
1982 La tecnología VLSI es capaz de integrar un millón de dispositivos en un solo chip
semiconductor.
1983 Las computadoras personales son comparables en capacidad y almacenamiento que los
mainframes de los 60s.
1984 Las calculadoras portátiles son programables en Basic
1986 Una intensa competencia empieza cuando se duplican las PCs de IBM
La computación digital esta sujeta a los errores de redondeo y a la truncación por error debido a que
los números están representados por un número finito de bits.
Una señal analógica tal como un voltaje puede ser representada como un número binario,
apropiado para el procesamiento computacional, simplemente por la asignación de peso dependiendo
de la posición.
La tabla 1.2 nos da la codificación en 4 bits de una señal analógica la cual se encuentra en el rango de
0 - 10 v. cada incremento binario representa 2 −4 = 1 16 .
Cada número binario representa un rango del voltaje analógico; por lo tanto existe una cuantización
del error asociada con la conversión. Para una conversión a 4 bits la máxima cuantización del error
−4
es 2 = 6.25% .
La tabla no. 1.3 muestra el error de cuantización en porciento para varios números de bits en la
representación digital. El error de cuantización en una conversión de 16 bits corresponde a una
razón de señal a ruido ( SNR ) de:
Realizando una comparación, la razón típica señal a ruido en la calidad de grabación y reproducción
de audio son de 60 a 70 dB, la
cual pude ser precisamente lograda solo con 12 bits de codificación.
Para señales bipolares, existe tres tipos de códigos binarios los cuales se muestran en la tabla no. 1.4
En el arreglo de signo y magnitud, el bit más significativo del código binario representa el signo
algebraico de la señal, en donde el cero tiene un valor positivo, los bits restantes representan el valor
de la magnitud de la señal.
En aplicaciones que involucran displays digitales, podemos utilizar la codificación en BCD ( binary
coded decimal ) , donde la señal es representada como un dígito decimal y cada dígito decimal se
convierte individualmente a un código de 4 bits equivalente.
Muestreadores y retenedores
Los convertidores A/D y D/A son utilizados repetidas veces para realizar conversiones, para el
caso de conversión analógica digital es necesario liberar la señal analógica mientras se realiza la
conversión . Un dispositivo muestreador y retenedor cuyo símbolo se muestra en la figura no. 1.2,
puede utilizarse para mantener la señal analógica permanente mientras se realiza la conversión,
como se muestra en la figura 1.3.
En la conversión de digital a analógica, la salida del convertidor D/A puede estar variando
demasiado, mientras se realiza la conversión , por esta razón es conveniente utilizar un retenedor -
muestreador, el cual mantendrá la señal, mientras se realiza la nueva conversión, como se muestra
en la figura no. 1.4.
Ejercicio: Un convertidor D/A de 12 bits tiene un voltaje de salida mínimo de -10 volts y una voltaje
máximo de salida de 10 volts. Después de aplicar el código binario 010110101001.
figura 1.4
Representación de secuencias
Muestras periódicas de una señal en tiempo continuo, las cuales son generadas por un
convertidor A/D, forman una secuencia de números conocidos con el nombre de señales en tiempo
discreto. La figura no. 1.5 muestra una señal en tiempo continuo f(t) y su correspondiente secuencia
de muestras:
algunas veces este tipo de notación puede causar confusiones, es por ello que es común en la práctica
denotar la secuencia por f(k), donde k es el número de muestras.
Algunas secuencias importantes se denotan en las figuras no. 1.5 a 1.10 , examinando la figura no.
1.9 la cual consiste en muestras progresivas de potencias del número:
c = e − aT
f ( 0) = c 0 = 1
f (1) = c
f (2 ) = c 2
f (n ) = c n
Otro tipos de secuencias más complicadas pueden representarse como corrimientos y sumas de
secuencias básicas . Por ejemplo δ (k − 2) la cual representa la secuencia impulso unitario
desplazada dos periodos de muestreo a la derecha como se observa en la figura no. 1.11 a y la figura
no. 1.11b es entonces:
f 1 (k ) = δ (k ) + 2δ (k − 1) + 3δ (k − 2 ) − 2δ (k − 3) − δ ( k − 4 )
La secuencia:
10 k = 2 ,3,4 , ...
f 2 (k ) =
0 de otra manera
La transformada Z de una secuencia f(k) esta definida como una serie infinita de la siguiente
manera:
∞
Z[ f ( k ) ] = F ( z ) = ∑ f ( k ) z − k
k =0
Esta transformada juega un papel importante en la descripción de señales en tiempo discreto, tal
como la transformada de Laplace lo hace con las señales en tiempo continuo.
La tabla 1.5 nos da una lista de los pares de transformadas básicas, junto con la correspondiente
función en tiempo continuo la cual da la secuencia cuando se muestrea con un periodo T.
∞
Z[δ ( k )] = ∑ δ ( k ) z − k = z −0 = 1
k =0
∞
Z[u( k )] = ∑ 1. z − k
k =0
entonces:
∞ ∞ k
1 1 z 1
Z[ u( k ) ] = ∑ z −k
= ∑ = = <1
k =0
k =0 z 1− 1 z z − 1 z
La tabla no. 1.6 nos da las propiedades básicas de la transformada Z . La transformada de una
secuencia escalada multiplicada por una constante es la constante de tiempo de la transformada Z
Propiedades de la Transformada Z
Z[cf ( k )] = cF ( z ) donde c es una cons tan te
Z[ f ( k ) + g ( k ) ] = F ( z ) + G ( z )
zdF ( z )
Z[ kf ( k )] = −
dz
z
[ ]
Z c k f ( k ) = F donde c es una cons tan te
c
Z[ f ( k − 1)] = f ( −1) + z −1F ( z )
Z[ f ( k − 2)] = f ( −2) + z −1 f ( −1) + z −2 F ( z )
Z[ f ( k − n)] = f ( − n) + z −1 f (1 − n) + z −2 f ( 2 − n) +...+ z − n + 1 f ( −1) + z − n F ( z )
Z[ f ( k + 1)] = zF ( z ) − zf ( 0)
Z[ f ( k + 2)] = z 2 F ( z ) − z 2 f ( 0) − zf (1)
Z[ f ( k + n)] = z n F ( z ) − z n f ( 0) − z n −1 f (1) −...− z 2 f ( n − 2) − zf ( n − 1)
lim F ( z )
f ( 0) =
z → ∞
lim f ( k ) lim f ( k ) z -1
F ( z)
si existe y es finito = lim z
k → ∞ k → ∞
z → 1
Tabla no. 1.6 Propiedades fundamentales de la transformada Z.
∞ ∞ ∞
zd ∞
Z[ kf ( k )] = ∑ kf ( z ) z − k = ∑ f ( k )( kz − k ) = ∑ f ( k )
zd
dz
( ) zd
− z − k = − ∑ f ( k ) z − k = − F(z)
dz k = 0 dz
k =0 k =0 k =0
La figura no. 1.12 muestra un ejemplo de una secuencia la cual esta desplazada un paso a la
derecha.
( −1) k k = 3,4,5,...
f (k ) =
0 de otra manera
− z −2
respuesta:
1+ z
−1
respuesta: 2 z − 3z −4 + 8z −7
Transformada Z inversa
Existen varios métodos para obtener la transformada Z inversa, de los cuales mencionaremos
los siguientes:
Al obtener la transformada Z inversa se supone que la serie temporal f(k) vale cero para toda k<0.
−1
Se desarrolla F(Z) en una serie de potencias convergente en z se pueden determinar los valores de
f(kT) por inspección.
Si F(Z) esta dada en forma de una función racional, se puede lograr el desarrollo en una serie
infinita de potencias simplemente dividiendo el numerador por el denominador, si la serie resultante
−k
es convergente, los coeficientes de las z en la serie son los valores de f(kT) de la secuencia
temporal.
f ( z)
Se desarrolla en fracciones parciales y se procede a realizar la identificación de cada uno de
z
los términos utilizando la tabla de transformadas Z.
Se obtiene la transformada Z inversa de F(Z) como la suma de las transformadas Z inversas de las
fracciones parciales.
3z 2 − z
F (z) = 2 k
. k − 133
respuesta: 3( 10 ) cos189
k
. ( 10 ) sen189
. k
z + 2 z + 10
Considerando la ecuación:
y(k+1)-y(k)=1
zy(z)-zy(0)-y(z)= 1 / ( 1-z=1)
y(k) = y0 + k
Como se mostró resolver las ecuaciones de diferencia utilizando la transformada z es muy fácil y el
procedimiento lo podemos describir como:
{ 0, 1, 1, 2, 3, 5, 8, ...} esta serie representa la manera como se reproducirían una familia de conejos
en condiciones ideales.
La expresión que nos representa el K-esimo termino, en función del anterior es:
S(k+2)=S(k) + S(k-1)
Por lo tanto:
S(z) / z = 1 / (z-1.62)(z+0.62)
De donde:
Por lo tanto:
Teorema de convolución.
S(s)=G(s)E*(s)
La salida S(t) puede calcularse a partir de la ecuación anterior, con el teorema de convolución:
∞
S (t ) = ∫ e * (ζ )g (t − ζ )dζ
0
∞
e * (t ) = ∑ e(kT )δ (t − kT )
k =0
∞
∞
S (t ) = ∫ ∑ e(kT )δ (ζ − kT )g (t − ζ )dζ
0 k =0
∞ ∞
= ∑ e(kT )∫ g (t − ζ )δ (ζ − kT )dζ
k =0 0
Pero:
∞
∫ g (t − ζ )δ (ζ − kT )dζ = g (t − kT )
0
Entonces:
∞ ∞
S (t ) = ∑ e(kT )g (t − kT ) S (t ) = ∑ e(kT )g (t − kT )
k =0 k =0
O sea:
∞
S (nT ) = ∑ e(kT )g (nT − kT )
k =0
Para lograr nuestro objetivo imaginemos un muestreador ficticio que se coloque a la salida del
sistema y se sincroniza con el de la entrada definiéndose una función de transferencia muestreada
entre E*(s) y S*(s) :
S * (s )
G (s ) =
E * (s )
S (z )
G(z ) =
E (z )
∞
S (z ) = ∑ s(lT )Z −l
l =0
∞
S (lT ) = ∑ e(kT )g (lT − kT )
k =0
y sustituyendo , se llega a la expresión:
∞
∞
S (z ) = ∑ ∑ e(kT )g (lT − kT )z −k
l =0 k =0
∞ ∞
S (z ) = ∑∑ e(kT )g (nT )z −k
z −n
n = − k k =0
∞ ∞
= ∑ g (nT )z ∑ e(kT )z
n=− k
−n
k =0
−k
∞ ∞
S (z ) = ∑ g (nT )z −n ∑ e(kT )z −k ≅ G ( z )E ( z )
n =0 k =0
O sea :
Ejemplo:
S(s)=G1(s)G2(s)E*(s)
S*(s)={G1(s)G2(s)} * E*(s)
Y en transformada z queda :
S (z ) = G1G2 ( z )E ( z )
El ejemplo siguiente es muy parecido a anterior, solo que intercalamos un muestreador entre G1(s) y
G2(s), a la misma frecuencia que los otros:
En este caso:
S(s) = G2(s)A*(s)
A(s) = G2(s)E*(s)
S(s) = G2(s)G*1(s)E*(s) y
G1G2 ( z ) ≠ G1G2
Entonces:
O sea:
Y * (s ) = RoG (s )M * (s )
*
Al muestrear la salida y(t):
Y
Y ( z ) = RoG (z )D(z )C (z ) − RoG ( z )D( z )Y ( z )
Y (z ) RoG ( z )D( z )
=
C ( z ) 1 + RoG ( z )D( z )
Referencias Bibliográficas: