Está en la página 1de 5

USAC – Facultad de Ingeniería Pablo Alejandro Ríos Reynoso

Mecánica Eléctrica – 242 – Comunicaciones 1 201602770 – 3015 59996 0101


Ing. José Aníbal Silva
Aux. Jason Hernández

TAREA #1
CONCEPTOS FUNDAMENTALES

Conjuntos Ortogonales
Es un conjunto de vectores es llamado porque cada uno de sus elementos son vectores
ortogonales esto quiere decir que son perpendiculares entre si y su producto interno es
igual a cero.
Ejemplo:
Sea T un subconjunto de R3
T= {(1,0,0); (0,2,0); (0,0,-1)}
T es un sub espacio vectorial de R3, sus vectores son distintos entonces al realizar su
respectivo producto punto entre ellos el resultado es 0, por lo tanto, T es un conjunto
ortogonal

Números Complejos
Un número complejo, es una entidad matemática que viene dada por un par de números
reales, el primero x se denomina la parte real y al segundo y la parte imaginaria. Los
números complejos se representa por un par de números entre paréntesis (x, y), como los
puntos del plano, o bien, en la forma usual de x+yi, ”i” se denomina la unidad imaginaria,
la raíz cuadrada de menos uno.

• El módulo o magnitud de un número complejo z viene dado por la siguiente


expresión: |z| = √zz ∗ = √Re2 (z) + Im2 (z).
• El argumento principal o fases el ángulo que forman el eje de abscisas y el vector,
Viene dado por la siguiente expresión: θ = Arg(z) = a Tan(x, y)
• Propiedades:
o Propiedad conmutativa: z+w = w+z; zw= wz.
o Propiedad asociativa: v+(w+z)= (v+w)+ z; v(wz)= (vw)z
o Propiedad distributiva: v(w+z) = vw+vz; (w+z)v = wv+zv
• Existencia de identidades:
o La identidad aditiva, el cero: z+ 0 = 0+z = z; la identidad multiplicativa, el 1:
• Inversos: cada número complejo tiene su inverso aditivo -z tal que z +(-z) = 0 y cada
número complejo, distinto de cero, tiene su inverso multiplicativo z-1, tal que z·z-1 =
1.
Series de Fourier

Una serie de Fourier es una serie infinita que converge puntualmente a una función
periódica y continua a trozos (o por partes). Las series de Fourier constituyen la herramienta
matemática básica del análisis de Fourier empleado para analizar funciones periódicas a
través de la descomposición de dicha función en una suma infinita de funciones sinusoidales
mucho más simples (como combinación de senos y cosenos con frecuencias enteras).

Las series de Fourier tienen la forma, donde y se denominan coeficientes de Fourier de la


serie de Fourier de la función.

Otra forma de definir la serie de Fourier es:

Donde:

Error Cuadrático Medio


Mide el promedio de los errores al cuadrado, es decir, la diferencia entre el estimador y lo
que se estima. El ECM es una función de riesgo, correspondiente al valor esperado de la
pérdida del error al cuadrado o pérdida cuadrática. La diferencia se produce debido a la
aleatoriedad o porque el estimador no tiene en cuenta la información que podría producir
una estimación más precisa.
Manera de calcularlo: Si Ý es un vector de n predicciones y Y es un vector de verdaderos
valores, entonces el ECM del predictor es: Esta es una cantidad conocida, calculado dada
una muestra particular (y por lo tanto es dependiente de la muestra).

Linealidad

El término linealidad se refiere a la propiedad de escalamiento. Supón que tienes dos


propiedades físicas relacionadas, por ejemplo, la rapidez a la que puedes correr y la
distancia que vas a recorrer. Si duplicas la velocidad, duplicas la distancia recorrida. Si
triplicas la velocidad, triplicas la distancia. Esta es una relación lineal. Generalmente el costo
de las cosas es lineal. Si un cuaderno cuesta 1$, diez cuadernos costarán 10$.
En electrónica, un resistor ideal crea una relación lineal entre el voltaje y la corriente. Si
duplicas el voltaje, se duplica la corriente, y viceversa. Entonces decimos que un resistor
ideal es un elemento lineal.

Queremos describir esta propiedad en términos matemáticos. Podemos describir este


duplicar-causa-duplicar como f(2x) = f(2x) = f(2x)= 2f(x).
Del mismo modo, podemos escribir el triplicar-causa-triplicar como f(3x) = 3f(x)f(3x) =
3f(x)f(3x) = 3f(x). En general, la propiedad de escalamiento es f(ax) = a f(x)f(ax) = a f(x)f(ax)
= a f(x)

Función Delta y Respuesta a un Impulso


La delta de Dirac o función delta de Dirac es una distribución o función generalizada
introducida por primera vez por el físico británico Paul Dirac y, como distribución, define un
funcional en forma de integral sobre un cierto espacio de funciones. Se escribe como:

, la función tiende al infinito cuando x=0.


Respuesta a impulso esta se representa por una función Delta de Dirac. Cuando se trabaja
con sistemas discretos el impulso se aproxima por medio de un pulso que tiene área unidad
y de ancho tiene el periodo de tiempo entre dos muestras. Si el tiempo entre dos muestras
consecutivas x[n] y x[n+1] lo tomamos como, τ, entonces el valor del impulso será el inverso
de 1/ τ , de modo que el área, que es su producto, valga la unidad. En la explicación posterior
de los Sistemas Discretos se toma, τ =1 , de modo que su inverso también lo será, pero hay
que tener en cuenta para el procesamiento de señales en las que la base de tiempo sea
diferente ajustar este parámetro para no cambiar la energía de la señal de salida
erróneamente.

Respuesta a una excitación arbitraria y Convolución


Es un operador matemático que transforma dos funciones f y g en una tercera función que en cierto
sentido representa la magnitud en la que se superponen f y una versión trasladada e invertida de g.
La Convolución de f y g se denota f*g . Se define como la integral del producto de ambas funciones
después de desplazar una de ellas una distancia t.

Teorema de Parserval
El valor medio de una señal se define como la media de todos los valores que definen y
componen la misma cuya suma representa el área bajo la curva entre un periodo de tiempo
que matemáticamente se representa por la ecuación 1. Gráficamente corresponde a un
triángulo que contiene el área equivalente a la que tiene la señal bajo su curva como se
muestra.
En sistemas de comunicaciones es importante conocer la potencia promedio de las
señales lo que es equivalente al valor cuadrático medio en un periodo definido (T) de la
señal como lo muestra la ecuación 2, si f(f) corresponde a una señal de corriente o voltaje
representa la potencia promedio entregada por la misma a una resistencia de 1Ω. Los
límites de integración para una señal periódica corresponden a un periodo de la señal ya
que, si se toma n periodos, se aumenta el tiempo n veces y de igual manera pasaría con el
área, por lo tanto, se obtendría el mismo resultado.

El teorema de Parseval define que la potencia de las señales es equivalente a la suma de la


potencia de sus componentes espectrales y se toma dependiendo de si la señal es periódica
o no ya que para su análisis se implementa la serie y la transformada de Fourier
respectivamente.

Señales de energía y la integral de Fourier

Una señal de energía tiene energía finita. En general toda señal en el sentido práctico tiene
duración finita, por lo que la energía es finita.

La energía se define como:

o de una forma más general incluyendo señales de tipo compleja:

o se considera solo como energía como el área bajo la curva, o integral de la señal, debido
a que puede contener áreas de signo negativo que pueden cancelar la media. El cuadrado
de la señal será siempre positivo.

La señal tiene que ser de tipo finita para que la medida tenga significado.
Una condición necesaria para que la señal sea finita es que su amplitud → 0 cuando |t|→ ∞.
En cualquier otro caso la integral no converge.

Para una señal discreta:

teorema integral de Fourier a la expresión

cual se obtiene al sustituir la transformada de Fourier F ()en la expresión para la


transformada inversa de Fourier f(t), tal como se muestra a continuación

Partiendo de la ecuación en donde hemos sustituido la definición de F () dada por la


ecuación, tenemos la ecuación

Se puede escribirse como

Correlación, Autocorrelación y Potencia.


• Correlación:
Es una medida de la similitud entre las dos señales tanto en morfología como en
ubicación temporal. La función correlación cruzada representa la evolución de esta
similitud según varía .

• Autocorrelación: se define como la correlación cruzada de la señal consigo misma.


La función de autocorrelación resulta de gran utilidad para encontrar patrones
repetitivos dentro de una señal, como la periodicidad de una señal enmascarada
bajo el ruido o para identificar la frecuencia fundamental de una señal que no
contiene dicha componente, pero aparecen numerosas frecuencias armónicas de
esta.

• Potencia: Es la magnitud física escalar que caracteriza o mide la rapidez con que el
cuerpo realiza trabajo o intercambia energía con otro cuerpo.

También podría gustarte