Está en la página 1de 5

UNIVERSIDAD DE LAS FUERZAS ARMADAS – ESPE-L

DEPARTAMETO DE ELÉCTRICA Y ELECTRÓNICA

Integrantes: Jordan Stalin Ipiales Jimenez.


Asignatura: Instrumentación y sensores.
Fecha: 28/10/2018
TAREA 1.2

Tema: Consultar el fundamento sobre 2 procesos de linealización se señales. Realizar un


ejemplo práctico y presentar (simulación).

INTRODUCCION:

En matemáticas y sus aplicaciones, la linealización se refiere al proceso de encontrar la


aproximación lineal a una función en un punto dado. En el estudio de los sistemas
dinámicos, la linealización es un método para estudiar la estabilidad local de un punto de
equilibrio de un sistema de ecuaciones diferenciales no lineales. Este método se utiliza en
campos tales como la ingeniería, la física, la economía, y la biología.

El resultado de la linealización de una función es una función lineal que normalmente se


utiliza con finalidades de cálculo. La linealización es un método eficaz que se utiliza para
aproximar el resultado de una función en un punto cualquiera a partir de la pendiente y del
valor de la función al punto.

MARCO TEÓRICO:

METODO DE LOS MINIMOS CUADRADOS

Mínimos cuadrados es una técnica de análisis numérico enmarcada dentro de la


optimización matemática, en la que, dados un conjunto de pares ordenados —variable
independiente, variable dependiente y una familia de funciones, se intenta encontrar la
función continua, dentro de dicha familia, que mejor se aproxime a los datos (un "mejor
ajuste"), de acuerdo con el criterio de mínimo error cuadrático.
En su forma más simple, intenta minimizar la suma de cuadrados de las diferencias en las
ordenadas (llamadas residuos) entre los puntos generados por la función elegida y los
correspondientes valores en los datos. Específicamente, se llama mínimos cuadrados
promedio (LMS) cuando el número de datos medidos es 1 y se usa el método de descenso
por gradiente para minimizar el residuo cuadrado. Se puede demostrar que LMS minimiza
el residuo cuadrado esperado, con el mínimo de operaciones (por iteración), pero requiere
un gran número de iteraciones para converger.
Desde un punto de vista estadístico, un requisito implícito para que funcione el método
de mínimos cuadrados es que los errores de cada medida estén distribuidos de forma
aleatoria. El teorema de Gauss-Márkov prueba que los estimadores mínimos cuadráticos
carecen de sesgo y que el muestreo de datos no tiene que ajustarse, por ejemplo, a una
distribución normal. También es importante que los datos a procesar estén bien escogidos,
para que permitan visibilidad en las variables que han de ser resueltas (para dar más peso
a un dato en particular, véase mínimos cuadrados ponderados).

La técnica de mínimos cuadrados se usa comúnmente en el ajuste de curvas. Muchos otros


problemas de optimización pueden expresarse también en forma de mínimos cuadrados,
minimizando la energía o maximizando la entropía.

Recta que más se aproxima a la curva:

𝑦 = 𝑚𝑥 + 𝑏 𝐸𝐶. 1

(∑ 𝑥)(∑ 𝑦)
∑ 𝑥𝑦 −
𝑚= 𝑛 𝐸𝐶. 2
(∑ 𝑥)2
∑ 𝑥2 −
𝑛

∑𝑦 ∑𝑥
𝑏= − (𝑚) ( ) 𝐸𝐶. 3
𝑛 𝑛
METODO DE AJUSTE POTENCIAL
𝒚 = 𝑨𝒙𝑴

La regresión examina la relación entre dos variables, pero restringiendo una de ellas con
el objeto de estudiar las variaciones de una variable cuando la otra permanece constante.
En otras palabras, la regresión es un método que se emplea para predecir el valor de una
variable en función de valores dados a la otra variable.
En todos los casos de regresión existe una dependencia funcional entre las variables. En
el caso de dos variables, siendo una de ellas (X) variable independiente y la otra (Y) la
dependiente, se habla de regresión de Y sobre X; Por ejemplo, los ingenieros forestales
utilizan la regresión de la altura de los árboles sobre su diámetro, lo cual significa que
midiendo el diámetro (variable independiente) y reemplazando su valor en una relación
definida según la clase de árbol se obtiene la altura, y aun sin necesidad de cálculos
aprecian la altura utilizando gráficas de la función de dependencia, altura = función del
diámetro.
Será aquella en la que la función de ajuste sea una función potencial del tipo:

𝑦 = 𝑎. 𝑥 2

También en este caso se resuelve linealizando la función tomando logaritmos ya que:

log(𝑦) = log(𝑎) + 𝑏 𝑙𝑜𝑔(𝑥)

Considerando las nuevas variables v = log y u= log x resolveríamos la regresión lineal


entre ellas de forma que si el resultado fuera: v*= A +B u

La solución final quedaría como a= antilog A y b= B

METODO DE AJUSTE EXPONENCIAL


𝒚 = 𝑪𝒆𝑨𝒙
Será aquella en la que la función de ajuste será una función exponencial del tipo

𝑦 = 𝑎. 𝑥 2

La regresión exponencial aunque no es lineal es linealizable tomando logaritmos ya que


haciendo el cambio de variable v = log y tendremos que la función anterior nos
generaría:
𝑣 = log(𝑦) = log(𝑎. 𝑏𝑥) = log(𝑎) + 𝑥 log(𝑏)

la solución de nuestro problema vendría de resolver la regresión lineal entre v ý x,


y una vez obtenida supuesta ésta: v* = A + B x ; obviamente la solución
final será:
a = antilog A y b = antilog B.
Para obtener la curva exponencial de mejor ajuste de la forma y=Arx.
1.- Obtenga la recta de regresión usando los datos (x logy) .Los coeficientes deseados A
y r son entonces r A =10m =10b donde m y b son la pendiente e intersección de la recta
de regresión.

OTRAS FORMAS DE REGRESION

A la herramienta de regresión se puede encontrar también curvas de


regresión de las siguientes formas:

y = ax2+bx+c (Regresión cuadrática)

y = ax3+bx2+cx+d (Regresión cúbica)

y = axb (Regresión potencia)

y = ax4+bx3+cx2+dx+e (Regresión cuártica)

y = asin(bx+c) (Regresión seno)

CONCLUSIONES:

 Se logró transformar el sistema no-lineal en uno lineal haciendo una


transformación apropiada de sus variables.
 Se puede simular el sistema no-lineal usando una computadora analógica o
digital y calcular su solución numéricamente.
 Se logró desarrollar un sistema lineal que aproxime el comportamiento dinámico
del sistema no-lineal alrededor del punto específico de operación.
 El método de Mínimos Cuadrados Determinista es propiamente un método de
aproximación. Su interpretación geométrica nos conduce a un importante
principio: el principio de ortogonalidad cuya validez es extensible a cualquier
espacio.
BIBLIOGRAFÍA:

[1] M.B. Broughton. IEEE Transctions on Instrumentation and Measurement , Vol IM 23, No. 1,
pp 1 - 8 , March, 1974.

[2] Anwar A. Khan, R. Sengupta IEEE Transctions on Instrumentation and Measurement Vol IM
– 33, No.1 pp. 2-4, March, 1984

SIMULACION:

También podría gustarte