Está en la página 1de 9

Métodos

numéricos
Métodos mínimos cuadrados
Se usa para encajar un conjunto de m observaciones con un modelo que es no lineal
en n parámetros desconocidos (m > n). Se utiliza en algunas formas de regresión no lineal. La
base del método es para aproximar el modelo por uno lineal y para refinar los parámetros por
iteraciones sucesivas. Hay muchas similitudes con mínimos cuadrados lineales, pero también
algunas diferencias importantes.

¿Como es?
Considere un conjunto de m observaciones, (X1, Y1), (X2, Y2), …, (Xm, Ym), y una curva
(función del, modelo) Y=f (X, B), que además de la variable X también depende de n
parámetros, B = (B1, B2, …, Bn), con m > n. Se desea encontrar el vector B de parámetros
tales que la curva se ajuste mejor a los datos dados en el sentido de mínimos cuadrados, es
decir, la suma de cuadrados.

esta es minimizada cuando los errores ri están dados por ri = Yi – f (Xi, B) para i = 1, 2, …,


m. El mínimo valor de S se produce cuando el gradiente es cero. Dado que el modelo contiene
'n parámetros hay n ecuaciones de gradiente:

En un sistema no lineal, los derivados son funciones tanto de la variable independiente y


los parámetros, por lo que estas ecuaciones gradiente no tienen una solución cerrada. En lugar
de ello, los valores iniciales deben ser elegidos para los parámetros. Entonces, los parámetros
se refinan iterativamente, es decir, los valores se obtienen por aproximación sucesiva,
Aquí, k es un número de iteración y el vector de incrementos, que se conoce como el
vector de desplazamiento. En cada iteración del modelo se linealiza por aproximación a un
primer orden en serie de Taylor de expansión sobre

El jacobiano, J, es una función de las constantes, la variable independiente y los parámetros,


por lo que cambia de una iteración a la siguiente. Por lo tanto, en términos del modelo
linealizado, y los residuos se dan por

Sustituyendo estas expresiones en las ecuaciones de gradiente, se convierten

que, en el reordenamiento, convertido en n ecuaciones lineales simultáneas,

Las ecuaciones normales se escriben en notación matricial como

Cuando las observaciones no son igualmente fiables, una suma ponderada de los cuadrados
puede ser minimizado,

Cada elemento de la matriz de peso diagonal W debería, idealmente, ser igual al recíproco de
la varianza de error de la medida. Las ecuaciones normales son entonces:

Método de regresión lineal


Es un modelo matemático usado para aproximar la relación de dependencia entre una variable
dependiente Y, m variables independiente Xi con m E Z+ y un término aleatorio E.

Este método es aplicable en muchas situaciones en las que se estudia la relación entre dos o
más variables o predecir un comportamiento, algunas incluso sin relación con la tecnología. En
caso de que no se pueda aplicar un modelo de regresión a un estudio, se dice que no hay
correlación entre las variables estudiadas. Este modelo puede ser expresado como:
Donde:

 Y es la variable dependiente o variable de respuesta.


 X1, X2, …, Xm son las variables explicativas, independientes o regresoras.
 B0, B1, B2, …, Bn son los parámetros del modelo, miden la influencia que las variables
explicativas tienen sobre el regrediendo.

El termino B0 es la intersección o término "constante", las Bi (I > 1) son los parámetros


respectivos a cada variable independiente, y m es el número de parámetros independientes a
tener en cuenta en la regresión. La regresión lineal puede ser contrastada con la regresión no
lineal.

¿Cómo es?
El modelo de regresión lineal será aplicado en aquellos casos en los que la variable Y sea
continua. El modelo lineal relaciona la variable dependiente Y con m variables regresoras Xj con
j = 1, 2, …, m o cualquier transformación de éstas que generen un hiperplano de parámetros
B0 desconocidos:  

Donde E es una variable aleatoria que recoge todos aquellos factores de la realidad no


controlables u observables y que por tanto se asocian con el azar, y es la que confiere al
modelo su carácter estocástico. En el caso más sencillo, con una sola variable explícita,
el hiperplano es una recta:

El problema de la regresión consiste en elegir unos valores determinados para los parámetros


desconocidos Bj, de modo que la ecuación quede completamente especificada. Para ello se
necesita un conjunto de observaciones o una muestra proveniente de este modelo. En una
observación i-esima i 0 (1, 2, …, n) cualquiera, se registra el comportamiento simultáneo de
la variable dependiente y las variables explícitas (las perturbaciones aleatorias se suponen no
observables).
Los valores escogidos como estimadores de los parámetros Bj, son los coeficientes de regresión
sin que se pueda garantizar que coincidan con parámetros reales del proceso generador. Por
tanto, en

Los valores Ei son por su parte estimaciones o errores de la perturbación aleatoria. Ei es el


residuo e indica la bondad del ajuste realizado para cada punto. Se calcula de la siguiente
forma

Una vez se ha obtenido la recta de regresión, es necesario comprobar la bondad del ajuste
realizado mediante el siguiente análisis ANOVA:

N = número de datos. Se compara F0 con valor F crítico (tabla F de Snedecor) con valor de
significación α, 1, y n-2 grados de libertad concluyendo: Si F0< Ft, el modelo es apropiado, Si
F0> Ft, el modelo utilizado no es apropiado.

Método de Simpson
Es un método de integración numérica que se utiliza para obtener la aproximación de
la integral:

En integración numérica, una forma de aproximar una integral definida en un intervalo [a,b]


es mediante la regla del trapecio, es decir, que sobre cada subintervalo en el que se divide
[a,b] se aproxima f por un polinomio de primer grado, para luego calcular la integral como
suma de las áreas de los trapecios formados en esos subintervalos. El método utilizado para la
regla de Simpson sigue la misma idea, pero aproximando los subintervalos de f mediante
polinomios de segundo grado.
¿Cómo es?
Consideramos el polinomio interpolador de orden dos P2 (X), que aproxima a la función
integrando f(X) entre los nodos x0 = a, x1 = b y m = (a +b)/2. La expresión de ese
polinomio interpolante, expresado a través de la interpolación polinómica de Lagrange es:

Así, la integral buscada

es equivalente a

donde E(f) es el término de error; por lo tanto, se puede aproximar como

Error
El término error E(f), llamado error global, corresponde a

Donde h = (b – a) /2 y E pertenece al intervalo [a, b].

Se puede calcular una estimación del error cometido al aproximar la integral mediante este
método. Si las cuatro primeras derivadas de f(x) son continuas en el intervalo, entonces el
error (en términos absolutos) está acotado como

Donde, de nuevo h = (b – a) /2 y E pertenece al intervalo [a, b].

Método trapezoidal
es un método de integración, es decir, un método para calcular aproximadamente el valor de
una integral definida. La regla se basa en aproximar el valor de la integral de f (X) por el de
la función lineal, que pasa a través de los puntos (a, f(a)) y (b, f(b)). La integral de esta
es igual al área del trapecio bajo la gráfica de la función lineal.

¿Cómo es?
Es necesario usar un polinomio de primer orden, y esta es representada por:

Entonces al sustituir en la integral tenemos lo siguiente:

Por último, al resolver esa integral nos queda:

Error
El término de error corresponde a: Siendo E un número
perteneciente al intervalo [a, b].

Método trapezoidal compuesto


La regla del trapecio compuesta o regla de los trapecios es una forma de aproximar una
integral definida utilizando n trapecios. En la formulación de este método se supone que f es
continua y positiva en el intervalo [a, b]. De tal modo la integral definida

representa el área de la región delimitada por la gráfica de f y el eje OX, desde X = a hasta
X = b. Primero se divide el intervalo [a, b] en n sub intervalos, cada uno de ancho

Después de realizar todo el proceso matemático se llega a la siguiente fórmula:


Donde y n es el numero de divisiones

La expresión anterior también se puede escribir como:

El error en esta aproximación se corresponde con:

Siendo n el número de subintervalos.

Método de George Boole


Es un método para simplificar los circuitos lógicos (o a veces llamados circuitos de
conmutación lógica) en electrónica digital. Podemos representar el funcionamiento de los
circuitos lógicos utilizando números, siguiendo algunas reglas, que son bien conocidas como
"Leyes del álgebra de Boole".

También podemos hacer los cálculos y las operaciones lógicas de los circuitos aún más rápido
siguiendo algunos teoremas, que se conocen como "Teoremas del álgebra de Boole". Una
función booleana es una función que representa la relación entre la entrada y la salida de un
circuito lógico.

¿Cómo es?
Al formular expresiones matemáticas para circuitos lógicos es importante tener conocimiento
del álgebra booleana, que define las reglas para expresar y simplificar enunciados lógicos
binarios. Una barra sobre un símbolo indica la operación booleana NOT, que corresponde a la
inversión de una señal.

Leyes Fundamentales
Leyes conmutativas Leyes asociativas
A + B = B + A
A ∙ B = B ∙ A

Otras identidades útiles Leyes distributivas


A + (A ∙ B) = A
A ∙ (A + B) = A
A + (A ∙ B) = A + B
(A + B) ∙ (A + B) = A
(A + B) ∙ (A + C) = A + (B ∙ C)
A + B + (A ∙ B) = A + B
(A ∙ B) + (B ∙ C) + (B ∙ C) = (A ∙ B) + C
(A ∙ B) + (A ∙ C) + (B ∙ C) = (A ∙ B) + (B ∙ C)

Ejemplo de simplificación
Se va a simplificar la siguiente expresión aplicando las leyes e identidades booleanas
mencionadas: E = (X ∙ Y ∙ Z) + (Y ∙ Z) + (X ∙ Y)

Es posible aplicar la ley asociativa y la ley fundamental de que A ∙ 1 = A:

E = X ∙ (Y ∙ Z) + 1 ∙ (Y ∙ Z) + (X ∙ Y)

Ahora es posible factorizar el termino (Y ∙ Z): E = (X + 1) ∙ (Y ∙ Z) + (X ∙ Y)

Dado que A + 1 = 1 según las leyes fundamentales por lo tanto X + 1 = 1:

E = 1 ∙ (Y ∙ Z) + (X ∙ Y)

Al realizar la operación tendremos ya simplificada la expresión: E = (Y ∙ Z) + (X ∙ Y)

Aún podemos simplificar la expresión al factorizar Y: E = Y ∙ (Z + X)


Nicolas Santander Vitola

También podría gustarte