Está en la página 1de 9

Ecuaciones no lineales y sus métodos de solución

Héctor Joshua Rodríguez Hernandez 17/02/2024


Métodos Numéricos Ciudad Juárez, Chihuahua, Mexico
Introducción
Las ecuaciones no lineales son expresiones matemáticas en las que una o más incógnitas
están relacionadas de manera no lineal, es decir, no siguen la forma de una línea recta
cuando se representan gráficamente. Resolver estas ecuaciones es crucial en una variedad
de campos, desde la física y la ingeniería hasta la economía y la biología. Los métodos para
resolver ecuaciones no lineales son herramientas fundamentales en el arsenal de un
matemático o científico. A diferencia de las ecuaciones lineales, que tienen métodos de
resolución directa, las ecuaciones no lineales requieren enfoques más sofisticados y a
menudo iterativos. En esta introducción, exploraremos algunos de los métodos más
comunes para resolver ecuaciones no lineales, desde técnicas básicas como el método de
bisección y el método de la secante hasta métodos más avanzados como el método de
Newton-Raphson y el método de iteración de punto fijo. Cada uno de estos métodos tiene
sus propias fortalezas y debilidades, y su elección depende en gran medida de la naturaleza
específica de la ecuación y de los requisitos de precisión y eficiencia del problema en
cuestión.
Ecuaciones no lineales
Una ecuación no lineal es una ecuación en la que al menos una de las variables no aparece
en una relación lineal. En otras palabras, las potencias de las variables no son solo 1, sino
que pueden ser 2, 3, o cualquier otra potencia. Por ejemplo, una ecuación no lineal podría
ser Y=𝑥 2 +3x−2y=x2+3x−2. Resolver ecuaciones no lineales es un problema común en
matemáticas y ciencias aplicadas. A menudo, no hay soluciones analíticas directas o
fórmulas cerradas para estas ecuaciones, por lo que se recurre a métodos numéricos para
encontrar soluciones aproximadas. Estos métodos involucran técnicas como iteraciones,
métodos de aproximación sucesiva, métodos de Newton-Raphson, métodos de bisección,
entre otros, para encontrar soluciones que satisfagan la ecuación dentro de cierta tolerancia
especificada.
Métodos de solución de las ecuaciones no lineales
1. Método de bisección
El método de bisección para resolver la ecuación f(x) = 0 se basa en el teorema de
Bolzano garantiza que tenemos al menos una de las raíces de una función f(x) en un
intervalo específico [a, b] bajo condiciones específicas. Supongamos que f(x) es
continua y cambia de signo al final de [a, b]. Según el teorema anterior, podemos
resolver aproximadamente la ecuación f(x) = 0 dividiendo el intervalo inicial en dos
subintervalos iguales y eligiendo aquel en el que f(x) cambie de signo. Luego
repitiendo el proceso hasta que se verifique un determinado criterio de parada.
2. Método de Regula-Falsi
Se trata de realizar un refinamiento del Método de Bisección, eligiendo
la aproximación m a distancias de a y b proporcionales a f(a) y f(b).
La ecuación de la recta que pasa por los puntos (a, f(a)) y (b, f(b)) es
y − f(a)
f(b) − f(a)
=x–1
b−a
de donde se tiene que el corte con el eje OX es, haciendo x = 0 y despejando
y, el valor m =
af(b) − bf(a)
f(b) − f(a)

3. Método de secante
En análisis numérico el método de la secante es un método para encontrar los ceros
de una función de forma iterativa. Es una variación del método de Newton-Raphson
donde en vez de calcular la derivada de la función en el punto de estudio, teniendo
en mente la definición de derivada, se aproxima la pendiente a la recta que une la
función evaluada en el punto de estudio y en el punto de la iteración anterior. Este
método es de especial interés cuando el coste computacional de derivar la
función de estudio y evaluarla es demasiado elevado, por lo que el método de
Newton no resulta atractivo. En otras palabras, el método de la secante es un
algoritmo de la raíz de investigación que utiliza una serie de raíces de las líneas
secantes para aproximar mejor la raíz de una función f. El método de la secante
se puede considerar como una aproximación en diferencias finitas del método de
Newton-Raphson. Sin embargo, este método fue desarrollado independientemente
de este último.
El método se define por la relación de recurrencia:

Como se puede ver, este método necesitará dos aproximaciones iniciales de la raíz para
poder inducir una pendiente inicial.

4. Método de Newton-Raphson
El método de Newton-Raphson es un método abierto, en el sentido de que su
convergencia global no está garantizada. La única manera de alcanzar la
convergencia es seleccionar un valor inicial lo suficientemente cercano a la raíz
buscada. Así, se ha de comenzar la iteración con un valor razonablemente
cercano al cero (denominado punto de arranque o valor supuesto). La relativa
cercanía del punto inicial a la raíz depende mucho de la naturaleza de la propia
función; si ésta presenta múltiples puntos de inflexión o pendientes grandes en el
entorno de la raíz, entonces las probabilidades de que el algoritmo diverja
aumentan, lo cual exige seleccionar un valor supuesto cercano a la raíz. Una vez se
ha hecho esto, el método linealiza la función por la recta tangente en ese valor
supuesto. La abscisa en el origen de dicha recta será, según el método, una mejor
aproximación de la raíz que el valor anterior. Se realizarán sucesivas iteraciones
hasta que el método haya convergido lo suficiente.

Sea f : [a, b] -> R función derivable definida en el intervalo real [a, b]. Empezamos
con un valor inicial x0 y definimos para cada número natural n
Donde f ' denota la derivada de f.
Nótese que el método descrito es de aplicación exclusiva para funciones de una sola
variable con forma analítica o implícita cognoscible. Existen variantes del
métodos aplicables a sistemas discretos que permiten estimar las raíces de la
tendencia, así como algoritmos que extienden el método de Newton a sistemas
multivariables, sistemas de ecuaciones, etc.

5. Métodos Iterativos
Se trata de transformar la ecuación f(x) = 0 (cálculo de una raíz de la función f(x))
en una ecuación del tipo x = g(x) (cálculo de un punto fijo de la función g(x)) de
forma que sean equivalentes, es decir, tengan la misma solución.
6. Método de Steffensen

El método de Steffensen presenta una convergencia rápida y no requiere, como en el


caso del método de la secante, la evaluación de derivada alguna. Presenta, además,
la ventaja adicional de que el proceso de iteración sólo necesita un punto inicial.
Este método calcula el siguiente punto de iteración a partir de la expresión:

Método Ventajas Desventajas


- Convergencia garantizada - Convergencia lenta en
si se cumplen las comparación con otros
condiciones de existencia y métodos.
unicidad de la raíz.
- Requiere que el intervalo
Método de Bisección - Fácil implementación. inicial contenga la raíz.
- Robusto y fácil de
entender. - No se puede aplicar en
casos donde la función
cambia de signo dentro del
intervalo.
Método de Regula-Falsi - Convergencia más rápida - Puede diverger si la
que el método de bisección. función tiene un
comportamiento irregular
- No requiere la derivada de dentro del intervalo.
la función.
- Requiere que el intervalo
- Menos iteraciones que la inicial contenga la raíz.
bisección en algunos casos.
Método de la Secante - No requiere calcular la - La convergencia puede ser
derivada de la función, solo más lenta que el método de
evaluaciones de la misma. Newton-Raphson.

- Puede converger más - Puede diverger si la


rápido que el método de secante se aleja demasiado
bisección. de la raíz.
Método de Newton-Raphson - Convergencia rápida si se - Requiere el cálculo de la
parte de una buena derivada de la función, lo
estimación inicial cerca de que puede ser difícil o
la raíz. costoso en algunos casos.
- Eficiente para sistemas de - No siempre converge si la
ecuaciones no lineales. derivada se anula o es
cercana a cero en algún
- Puede diverger si la punto.
estimación inicial está lejos
de la raíz o si la función
tiene un comportamiento
irregular.
Método Iterativo - Puede aplicarse a una - La convergencia no está
amplia variedad de garantizada y puede
funciones. depender de la elección de
los parámetros de iteración.
- Flexibilidad en la
implementación y ajuste de - La velocidad de
los parámetros de iteración. convergencia puede ser
lenta en comparación con
otros métodos si no se
eligen adecuadamente los
parámetros.
Método de Steffensen - Convergencia cuadrática - Requiere una estimación
bajo ciertas condiciones. inicial cercana a la raíz para
garantizar la convergencia.
- No requiere calcular la
derivada de la función, solo - Puede diverger si la
evaluaciones de la misma. estimación inicial no está lo
suficientemente cerca de la
raíz o si la función tiene un
comportamiento irregular.
Bibliografía

✓ Maths, S. (s/f). Sistemas de ecuaciones no lineales. Sangakoo.com.

Recuperado el 18 de febrero de 2024, de

https://www.sangakoo.com/es/temas/sistemas-de-ecuaciones-no-lineales

✓ Vigil, J. C., & Paihua, P. L. (s/f). Application of numerical methods to solve

nonlinear equations for sea wave modeling. Edu.pe. Recuperado el 18 de

febrero de 2024, de

https://www.urp.edu.pe/pdf/id/2555/n/app#:~:text=M%C3%A9todo%20d

e%20la%20secante&text=Es%20una%20variaci%C3%B3n%20del%20m%C

3%A9todo,punto%20de%20la%20iteraci%C3%B3n%20anterior.

✓ (S/f-a). Ugr.es. Recuperado el 18 de febrero de 2024, de

https://www.ugr.es/~mpasadas/ftp/Tema2_apuntes.pdf

También podría gustarte