Está en la página 1de 3

1

Métodos para resolver una raíz cuadrada


Elizalde Hernández Sergio Arturo, Márquez Solís Eric, Salazar Cruz Kenia, Vazquez Pedraza Genaro Caleb.
Universidad Autónoma Metropolitana
Posgrado en Ciencias y Tecnologías de la Información
09340 Iztapalapa, Ciudad de México, México

I. I NTRODUCCIÓN Métodos cerrados


Encierran la función en un intervalo donde la función
La búsqueda de algoritmos óptimos que faciliten la solución de cambia de signo para que se asegure que existe una raíz
problemas ha sido tarea fundamental desde hace muchos años, dentro de ese intervalo, para después reducir por medio
con el desarrollo de nuevas tecnologías los algoritmos han sido de los algoritmos el tamaño del intervalo. Como ejemplos
parte fundamental en la resolución eficiente, fácil y rápida de estos métodos se encuentran los siguientes:
de ciertos problemas. El análisis numérico es la búsqueda
de algoritmos para llegar a la solución de problemas de una • Teorema de Bolzano
manera rápida y con el menor esfuerzo posible, utilizando • Método de bisección
operaciones aritméticas. Por ello las computadoras son un gran • Método de la regla falsa
aliado para el desarrollo de algoritmos. El análisis numérico Métodos abiertos
propone aproximaciones en cuanto a los resultados obtenidos; A diferencia de los métodos cerrados estos únicamente
sin embargo, ofrece velocidad al solucionar algún problema necesitan contar con un valor inicial ya que no deben
ya que las computadoras son capaces de realizar operaciones encerrar la raíz. En caso de que la operación converga,
matemáticas eficientemente. Uno de los problemas básicos del se encuentra la manera más efectiva para encontrar las
análisis numérico es el problema de búsqueda de raíces, si raíces. Algunos métodos abiertos son:
una ecuación algebraica luce complicada, las raíces pueden no
encontrarse de una forma exacta por ende se trata de encontrar • Método de la secante
resultados aproximación a los reales [1]. • Método de punto fijo
• Sistemas de ecuaciones no lineales
• Método de Newton-Raphson
II. E STADO DEL ARTE
Método de separación de raíces
En las computadoras y calculadoras de mano, la raíz cuadrada Este método se basa en que para cada raíz existe un entorno
y otras funciones trascendentales se calculan mediante fun- que no contiene otras raíces de la ecuación, y el cálculo
ciones sofisticadas, tales como la serie de Taylor, algoritmos aproximado de las raíces separadas de una función se efectúa
digito por digito como CORDIC (Coordinate Rotation DIgital en dos pasos etapas:
Computer), o el método de Newton-Raphson. [2] La mayoría
de los procesadores modernos (x86 o núcleos ARM) cuentan 1) Se establecen los intervalos más pequeños posibles [a,b]
con hardware e instrucciones para calcular directamente la raíz que contengan una sola raíz de la función
cuadrada. La implementación de estas instrucciones varía, pero
2) Mejorar los valores de las raíces aproximadas, es decir,
por lo general es un algoritmo dígito a dígito (en base dos,
manipularlos hasta que presenten el grado de exactitud espe-
cuatro o dieciséis).
cificado
En procesadores que no cuentan con instrucciones para
calcular la raíz cuadrada (Itanium, PPC, otros), el enfoque El proceso consiste en establecer los signos de la función
típico es el de generar una estimación inicial (ya sea con una en los puntos extremos; después, se determinan los signos de
instrucción que la produce o con una tabla de búsqueda) para la función para un número intermedio de puntos. Si se cumple
posteriormente refinar esta estimación utilizando un método que f(ak) x f(ak+1) <0, entonces existe una raíz de la función
iterativo (por lo general Newton o Goldschmidt).[2] en el intervalo (ak ,ak+1) [1].
Las técnicas para resolver raíces cuadradas han evolucio- Método de la posición falsa Se presume que el método
nado con el tiempo, estas técnicas van desde las básicas converge más rápidamente que el método de la bisección, esto
de cómo resolverlas manualmente hasta encontrar algoritmos debido a que se utiliza una posición falsa ya que al utilizar una
sofisticados para la solución de éstas de una forma aproximada secante para encontrar las raíces, ésta se cambia por una recta
y rápida. Si bien, en ecuaciones algebraicas complicadas no es que hace que la intersección entre la secante con el eje x sea
difícil encontrar las raíces, éstas resultan aproximadas. Existen una mejor aproximación para la solución de las raíces. Uno
métodos que se caracterizan por ser más exactos y óptimos de los problemas con este algoritmo es que pueden aparecer
que otros. Los métodos se pueden organizar de dos formas, problemas de estancamiento con los valores obtenidos de la
métodos abiertos y métodos cerrados [2]: iteración [3].
2

Método del punto fijo El método de punto fijo consiste en


que dada una función g es un número p para el cual g(p)=p.
Esto significa que para cada función g se puede encontrar un
punto fijo. Entonces, cada problema de búsqueda de raíces de
una función f tiene solucionesen los puntos fijos g(x)=x con
g(x)=x-f(x). Ésta técnica del punto fijo conduce a la obtención
1.png más fácil de analizar para conseMétodoguir las raíces de la
función. El problema de este método es identificar los puntos
Figura 1. a) función convexa sustituida por una recta, b) función cóncava
sustituida por una recta [3]. fijos y cómo estos pueden ser determinados, es decir, cómo se
pueden aproximar dentro de una precisión específica [3][4].
Método de la bisección Este método fue el primero que se Se puede observar el algoritmo en la Figura 3.
basó en el teorema del valor intermedio y en la aplicación
reiterada del teorema de Bolzano. Si f es una función continua
definida sobre un intervalo cerrado [a, b] tal que f(a) xf (b)
<0 entonces f debe tener un cero en ] a, b [[3]. El algoritmo
puede apreciarse a continuación.

Figura 4. Algoritmo del punto fijo.

Método de Newton-Raphson Es uno de los algoritmos más


poderosos y conocidos para encontrar raíces. Este método se
puede deducir como una técnica para obtener una convergencia
más rápida que la de otros algoritmos de iteraciones funcio-
nales. El algoritmo de Newton-Raphson está basado en los
Figura 2. Algoritmo de bisección. polinomios de Taylor, en donde se reemplaza una función no
lineal por otra que sí lo es, por lo que se tienen aproximaciones
Método de la secante Este método, a diferencia del método de a las raíces del polinomio, al utilizar la aproximación por la
bisección y de la regla falsa, casi nunca falla ya que se requie- tangente, es necesario manejar derivadas y es justo uno de
ren dos puntos al principio y después se va retroalimentando. los problemas con dicho algoritmo ya que se debe encontrar
Lo que hace el algoritmo es sacar tangentes de la función f(x) la derivada de la función la cual suele ser compleja, esto sin
para así ir aproximando la intersección de esas rectas con el contar con que algunas veces puede ser cero. En la Figura 4
eje X para obtener la raíz aproximada. puede observarse el algoritmo.

Figura 5. Algoritmo de Newton-Raphson.

III. A NÁLISIS DE RESULTADOS


Para poder evaluar la eficiencia de los algoritmos debemos
considerar una medida que nos indique independientemente
de las características de la plataforma en donde se ejecutan
Figura 3. Algoritmo de la secante. la implementación de los algoritmos, por lo que se tomará
3

el número de operaciones primitivas como medida de com-


plejidad, a esto se le denomina notación asintótica, para este
estudio se usará la notación Big-O. Se investigó el orden de los
algoritmos mencionados anteriormente, los datos se muestran
en la tabla.
Los distintos algoritmos tienen complejidades similares por
lo que es posible hacer una diferencia entre ellos basados en
la velocidad de convergencia, demostrando ser el método de
Newton-Raphson el que converge más rápido[4].
Separación de Posición Falsa Bisección Newton
Bolzano y Rolle (Regula Falsi) Raphson
Orden O(n4 L) O(n) O(n) O(n)
Cuadro I
TABLA COMPARATIVA DE COMPLEJIDADES

IV. C ONCLUSIÓN
Los distintos algoritmos expuestos tienen complejidades simi-
lares por lo que es posible hacer una diferencia entre ellos
basados en la velocidad de convergencia, demostrando ser el
método de Newton-Raphson el que converge más rápido.

R EFERENCIAS
[1] “Solución de Ecuaciones no Lineales.” 06-feb-2016. Disponible en
<http://goo.gl/XhDJjJ>
[2] M. Hesham, “Best Square Root Method - Algorithm - Function (Precision
VS Speed).” 15-feb-2015.
[3] Burden Richard, Faires J. Douglas, Análisis numérico, 2a. Ed., Iberoa-
mericana 1996. pp. 41-71.
[4] Análisis de Algoritmos. Instituto Politécnico Nacional. Edgardo Adrián
Franco Martínez. Junio 2015.

También podría gustarte