Está en la página 1de 3

APROXIMACIONES Y ERRORES DE REDONDEO

A causa de que la mayor parte de los métodos expuestos en este libro son muy sencillos en su descripción y en sus
aplicaciones, en este momento resulta tentador ir directamente al cuerpo principal del texto y averiguar el empleo de
dichas técnicas. Sin embargo, entender el concepto de error es tan importante para utilizar en forma efectiva los métodos
numéricos que los dos siguientes capítulos se eligieron para tratar el tema.

En muchos problemas de aplicación en ingeniería no es posible obtener la solución analítica; por lo tanto, no se pueden
calcular con exactitud los errores en nuestros métodos numéricos. En tales casos debemos usar aproximaciones o
estimaciones de los errores. La mayor parte de las técnicas desarrolladas en este libro tienen la característica de poseer
errores. En primera instancia, esto puede parecer contradictorio, ya que no coincide con la imagen que se tiene de una
buena ingeniería. Los estudiantes y los practicantes de la ingeniería trabajan constantemente para limitar este tipo de
errores en sus actividades. Cuando hacen un examen o realizan sus tareas, son sancionados, mas no premiados por sus
errores. En la práctica profesional, los errores llegan a resultar costosos y, en algunas ocasiones, catastróficos. Si una
estructura o un dispositivo falla, esto puede costar vidas. Aunque la perfección es una meta digna de alabarse, es difícil, si
no imposible, alcanzarla. De nuevo, las preguntas son: ¿qué tanto error se presenta en los cálculos? y ¿es tolerable? Este
capítulo y el siguiente cubren aspectos básicos relacionados con la identificación, cuantificación y minimización de dichos
errores. En las primeras secciones se revisa la información referente a la cuantificación de los errores. En seguida, se
estudia uno de los dos errores numéricos más comunes: errores de redondeo. Los errores de redondeo se deben a que la
computadora tan sólo representa cantidades con un número finito de dígitos.

CIFRAS SIGNIFICATIVAS

En esta obra se trata de manera extensa con


aproximaciones que se relacionan con el manejo de
números. En consecuencia, antes de analizar los
errores asociados con los métodos numéricos, es útil
repasar algunos conceptos básicos referentes a la
representación aproximada de los números mismos.
Cuando se emplea un número para realizar un cálculo,
debe haber seguridad de que pueda usarse con
confianza. Por ejemplo, la figura muestra un
velocímetro y un odómetro (contador de kilometraje)
de un automóvil. Con un simple vistazo al velocímetro
se observa que el vehículo viaja a una velocidad
comprendida entre 48 y 49 km/h. Como la aguja está
más allá de la mitad entre las marcas del indicador, es
posible asegurar que el automóvil viaja
aproximadamente a 49 km/h. Tenemos confianza en este resultado, ya que dos o más individuos que hicieran esta lectura
llegarían a la misma conclusión. Sin embargo, supongamos que se desea obtener una cifra decimal en la estimación de la
velocidad. En tal caso, alguien podría decir 48.8, mientras que otra persona podría decir 48.9 km/h. Por lo tanto, debido a
los límites del instrumento, únicamente se emplean con confianza los dos primeros dígitos. Para estimaciones del tercer
dígito (o más allá) sólo se considerarían aproximaciones. Sería ridículo afirmar, considerando el velocímetro de la figura,
que el automóvil viaja a 48.8642138 km/h. En contraste, el odómetro muestra hasta seis dígitos confiables. De la figura se
concluye que el automóvil ha recorrido un poco menos de 87 324.5 km durante su uso. Aquí el séptimo dígito (y los
siguientes) resultan inciertos.

El concepto de cifras o dígitos significativos se ha desarrollado para designar formalmente la confiabilidad de un valor
numérico. Las cifras significativas de un número son aquellas que pueden utilizarse en forma confiable. Se trata del
número de dígitos que se ofrecen con certeza, más uno estimado. Por ejemplo, el velocímetro y el odómetro de la figura
muestran lecturas de hasta tres y siete cifras significativas, respectivamente. Para el velocímetro, los dos dígitos seguros
son 48. Por convención al dígito estimado se le da el valor de la mitad de la escala menor de división en el instrumento de
medición.

Aunque, por lo común, determinar las cifras significativas de un número es un procedimiento sencillo, en algunos casos
genera cierta confusión. Por ejemplo, los ceros no siempre son cifras significativas, ya que pueden usarse sólo para ubicar
el punto decimal: los números 0.00001845, 0.0001845 y 0.001845 tienen cuatro cifras significativas. Asimismo, cuando se
incluye ceros en números muy grandes, no queda claro cuántos son significativos. Por ejemplo, el número 45 300 puede
tener tres, cuatro o cinco dígitos significativos, dependiendo de si los ceros se conocen o no con exactitud. La
incertidumbre se puede eliminar utilizando la notación científica, donde 4.53 × 104, 4.530 × 104, 4.5300 × 104 muestran,
respectivamente, que el número tiene tres, cuatro y cinco cifras significativas. El concepto de cifras significativas tiene dos
implicaciones importantes en el estudio de los métodos numéricos.

1) Los métodos numéricos dan resultados aproximados. Por lo tanto, se deben desarrollar criterios para especificar
qué tan confiables son dichos resultados. Una manera de hacerlo es en términos de cifras significativas. Por
ejemplo, es posible afirmar que la aproximación es aceptable siempre y cuando sea correcta con cuatro cifras
significativas.
2) Aunque ciertas cantidades tales como π, e o √7 representan cantidades específicas, no se pueden expresar
exactamente con un número finito de dígitos. Por ejemplo,
π = 3.141592653589793238462643...
Como las computadoras retienen sólo un número finito de cifras significativas, tales números jamás se podrán
representar con exactitud. A la omisión del resto de cifras significativas se le conoce como error de redondeo.

EXACTITUD Y PRECISIÓN

Los errores en cálculos y medidas se pueden caracterizar con respecto a su exactitud y su precisión. La exactitud se refiere
a qué tan cercano está el valor calculado o medido del valor verdadero. La precisión se refiere a qué tan cercanos se
encuentran, unos de otros, diversos valores calculados o medidos.

Estos conceptos se ilustran gráficamente utilizando la analogía con una diana en la práctica de tiro. Los agujeros en cada
blanco de la figura se consideran como las predicciones con una técnica numérica; mientras que el centro del blanco
representa la verdad. La inexactitud (conocida también como sesgo) se define como una desviación sistemática del valor
verdadero. Por lo tanto, aunque los disparos en la figura c
están más juntos que los de la figura a, los dos casos son
igualmente inexactos, ya que ambos se centran en la
esquina superior izquierda del blanco. La imprecisión
(también llamada incertidumbre), por otro lado, se refiere
a la magnitud en la dispersión de los disparos. Por
consiguiente, aunque las figuras b y d son igualmente
exactas (esto es, igualmente centradas respecto al blanco),
la última es más precisa, pues los disparos están agrupados
en forma más compacta. Los métodos numéricos deben ser
lo suficientemente exactos o sin sesgo para satisfacer los
requisitos de un problema particular de ingeniería.
También deben ser suficientemente precisos para ser
adecuados en el diseño de la ingeniería. En este libro se usa
el término error para representar tanto la inexactitud como
la imprecisión en las predicciones. Con dichos conceptos
como antecedentes, ahora analizaremos los factores que
contribuyen al error en los cálculos numéricos.
DEFINICIONES DE ERROR

Los errores numéricos surgen del uso de aproximaciones para representar operaciones y cantidades matemáticas exactas.
Éstas incluyen los errores de truncamiento que resultan del empleo de aproximaciones como un procedimiento
matemático exacto, y los errores de redondeo que se producen cuando se usan números que tienen un límite de cifras
significativas para representar números exactos. Para ambos tipos de errores, la relación entre el resultado exacto, o
verdadero, y el aproximado está dada por

Valor verdadero = valor aproximado + error

Reordenando la ecuación se encuentra que el error numérico es igual a la diferencia entre el valor verdadero y el valor
aproximado, es decir

Et = valor verdadero – valor aproximado

donde Et se usa para denotar el valor exacto del error. El subíndice t indica que se trata del error “verdadero” (true). Como
ya se mencionó brevemente, esto contrasta con los otros casos, donde se debe emplear una estimación “aproximada” del
error. Una desventaja en esta definición es que no toma en consideración el orden de la magnitud del valor que se estima.
Por ejemplo, un error de un centímetro es mucho más significativo si se está midiendo un remache en lugar de un puente.
Una manera de tomar en cuenta las magnitudes de las cantidades que se evalúan consiste en normalizar el error respecto
al valor verdadero, es decir

El error relativo también se puede multiplicar por 100% para expresarlo como

donde denota el error relativo porcentual verdadero.

EJEMPLO Suponga que se tiene que medir la longitud de un puente y la de un remache, y se obtiene 9999 y 9 cm,
respectivamente. Si los valores verdaderos son 10000 y 10 cm, calcule a) el error verdadero y b) el error relativo porcentual
verdadero en cada caso.

También podría gustarte