Documentos de Académico
Documentos de Profesional
Documentos de Cultura
A causa de que la mayor parte de los métodos expuestos en este libro son muy sencillos en su descripción y en sus
aplicaciones, en este momento resulta tentador ir directamente al cuerpo principal del texto y averiguar el empleo de
dichas técnicas. Sin embargo, entender el concepto de error es tan importante para utilizar en forma efectiva los métodos
numéricos que los dos siguientes capítulos se eligieron para tratar el tema.
En muchos problemas de aplicación en ingeniería no es posible obtener la solución analítica; por lo tanto, no se pueden
calcular con exactitud los errores en nuestros métodos numéricos. En tales casos debemos usar aproximaciones o
estimaciones de los errores. La mayor parte de las técnicas desarrolladas en este libro tienen la característica de poseer
errores. En primera instancia, esto puede parecer contradictorio, ya que no coincide con la imagen que se tiene de una
buena ingeniería. Los estudiantes y los practicantes de la ingeniería trabajan constantemente para limitar este tipo de
errores en sus actividades. Cuando hacen un examen o realizan sus tareas, son sancionados, mas no premiados por sus
errores. En la práctica profesional, los errores llegan a resultar costosos y, en algunas ocasiones, catastróficos. Si una
estructura o un dispositivo falla, esto puede costar vidas. Aunque la perfección es una meta digna de alabarse, es difícil, si
no imposible, alcanzarla. De nuevo, las preguntas son: ¿qué tanto error se presenta en los cálculos? y ¿es tolerable? Este
capítulo y el siguiente cubren aspectos básicos relacionados con la identificación, cuantificación y minimización de dichos
errores. En las primeras secciones se revisa la información referente a la cuantificación de los errores. En seguida, se
estudia uno de los dos errores numéricos más comunes: errores de redondeo. Los errores de redondeo se deben a que la
computadora tan sólo representa cantidades con un número finito de dígitos.
CIFRAS SIGNIFICATIVAS
El concepto de cifras o dígitos significativos se ha desarrollado para designar formalmente la confiabilidad de un valor
numérico. Las cifras significativas de un número son aquellas que pueden utilizarse en forma confiable. Se trata del
número de dígitos que se ofrecen con certeza, más uno estimado. Por ejemplo, el velocímetro y el odómetro de la figura
muestran lecturas de hasta tres y siete cifras significativas, respectivamente. Para el velocímetro, los dos dígitos seguros
son 48. Por convención al dígito estimado se le da el valor de la mitad de la escala menor de división en el instrumento de
medición.
Aunque, por lo común, determinar las cifras significativas de un número es un procedimiento sencillo, en algunos casos
genera cierta confusión. Por ejemplo, los ceros no siempre son cifras significativas, ya que pueden usarse sólo para ubicar
el punto decimal: los números 0.00001845, 0.0001845 y 0.001845 tienen cuatro cifras significativas. Asimismo, cuando se
incluye ceros en números muy grandes, no queda claro cuántos son significativos. Por ejemplo, el número 45 300 puede
tener tres, cuatro o cinco dígitos significativos, dependiendo de si los ceros se conocen o no con exactitud. La
incertidumbre se puede eliminar utilizando la notación científica, donde 4.53 × 104, 4.530 × 104, 4.5300 × 104 muestran,
respectivamente, que el número tiene tres, cuatro y cinco cifras significativas. El concepto de cifras significativas tiene dos
implicaciones importantes en el estudio de los métodos numéricos.
1) Los métodos numéricos dan resultados aproximados. Por lo tanto, se deben desarrollar criterios para especificar
qué tan confiables son dichos resultados. Una manera de hacerlo es en términos de cifras significativas. Por
ejemplo, es posible afirmar que la aproximación es aceptable siempre y cuando sea correcta con cuatro cifras
significativas.
2) Aunque ciertas cantidades tales como π, e o √7 representan cantidades específicas, no se pueden expresar
exactamente con un número finito de dígitos. Por ejemplo,
π = 3.141592653589793238462643...
Como las computadoras retienen sólo un número finito de cifras significativas, tales números jamás se podrán
representar con exactitud. A la omisión del resto de cifras significativas se le conoce como error de redondeo.
EXACTITUD Y PRECISIÓN
Los errores en cálculos y medidas se pueden caracterizar con respecto a su exactitud y su precisión. La exactitud se refiere
a qué tan cercano está el valor calculado o medido del valor verdadero. La precisión se refiere a qué tan cercanos se
encuentran, unos de otros, diversos valores calculados o medidos.
Estos conceptos se ilustran gráficamente utilizando la analogía con una diana en la práctica de tiro. Los agujeros en cada
blanco de la figura se consideran como las predicciones con una técnica numérica; mientras que el centro del blanco
representa la verdad. La inexactitud (conocida también como sesgo) se define como una desviación sistemática del valor
verdadero. Por lo tanto, aunque los disparos en la figura c
están más juntos que los de la figura a, los dos casos son
igualmente inexactos, ya que ambos se centran en la
esquina superior izquierda del blanco. La imprecisión
(también llamada incertidumbre), por otro lado, se refiere
a la magnitud en la dispersión de los disparos. Por
consiguiente, aunque las figuras b y d son igualmente
exactas (esto es, igualmente centradas respecto al blanco),
la última es más precisa, pues los disparos están agrupados
en forma más compacta. Los métodos numéricos deben ser
lo suficientemente exactos o sin sesgo para satisfacer los
requisitos de un problema particular de ingeniería.
También deben ser suficientemente precisos para ser
adecuados en el diseño de la ingeniería. En este libro se usa
el término error para representar tanto la inexactitud como
la imprecisión en las predicciones. Con dichos conceptos
como antecedentes, ahora analizaremos los factores que
contribuyen al error en los cálculos numéricos.
DEFINICIONES DE ERROR
Los errores numéricos surgen del uso de aproximaciones para representar operaciones y cantidades matemáticas exactas.
Éstas incluyen los errores de truncamiento que resultan del empleo de aproximaciones como un procedimiento
matemático exacto, y los errores de redondeo que se producen cuando se usan números que tienen un límite de cifras
significativas para representar números exactos. Para ambos tipos de errores, la relación entre el resultado exacto, o
verdadero, y el aproximado está dada por
Reordenando la ecuación se encuentra que el error numérico es igual a la diferencia entre el valor verdadero y el valor
aproximado, es decir
donde Et se usa para denotar el valor exacto del error. El subíndice t indica que se trata del error “verdadero” (true). Como
ya se mencionó brevemente, esto contrasta con los otros casos, donde se debe emplear una estimación “aproximada” del
error. Una desventaja en esta definición es que no toma en consideración el orden de la magnitud del valor que se estima.
Por ejemplo, un error de un centímetro es mucho más significativo si se está midiendo un remache en lugar de un puente.
Una manera de tomar en cuenta las magnitudes de las cantidades que se evalúan consiste en normalizar el error respecto
al valor verdadero, es decir
El error relativo también se puede multiplicar por 100% para expresarlo como
EJEMPLO Suponga que se tiene que medir la longitud de un puente y la de un remache, y se obtiene 9999 y 9 cm,
respectivamente. Si los valores verdaderos son 10000 y 10 cm, calcule a) el error verdadero y b) el error relativo porcentual
verdadero en cada caso.