Está en la página 1de 8

TECNOLÓGICO NACIONAL DE MÉXICO, CAMPUS

VALLADOLID
MÉTODOS NUMÉRICOS
MAESTRO:
M.M JORGE MANUEL POOL CEN

SEGUNDO SEMESTRE
INGENIERIA CIVIL

GRUPO: B

ALUMNO:
AARON EZEQUIEL EUAN HUCHIM

ACTIVIDAD: 1.1 MÉTODOS NUMÉRICOS


“INVESTIGACIÓN SOBRE LOS CONCEPTOS DE MÉTODOS
NUMÉRICOS”
METODOS NUMERICOS
ACTIVIDAD 1.1
Cifra significativa:
El concepto de cifra significativa lo podemos definir como aquella que aporta
información no ambigua ni superflua acerca de una determinada medida
experimental, son cifras significativas de un numero vienen determinadas por su
error. Son cifras que ocupan una posición igual o superior al orden o posición de
error.
Cuando se emplea un número en un cálculo, debe haber seguridad de que pueda
usarse con confianza. El concepto de cifras significativas tiene dos implicaciones
importantes en el estudio de los métodos numéricos.
1.- Los métodos numéricos obtienen resultados aproximados. Por lo tanto, se
debe desarrollar criterios para especificar qué tan precisos son los resultados
obtenidos.
2.- Aunque ciertos números representan número específicos, no se pueden
expresar exactamente con un número finito de cifras.
Reglas de operaciones con cifras significativas.
Regla 1: los resultados experimentales se expresan con una sola cifra dudosa, e
indicando con + - la incertidumbre en la medida.
Regla 2: las cifras significativas se cuentan de izquierda a derecha, a partir del
primer dígito diferente de cero y hasta el digito dudoso.
Regla 3: al sumar o restar dos números decimales, el número de cifras decimales
del resultado es igual al de la cantidad con el menor número de ellas.
Regla 4: al multiplicar o dividir dos números, el número de cifras significativas del
resultado es igual al del factor con menos cifras.

Precisión
En ingeniería, ciencia, industria, estadística, exactitud y precisión no son
equivalentes. Es importante resaltar que la automatización de diferentes pruebas o
técnicas puede producir un aumento de la precisión. Esto se debe a que, con
dicha automatización, lo que logramos es una disminución de los errores
manuales o su corrección inmediata.
Precisión: se refiere a la dispersión del conjunto de valores obtenidos de
mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la
precisión. Una medida común de la variabilidad es la desviación estándar de las
mediciones y la precisión se puede estimar como una función de

Sesgo
La inexactitud es conocida como sesgo se refiere a que tan cercano está el valor
calculado del valor verdadero.
Es decir, sesgo es un error que aparece en los resultados.es entonces un
alejamiento sistemático del valor verdadero a calcular.
Un sesgo es un error sistemático que hace que todas las medidas estén desviadas
en una cierta cantidad. También se dice que es una característica de una medición
o de una estimación estadística tal que los resultados obtenidos al repetir la
medición o la estimación están afectados por errores sistemáticos en relación con
el valor convencionalmente verdadero.
Tipos de Errores
Los errores numéricos se generan con el uso de aproximaciones para representar
las operaciones y cantidades matemáticas. Estos incluyen de truncamiento que
resultan de representar aproximadamente un procedimiento matemático exacto, y
los errores de redondeo, que resultan de presentar aproximadamente números
exactos. Para los tipos de errores, la relación entre el resultado exacto o
verdadero y el aproximado está dado por:
E = P* - P
Bien sea una medida directa (la que da el aparato) o indirecta (utilizando una
fórmula) existe un tratamiento de los errores de medida. Podemos distinguir dos
tipos de errores que se utilizan en los cálculos:
Error absoluto.
Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede
ser positivo o negativo, según si la medida es superior al valor real o inferior (la
resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida.
Sin embargo, para facilitar el manejo y el análisis se emplea el error absoluto
definido como:
EA = | P* - P |
Error relativo.
Es el cociente (la división) entre el error absoluto y el valor exacto. Si se multiplica
por 100 se obtiene el tanto por ciento (%) de error. Al igual que el error absoluto
puede ser positivo o negativo (según lo sea el error absoluto) porque puede ser
por exceso o por defecto. no tiene unidades.
Y el error relativo como
ER = | P* - P| / P, si P =/ 0
El error relativo también se puede multiplicar por el 100% para expresarlo como:
ERP = ER x 100
Ejemplo:

Supóngase que se tiene que medir la longitud de un puente y de un remache,


obteniéndose 9 999 y 9 cm, respectivamente. Si los valores son 10 000 y 10 cm,
calcúlese a) el error y b) el error relativo porcentual de cada caso.

Solución: a) El error de medición del puente es:

EA = 10 000 - 9 999 = 1cm

y para el remache es de

EA = 10 - 9 = 1cm

b) El error relativo porcentual para el puente es de:

ERP = 1/ 10 000 x 100% = 0.01%

y para el remache es de

ERP = 1/10 x 100% = 10%

por lo tanto ambas medidas tienen un error de 1 cm, el error relativo porcentual del
remache es mucho más grande. Se puede concluir que se ha hecho un buen
trabajo en la medida del puente, mientras que la estimación para el remache deja
mucho que desear.
COTAS DE ERROR
En el caso en que el valor real sea un número irracional no pueden realizarse los
cálculos anteriores con exactitud por tener su desarrollo decimal infinitas cifras y
no poder expresarse en forma fraccionaria. Por eso se utilizan cotas.
Una cota del error absoluto es un numero \(\epsilon\) que cumple \ [E_a\leq
\epsilon\]
En una aproximación cualquiera, una cota de error absoluto es una unidad del
orden n de la última cifra significativa: \ [\epsilon = \frac {1} {10^n} \]
El orden n será uno si la última cifra significativa corresponde a las décimas, dos si
corresponde a las centésimas, tres a las milésimas y así sucesivamente.
Si la aproximación es por redondeo se puede afinar algo más: una cota de error
absoluto es media unidad del orden n de la última cifra significativa: \ [\epsilon =
\frac {1} {2·10^n} \]
A partir de una cota del error absoluto podemos obtener una cota del error relativo.
Teniendo en cuenta que \ (E_a\leq \epsilon\) y la definición del error relativo, se
tiene:
\[E_r=\frac{E_a} {V_e} \leq \frac{\epsilon} {V_e} \]
Como se ha dicho, si el valor exacto es irracional no puede utilizarse en los
cálculos. En este caso, se utiliza la fórmula:
\[E_r\leq\frac{\épsilon} {V_a-\épsilon} \ \ \ \ \ \ \ \ \ \ \ (*) \]
Ejemplo: redondear el número \(\pi\) a las milésimas y acotar los errores absoluto y
relativo:
Redondeo: \ (3,142\)
Cota de error absoluto: \ (E_a \leq \dfrac {1} {2·10^3} = 0,0005\)
Cota de error relativo: \ (E_r \leq \dfrac {0,0005} {3,142-0,0005} =0,000159\)

(*) Explicación de la fórmula


En el caso de que \ (V_a \geq \epsilon\), se tiene
\ [E_a\leq \epsilon\]
\ [|V_a-V_r|\leq \epsilon\]
\ [V_a-V_r\leq \epsilon\]
\ [V_a-\epsilon\leq V_r \]
Sustituyendo en \ [E_r\leq \frac{\epsilon} {V_r} \]:
\ [E_r\leq \frac{\epsilon} {V_r} \leq\frac{\epsilon} {V_a-\epsilon} \]
\[E_r\leq\frac{\epsilon} {V_a-\epsilon} \]
Complejidad computacional

La teoría de la complejidad computacional o teoría de la complejidad


informática es una rama de la teoría de la computación que se centra en la
clasificación de los problemas computacionales de acuerdo con su dificultad
inherente, y en la relación entre dichas clases de complejidad.
Un problema se cataloga como "inherentemente difícil" si su solución requiere de
una cantidad significativa de recursos computacionales, sin importar el algoritmo
utilizado. La teoría de la complejidad computacional formaliza dicha aseveración,
introduciendo modelos de computación matemáticos para el estudio de estos
problemas y la cuantificación de la cantidad de recursos necesarios para
resolverlos, como tiempo y memoria.
Una de las metas de la teoría de la complejidad computacional es determinar los
límites prácticos de qué es lo que se puede hacer en una computadora y qué no.
Otros campos relacionados con la teoría de la complejidad computacional son
el análisis de algoritmos y la teoría de la computabilidad. Una diferencia
significativa entre el análisis de algoritmos y la teoría de la complejidad
computacional, es que el primero se dedica a determinar la cantidad de recursos
requeridos por un algoritmo en particular para resolver un problema, mientras que
la segunda, analiza todos los posibles algoritmos que pudieran ser usados para
resolver el mismo problema.
La teoría de la complejidad computacional trata de clasificar los problemas que
pueden, o no pueden ser resueltos con una cantidad determinada de recursos. A
su vez, la imposición de restricciones sobre estos recursos, es lo que la distingue
de la teoría de la computabilidad, la cual se preocupa por qué tipo de problemas
pueden ser resueltos de manera algorítmica.

Precisión en los cálculos de una computadora.


La precisión computacional está determinada primariamente por la cantidad de
dígitos con los que se efectúan las operaciones aritméticas, conocida a partir de la
longitud de palabra del procesador. La palabra establece el número entero más
grande que se puede representar con exactitud. En el procesador Intel modelo
8088, por ejemplo, se tenía una longitud de ocho bits, que proporcionan un entero
máximo de 256. Concatenando dos palabras de este procesador (precisión doble)
se pueden obtener cuatro cifras decimales significativas. Como se puede observar
en el Cuadro 1, el tamaño de la palabra, y por ende la precisión, ha ido
en constante aumento.
Dígitos de precisión decimal para operaciones con números enteros con respecto
de la velocidad y tamaño de palabra.

Para un procesador con una longitud de palabra de 32 bits se obtienen 19 dígitos


decimales en precisión doble, mientras que para los procesadores de 64 bits -de
última generación- se obtienen 38. Generalmente una decena de dígitos
decimales es suficiente para la mayoría de los propósitos de cálculo. El
advenimiento de la tecnología láser implica que se pueden realizar mediciones
sobre objetos del mundo físico con un creciente grado de exactitud. Esta
información requiere de mayor precisión en los cálculos computacionales.
Al efectuar cada operación aritmética se reduce, por cuestiones de redondeo y
truncamiento, el número de dígitos significativos del resultado final.
Cualquier operación aritmética sobre un número x para obtener un
resultado e incurre obligatoriamente en un error de redondeo, Exy.
Consecuentemente, si el valor x representa una cantidad con una tolerancia ±d, en
el resultado será de ±E con E = d+ Exy. Muchos algoritmos de cálculo, como los
métodos de Newton-Raphson y Runge-Kutta para resolver numéricamente
ecuaciones diferenciales que aparecen en los modelos de simulación de plantas y
procesos de refinación, son sujetos a una serie repetitiva de operaciones donde
los resultados se vuelven a alimentar como datos en cada iteración. ¿Hasta qué
punto afectarán estos errores de redondeo el resultado final? Eso no es sencillo de
contestar, ya que el cálculo del error supera en complejidad al problema numérico.
La manera más fácil de determinar la invertibilidad de una matriz es mediante su
determinante: Si el determinante de la matriz en cuestión es diferente de 0,
significa que la matriz es invertible. En este caso decimos que se trata de una
matriz regular. Además, esto implica que la matriz es de rango máximo. En
cambio, si el determinante de la matriz es igual a 0, no se puede invertir la matriz.
Y, en tal caso, se dice que es una matriz singular o degenerada. Principalmente,
existen dos métodos para invertir cualquier matriz: el método de los determinantes
o de la matriz adjunta y el método de Gauss. A continuación, tienes la explicación
del primero, pero también puedes consultar cómo invertir una matriz con el método
de Gauss más abajo. En algunos libros utilizan una fórmula de la matriz inversa un
poco diferente: primero trasponen la matriz A y luego calculan su matriz adjunta,
en vez de calcular antes la matriz adjunta y después trasponerla. En realidad, da
igual el orden porque el resultado es exactamente el mismo.

https://www.revistaciencia.amc.edu.mx/index.php/ediciones-anteriores/82-vol-58-
num-4-octubre-diciembre-2007/comunicaciones-libres/130-la-precision-en-los-
calculos-cientificos-por-computadora

1.2 Tipos de errores: Error absoluto, error relativo, error porcentual, errores de
redondeo y truncamiento. - METODOS NUMERICOS (google.com)

1.2 Conceptos básicos: cifra significativa, precisión, exactitud, incertidumbre y


sesgo. - MetNumVMC (google.com)

También podría gustarte