Está en la página 1de 7

República Bolivariana de Venezuela

Ministerio del Poder Popular para la Educación Superior


Universidad Nacional Experimental Rómulo Gallegos
San Juan de los Morros; Guárico

Unidad 1 y Unidad 2

Profesor: Bachiller:
Leopoldo Arvelaiz Raúl Hernández
27468749
Sección 2
Unidad 1

Teoría de errores:
El principal objetivo de la teoría de errores consiste en acotar el valor de dichas imprecisiones,
denominadas errores experimentales. El error se define como la diferencia entre el valor verdadero y
el obtenido experimentalmente.

Métodos Números:
son aplicaciones de algoritmos por las cuales es posible formular y solucionar problemas
matemáticos usando operaciones aritméticas menos complejas

Importancia:
Los métodos numéricos nos vuelven aptos para entender esquemas numéricos a fin de resolver
problemas matemáticos, de ingeniería y científicos en una computadora, reducir esquemas numéricos
básicos, escribir programas y resolverlos en una computadora y usar correctamente el software
existente para dichos métodos y no solo aumenta nuestra habilidad para el uso de computadoras sino
que también amplia la pericia matemática y la comprensi6n de los principios científicos básicos.

cifra significativa:
Hay tres reglas para determinar cuántas cifras significativas hay en un número:
1) Los dígitos diferentes de cero son siempre significativos.
2) Los ceros entre dos dígitos significativos son significativos.
3) Los ceros escritos al final de la parte decimal son significativos.

Precisión:
Se refiere a la dispersión del conjunto de valores obtenidos de mediciones repetidas de una
magnitud. Cuanto menor es la dispersión mayor la precisión. Una medida común de la variabilidad es
la desviación estándar de las mediciones y la precisión se puede estimar como una función de ella.

Exactitud:
se refiere a cuán cerca del valor real se encuentra el valor medido. En términos estadísticos, la
exactitud está relacionada con el sesgo de una estimación. Cuanto menor es el sesgo más exacto es
una estimación.

Incertidumbre:
también se le conoce como Imprecisión. Se refiere al grado de alejamiento entre sí, a las diversas
aproximaciones a un valor verdadero. Situación bajo la cual se desconocen las probabilidades de
ocurrencia asociados a los diferentes resultados de un determinado evento.

Sesgo:
Es un alejamiento sistemático del valor verdadero a calcular. Así como el error, de acuerdo con las
formas por las cuales se produce, puede minimizarse, la ocurrencia de sesgo también puede ser
neutralizada o controlada. En ocasiones sin embargo, es imposible controlar el sesgo y por cierto el
error.

Definición de Error:
Acción que no sigue lo que es correcto, acertado o verdadero.
Tipos de errores:

Error Absoluto:
Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede ser positivo
o negativo, según si la medida es superior al valor real o inferior (la resta sale positiva o
negativa). Tiene unidades, las mismas que las de la medida.

El error absoluto de una medida no nos informa por sí solo de la bondad de la misma. Es
evidente, que no es igual de grave tener un error absoluto de 1 cm al medir la longitud de
una carretera que al medir la longitud de un folio.
Error Relativo:
El error relativo es el cometido en la estimación del valor de un número, es el valor
absoluto del cociente entre su error absoluto y el valor exacto. El error relativo da idea de la
precisión de una medida, y se suele manejar en forma de porcentaje (%).

Muchas veces conocemos el error absoluto (Ea), pero es imposible conocer el valor exacto
(A), en cuyo caso, para hallar el error relativo (Er) dividimos el error absoluto entre el valor
aproximado o considerado como exacto.
Error por Redondeo:
El error de redondeo es el que resulta de reemplazar un número por su forma de punto
flotante, es decir, por su representación en una máquina concreta. Este error se
denomina de redondeo tanto para aproximación por truncamiento como por redondeo.
Error por truncamiento:
usando una expresión matemática se remplaza por una fórmula más simple, se
introduce un error, conocido como error de truncamiento.

Los errores de truncamiento son aquellos que resultan al usar una aproximación en lugar
de un procedimiento matemático exacto. Estos tipos de errores son evaluados con una
formulación matemática: la serie de Taylor.
Error Numérico Total:
El error numérico total es la suma de los errores de redondeo y de truncamiento. (Los
errores de truncamiento decrecen conforme el número de cálculos aumenta, por lo que
se encara el siguiente problema: la estrategia de disminuir un componente del error total 3lleva
al incremento del otro).

Unidad 2

Métodos de solución de ecuaciones (Raíces de una ecuación):


Una ecuación radical es una donde la variable aparece debajo de un signo de raíz cuadrada . (Por
ahora solo nos preocuparemos por las raíces cuadradas, no las raíces cúbicas u otras cosas
interesantes.) La técnica general para resolver una ecuación radical es: aislar el signo de raíz
cuadrada (y lo que sea que esté debajo de el) en un lado de la ecuación. Luego eleve al cuadrado
ambos lados. Debe terminar con una ecuación que puede resolverse por métodos normales.
Definición de Raíces:
Muchos de quienes tratan esta materia hablan de raíz o de radical, usados como sinónimos.
Mientras esto no afecte la comprensión del concepto no hay problema.
En estricto rigor, raíz es una cantidad que se multiplica por sí misma una o más veces para
presentarse como un número determinado.

Para encontrar esa cantidad que se multiplica se recurre a la operación de extraer la raíz a partir del
número determinado y se ejecuta utilizando el símbolo√, que se llama radical . Por ello es que se
habla de operaciones con radicales al referirse a operaciones para trabajar con raíces.

Encontrar o extraer la raíz es realizar la operación contraria o inversa de la potenciación, así como la
suma es la operación inversa de la resta y viceversa, y la multiplicación es la operación contraria de la
división y viceversa.

Métodos de Bisección o División del Intervalo en mitades:


En matemáticas, el método de bisección , también llamado dicotomía, es un algoritmo de búsqueda
de raíces que trabaja dividiendo el intervalo a la mitad y seleccionando el subintervalo que tiene la
raíz.

• Se aísla un radical en uno de los dos miembros, pasando al otro miembro el resto de los
términos, aunque tengan también radicales.
• Se elevan al cuadrado los dos miembros.

• Se resuelve la ecuación obtenida.

• Se comprueba si las soluciones obtenidas verifican la ecuación inicial. Hay que tener en

cuenta que al elevar al cuadrado una ecuación se obtiene otra que tiene las mismas

soluciones que la dada y, además las de la ecuación que se obtiene cambiando el signo de

uno de los miembros de la ecuación.

• Si la ecuación tiene varios radicales, se repiten las dos primeras fases del proceso hasta

eliminarlos todos.

Método de interpolación lineal o falsa posición:


La interpolación lineal consiste en trazar una recta que pasa por dos puntos conocidos y = r(x) y
calcular los valores intermedios según esta recta. ... La interpolación casi siempre nos dará un
pequeño error respecto al valor real, pero siempre será menor que tomar el valor más próximo de los
que figuran en la tabla.

La idea se esquematiza en la siguiente figura, en la cual se muestra un acercamiento a la gráfica de


una función entre los puntos A y B.
Suponiendo que estos puntos están
cercanos, es posible aproximar la
curva que los une mediante una recta y
encontrar así los puntos intermedios.
Fórmula:
Se tienen dos puntos de coordenadas [xo, f(xo)] y [x1, f(x1)] entre los cuales está el punto [x, g(x)],
cuyas coordenadas se desea conocer.
El primer paso consiste en unir los puntos conocidos mediante un segmento de recta, sobre el cual se
encuentran las coordenadas del punto a calcular.

Como se puede ver, se forman dos triángulos rectángulos: ABC y APD, que además tienen un ángulo
agudo en común, por lo que son triángulos semejantes, a los que se puede aplicar el teorema de
Thales:
Margen de error
Cuando se aproxima una función con este método, la cota de error viene dada por el valor absoluto
de la diferencia entre la función f(x) y la recta interpoladora g(x):

Error = │f(x) − g(x) │

Método de la secante:
En análisis numérico el método de la secante es un método para encontrar los ceros de una función
de forma iterativa. ... En otras palabras, el método de la secante es un algoritmo de la raíz de
investigación que utiliza una serie de raíces de las líneas secantes para aproximar mejor la raíz de
una función f.

En lugar de tomar la derivada de la función cuya raíz se quiere encontrar, se aproxima por una recta
secante (de ah´ı el nombre) a la curva, cuya pendiente es aproximadamente igual a la derivada en el
punto inicial. La principal diferencia con el método anterior es conocer dos puntos del a función para
poder generar dicha recta. Sean x0 y x1 pertenecientes a cierta f(x) se puede definir:

Método de Newton :
En análisis numérico, el método de Newton (conocido también como el método de Newton-Raphson o
el método de Newton-Fourier) es un algoritmo para encontrar aproximaciones de los ceros o raíces
de una función real.

El método numérico de Newton es una aplicación del cálculo diferencial que se utiliza para hallar los
ceros de una función derivable de enésimo grado con la precisión deseada. Los procedimientos para
hallar las raíces o ceros de funciones lineales o cuadráticas a partir de los coeficientes de la ecuación
son sencillos y exactos. Aunque existen fórmulas para hallar las raíces de ecuaciones de tercer y
cuarto grado, dichas formulas son muy complicadas y nada prácticas. Un teorema, atribuido a Abel,
establece que no es posible encontrar una fórmula general, en términos de los coeficientes de la
ecuación, que permita hallar los ceros exactos de una función polinomial de grado cinco o mayor.
Esto significa que, en general, sólo se pueden hallar aproximaciones para los ceros de funciones de
grado mayor que cuatro aplicando métodos numéricos.
Iteración y convergencia de ecuaciones:
En matemática computacional, un método iterativo trata de resolver un problema (como una ecuación
o un sistema de ecuaciones) mediante aproximaciones sucesivas a la solución, empezando desde
una estimación inicial.
Un método iterativo es un método que progresivamente va calculando aproximaciones a la solución
de un problema. En un método iterativo se repite un mismo proceso de mejora sobre una solución
aproximada: se espera que lo obtenido sea una solución más aproximada que la inicial.

Dado que estos métodos forman una base, el método converge en N iteraciones, donde N es el
tamaño del sistema. Sin embargo, en la presencia de errores de redondeo esta afirmación no se
sostiene; además, en la práctica N puede ser muy grande, y el proceso iterativo alcanza una precisión
suficiente mucho antes. El análisis de estos métodos es difícil, dependiendo de lo complicada que sea
la función del espectro del operador.

También podría gustarte