Está en la página 1de 5

Presentado por:

Giselle Cabrera 2019-0025


Mabel Genere 2019-0251
Scarlen Jimenez 2019-0335

Asignatura:
Diseño de Experimentos

Tema:
Trabajo de Investigación II

Facilitador:
Narciso Villar Goris

Fecha de entrega:
3 de noviembre 2023

La Vega, Republica Dominicana


Criterios para evaluar la calidad del ajuste:

1) El algoritmo de Levenberg-Marquardt:

El algoritmo de Levenberg-Marquardt (LMA o simplemente LM), también


conocido como el método de mínimos cuadrados amortiguados (DLS),
permite obtener una solución numérica al problema de minimización de
una función, a menudo no lineal y dependiente de varias variables.

2) Suma de los errores cuadrados (SSE, del inglés Sum Square Error):

Es la parte de la variabilidad de la variable dependiente que no


conseguimos explicar con el modelo. Es la parte que nuestro conjunto de
variables independiente no consigue explicar de la variable dependiente.
representa con una cifra lo que un modelo no es capaz de explicar.

3) Error estándar de la estimación (SE, del inglés Standard Error):

Mide la desviación en una muestra valor poblacional. Es decir, el error


estándar de estimación mide las posibles variaciones de la media
muestral con respecto al verdadero valor de la media poblacional.

4) Coeficiente ajustado de determinación múltiple:

Es la proporción de la varianza total de la variable explicada por la


regresión. El coeficiente de determinación, también llamado R cuadrado,
refleja la bondad del ajuste de un modelo a la variable que pretender
explicar.
5) La bondad de ajuste:

La bondad de ajuste de un modelo estadístico describe lo bien que se


ajusta un conjunto de observaciones. Las medidas de bondad en general
resumen la discrepancia entre los valores observados y los valores
esperados en el modelo de estudio.

6) Suma de cuadrados del error residual pronosticado (PRESS, del


inglés Predicted Residual Error Sum of Squares):

Proporciona una útil escalacion de los residuales. PRESS utiliza cada


subconjunto posible de n-1 observaciones como un conjunto de datos de
estimación, y se utiliza una observación a la vez para formar un conjunto
de datos de precisión.

7) Suma de cuadrados del error residual múltiple pronosticado


(MPRESS, del inglés Multiple Predicted Residual Sum Error of
Square):

La suma de los residuos al cuadrado, por lo tanto, es la parte que las


variables independientes no son capaces de explicar sobre la variabilidad
de la variable dependiente.

8) El error de la raíz media cuadrática (RMSE, del inglés Root Means


Square Error):

Mide la cantidad de error que hay entre dos conjuntos de datos. En otras
palabras, compara un valor predicho y un valor observado o conocido.

También se lo conoce como Raíz de la Desviación Cuadrática Media y es


una de las estadísticas más utilizadas en SIG. A diferencia del error
absoluto medio (MAE), utilizamos RMSE en una variedad de aplicaciones
cuando comparamos dos conjuntos de datos.
El error de la raíz media cuadrática se describe por medio de la siguiente
formula, en donde P es el valor previsto, O es el valor observado y n es el
número total de observaciones.

Criterios estadísticos:

1) El método de Kolmogorov-Smirnov:

Compara la función de distribución acumulada observada de una variable


con una distribución teórica determinada, que puede ser la normal, la
uniforme, la de Poisson o la exponencial.

2) La prueba de Levene:

Es una estadística inferencial que se utiliza para evaluar la igualdad de


varianzas de una variable calculada para dos o más grupos. Algunos
procedimientos estadísticos comunes asumen que las variaciones de las
poblaciones de las que se extraen diferentes muestras son iguales.

La prueba de Levene evalúa esta suposición. Prueba la hipótesis nula de


que las varianzas de la población son iguales (lo que se denomina
homogeneidad de varianza u homocedasticidad).

Si el valor p resultante de la prueba de Levene es menor que algún nivel


de significancia (típicamente 0.05), es poco probable que las diferencias
obtenidas en las varianzas de la muestra hayan ocurrido en base al
muestreo aleatorio de una población con varianzas iguales. Así, se
rechaza la hipótesis nula de varianzas iguales y se concluye que existe
una diferencia entre las varianzas en la población.
3) Las pruebas no paramétricas de Kruskal Wallis y Mann Whitney de
dos colas:

la prueba de Kruskal-Wallis (de William Kruskal y W. Allen Wallis) es un


método no paramétrico para probar si un grupo de datos proviene de la
misma población. Intuitivamente, es idéntico al ANOVA con los datos
reemplazados por categorías.

Es una extensión de la prueba de la U de Mann-Whitney para 3 o más


grupos. Ya que es una prueba no paramétrica, la prueba de Kruskal-Wallis
no asume normalidad en los datos, en oposición al tradicional ANOVA. Sí
asume, bajo la hipótesis nula, que los datos vienen de la misma
distribución. Una forma común en que se viola este supuesto es con datos
heterocedásticos.

4) La prueba de Logrank:

Es un test de significancia pura y no ofrece ninguna información sobre la


magnitud de las diferencias entre los grupos o un intervalo de confianza.
Es una prueba de hipótesis para comparar las distribuciones de
supervivencia de dos muestras.

Es una prueba no paramétrica y apropiada para usar cuando los datos


están sesgados a la derecha y censurados (técnicamente, la censura
debe ser no informativa).

Se usa ampliamente en ensayos clínicos para establecer la eficacia de un


nuevo tratamiento en comparación con un tratamiento de control cuando
la medición es el tiempo hasta el evento (como el tiempo desde el
tratamiento inicial hasta un ataque cardíaco).

También podría gustarte