Está en la página 1de 22

Error de tipo I

Si usted rechaza la hipótesis nula cuando es verdadera, comete un error de tipo I. La probabilidad de
cometer un error de tipo I es α, que es el nivel de significancia que usted establece para su prueba de
hipótesis. Un α de 0.05 indica que usted está dispuesto a aceptar una probabilidad de 5% de estar
equivocado al rechazar la hipótesis nula. Para reducir este riesgo, debe utilizar un valor menor para α.
Sin embargo, usar un valor menor para alfa significa que usted tendrá menos probabilidad de detectar
una diferencia si esta realmente existe.

Error de tipo II
Cuando la hipótesis nula es falsa y usted no la rechaza, comete un error de tipo II. La
probabilidad de cometer un error de tipo II es β, que depende de la potencia de la prueba. Puede
reducir el riesgo de cometer un error de tipo II al asegurarse de que la prueba tenga suficiente
potencia. Para ello, asegúrese de que el tamaño de la muestra sea lo suficientemente grande
como para detectar una diferencia práctica cuando esta realmente exista.
Ejemplo.Un investigador médico desea comparar la efectividad de dos medicamentos.
Las hipótesis nula y alternativa son:Hipótesis nula (H0): μ1= μ2
Los dos medicamentos tienen la misma eficacia.
Hipótesis alternativa (H1): μ1≠ μ2
Los dos medicamentos no tienen la misma eficacia.

Un error de tipo I se produce si el investigador rechaza la hipótesis nula y concluye que los dos
medicamentos son diferentes cuando, en realidad, no lo son. Si los medicamentos tienen la misma
eficacia, el investigador podría considerar que este error no es muy grave, porque de todos modos
los pacientes se beneficiarían con el mismo nivel de eficacia independientemente del medicamento
que tomen.

Sin embargo, si se produce un error de tipo II, el investigador no rechaza la hipótesis nula
cuando debe rechazarla. Es decir, el investigador concluye que los medicamentos son iguales
cuando en realidad son diferentes. Este error puede poner en riesgo la vida de los pacientes
si se pone en venta el medicamento menos efectivo en lugar del medicamento más
efectivo.Cuando realice las pruebas de hipótesis, considere los riesgos de cometer errores de
tipo I y tipo II. Si las consecuencias de cometer un tipo de error son más graves o costosas
que cometer el otro tipo de error, entonces elija un nivel de significancia y una potencia para
la prueba que reflejen la gravedad relativa de esas consecuencias.
El ANOVA de una vía tiene una variable de respuesta
continua (por ejemplo, puntaje de prueba)
comparada con tres o más niveles de una variable de
factor (por ejemplo, nivel de educación).

El ANOVA bidireccional tiene una


variable de respuesta continua (por
ejemplo, puntaje de prueba)
comparada con más de una variable de
factor (por ejemplo, nivel de educación
y signo del zodíaco).
ANCOVA compara una variable de respuesta continua (por ejemplo, puntaje de prueba)
por niveles de una variable de factor (por ejemplo, nivel de educación), controlando una
covariable continua (por ejemplo, número de horas dedicadas a estudiar).
MANOVA unidireccional compara dos o más variables de
respuesta continua (por ejemplo, puntaje de prueba e
ingreso anual) por una sola variable de factor (por ejemplo,
nivel de educación).

MANOVA bidireccional compara dos o


más variables de respuesta continua (por
ejemplo, puntaje de prueba e ingreso
anual) por dos o más variables de
factores (por ejemplo, nivel de educación
y signo del zodíaco).
MANCOVA compara dos o más variables de respuesta continua (por ejemplo, puntajes de exámenes
e ingresos anuales) por niveles de una variable de factor (por ejemplo, nivel de educación),
controlando por una covariable (por ejemplo, número de horas dedicadas a estudiar).
El ANOVA mixto,intra-entre sujetos (también llamado ANOVA de parcela dividida) es una
prueba estadística de medias comúnmente utilizada en las ciencias del comportamiento.

El análisis de tendencias es un procedimiento estadístico que se realiza para evaluar las


relaciones lineales y no lineales hipotéticas entre dos variables cuantitativas . Se implementa
como un análisis de varianza (ANOVA) para variables cuantitativas. Se utiliza comúnmente en
situaciones en las que los datos se han recopilado a lo largo del tiempo o en diferentes niveles
de una variable; especialmente cuando una sola variable independiente, ha sido manipulado
para observar sus efectos sobre una variable dependiente o variable de respuesta (como en
estudios experimentales).

Tasa de error experimental en una prueba que implica múltiples comparaciones , la


probabilidad de cometer al menos un error de Tipo I en todo un estudio de investigación.
La tasa de error por experimento difiere de la tasa de error por prueba , que es la
probabilidad de cometer un error de Tipo I al realizar una prueba o comparación
específica.
Cohen's d
Eta Squared

El coeficiente Eta Cuadrado, también conocido como Razón de Correlación, es un índice de


asociación que trabaja con una variable categórica y una variable cuantitativa para representar
la proporción existente entre los niveles de variabilidad de las categorías individuales con
respecto a la dispersión de la muestra completa. Esto quiere decir que la correlación se define
comparando la variabilidad dentro de los conjuntos con la variabilidad entre los mismos.

La Razón de Correlación trabaja con una variable dependiente, que sería la cuantitativa, y
una variable independiente, la cual pasaría a ser la categórica. Esta diferencia, con
respecto a todos los otros coeficientes que se han trabajado en clase, permite que Eta
Cuadrado sea útil no sólo para tratar correlaciones lineales sino para su aplicación en
situaciones de correlación no lineales.

Eta
La correlación eta se puede utilizar en aquel caso en el que busquemos la relación
existente entre una variable independiente medida en una escala nominal y una variable
dependiente medida en una escala de intervalo o de razón.
Coeficiente de correlación

Correlación r de Pearson:Este parámetro de tamaño del efecto resume la fuerza de la relación


bivariada.
La correlación de orden de rango de Spearman: Es correlación de Spearman determina la
fuerza y la dirección de la relación monótona entre sus dos variables que sean ordinales, de
intervalo o de razón. No paramétrica
La correlación biserial puntual: Se usa para medir la fuerza y la dirección de la asociación que
existe entre una variable cuantitaviva y una variable cualitativa.

Por ejemplo, puede utilizar una correlación biserial puntual para determinar si existe una
asociación entre los salarios, medidos en dólares estadounidenses, y el género (es decir, su variable
cuantitativa sería "salario" y su variable cualitativa sería "género", que tiene dos categorías:
"hombres" y "mujeres").

Puede usar una correlación biserial puntual para determinar si existe una asociación entre la
concentración de colesterol, medida en mmol / L, y el tabaquismo.
El análisis de regresión se utiliza en estadísticas para encontrar tendencias en los datos.
Por ejemplo, puede decidir si existe una conexión entre cuánto come y cuánto pesa; El análisis de
regresión le proporcionará una ecuación para un gráfico para que pueda hacer predicciones sobre
sus datos.
Por ejemplo, si ha estado aumentando de peso en los últimos años, puede predecir cuánto pesará
en diez años si continúa aumentando de peso al mismo ritmo. También le dará una gran cantidad
de estadísticas (incluido un valor p y un coeficiente de correlación ) para indicarle qué tan preciso es
su modelo.
La regresión múltiple explica la relación entre múltiples variables independientes y una variable
dependiente . Una variable dependiente se modela en función de varias variables independientes
con los coeficientes correspondientes, junto con el término constante. La regresión múltiple
requiere dos o más variables independientes, y por eso se denomina regresión múltiple.

ejemplo, digamos que la puntuación de la prueba de un estudiante en un examen dependerá de


varios factores, como su enfoque mientras asiste a la clase, su ingesta de alimentos antes del
examen y la cantidad de horas que duerme antes del examen. Con esta prueba, se puede estimar la
relación adecuada entre estos factores.
Multicolinealidad significa relación lineal perfecta o exacta entre algunas o todas las variables
independientes.

Ejemplo: Supongamos que ABC Ltd, una KPO, ha sido contratada por una empresa farmacéutica
para proporcionar servicios de investigación y análisis estadístico sobre las enfermedades en la
India. Para ello, ABC ltd ha seleccionado la edad, el peso, la profesión, la altura y la salud como
parámetros prima facie.
La contracción es cuando los valores extremos de una muestra se "encogen" hacia un valor central,
como la media de la muestra. La reducción de datos puede resultar en: Estimaciones mejores y más
estables para los verdaderos parámetros de población ,Reducción de errores de muestreo y no
muestrales ,Fluctuaciones espaciales suavizadas.
ANÁLISIS DISCRIMINANTE
El Análisis Discriminante consiste en analizar si existen diferencias significativas entre grupos de
objetos respecto a un conjunto de variables medidas sobre los mismos para, en el caso de que
existan, explicar en qué sentido se dan y facilitar procedimientos de clasificación sistemática de
nuevas observaciones de origen desconocido en uno de los grupos analizados.
¿Se puede predecir si una empresa va a entrar en bancarrota?
¿Es posible predecir con antelación si un cliente que solicita un préstamo a un banco va a ser un
cliente moroso?
¿Existe discriminación por razones de sexo o de raza en una empresa o en un colegio?
El análisis de ruta es una técnica estadística que se utiliza para examinar y probar supuestas
relaciones causales entre un conjunto de variables. Una relación causal es de carácter direccional y
ocurre cuando una variable (p. Ej., Cantidad de ejercicio) provoca cambios en otra variable (p. Ej.,
Aptitud física). El investigador especifica estas relaciones de acuerdo con un modelo teórico que es
de su interés. El modelo de ruta resultante y los resultados del análisis de ruta generalmente se
presentan juntos en forma de diagrama de ruta.
LISREL (modelado de relaciones estructurales lineales) fue uno de los primeros paquetes
informáticos estadísticos utilizados para el modelado de ecuaciones estructurales.

LISREL evalúa esencialmente hasta qué punto las relaciones teorizadas entre variables son
consistentes con las relaciones observadas entre esas variables.

Por ejemplo, podría teorizar que muchas variables medidas (p. Ej., Una prueba verbal, una prueba
de matemáticas, una prueba de tiempo de reacción) se relacionan todas con una única construcción
subyacente de inteligencia generalizada (CI). Este es un ejemplo de un "modelo de variable latente".
El coeficiente intelectual no se mide directamente; más bien, su existencia se infiere porque una
variedad de variables medidas u “observadas” (las diversas pruebas) están en sí mismas altamente
relacionadas entre sí. Si el investigador recopila los datos y las pruebas medidas no están todas muy
relacionadas entre sí, un modelo que asume que una sola variable latente puede no “ajustarse” a los
datos observados.
ANÁLISIS DE CONGLOMERADOS
El Análisis Cluster, conocido como Análisis de Conglomerados, es una técnica estadística
multivariante que busca agrupar elementos (o variables) tratando de lograr la máxima
homogeneidad en cada grupo y la mayor diferencia entre los grupos.
El Análisis Cluster es una técnica descriptiva, ateórica y no inferencial.

El Análisis Cluster no tiene bases estadísticas sobre las que deducir inferencias estadísticas para una
población a partir de una muestra, es un método basado en criterios geométricos y se utiliza
fundamentalmente como una técnica exploratoria, descriptiva pero no explicativa.
Eta
La correlación eta se puede utilizar en aquel caso en el que busquemos la relación existente
entre una variable independiente medida en una escala nominal y una variable dependiente
medida en una escala de intervalo o de razón.

También podría gustarte