Está en la página 1de 70

Estadística para el análisis de procesos de

investigación en ingeniería civil

Elías Alberto Torres Armas, Ms.C.


Email: allpachaki@Hotmail.com
Teléfono: 964570878
Estadística para el análisis de procesos de investigación en ingeniería civil

Estadística descriptiva
Sesión 1
Prueba de hipótesis
Diseño de una investigación

Diseño de una investigación:

… “es una estrategia o secuencia de decisiones de


cómo recoger, ordenar, analizar e interpretar los
datos de una investigación”
La estadística y el método científico

La estadística


Diseños más eficiente

 

Bases para la planeación, Métodos para la estimación de


recolección de datos y parámetros, la inferencia en la
validación de la información contrastación de hipótesis

Optimización de tiempo y recursos


Respuesta Biológica y Respuesta Estadística

Respuesta Biológica Respuesta Estadística

Existe una única respuesta

“ La Estadística ayuda a responder preguntas, no a formularlas “


POBLACIÓN Y MUESTRA
MUESTREO
Estadística. Objetivo y alcance

... recolección de grandes volúmenes de datos y su


presentación en tablas o gráficos, operaciones de rutinas
como totales, promedios, porcentajes, etc.

... rama de la Matemática Aplicada que tiene sus raíces en la


teoría de las probabilidades.

... tecnología del método científico que proporciona


instrumentos para la toma de decisiones cuando prevalecen
condiciones de incertidumbres.
Población

... conjunto de elementos que poseen características


comunes observables.

De existencia concreta
Masa de los frutos de una planta.
Índices académicos de los estudiantes universitarios.

De existencia abstracta
Alturas de las plantas de una variedad de arroz a las 4
semanas.
Rendimiento de una variedad de caña.
Muestra

... cualquier subconjunto de una población.

Cuando el conjunto poblacional exista concretamente:

El conjunto formado por los índices académicos de todos los


estudiantes de una Universidad.
El conjunto formado por el números de frutos por plantas que
ocupan las dos hileras centrales del campo

Cuando el conjunto no tiene una existencia concreta:

Alturas de las plantas de un tratamiento de fertilizante en una


variedad de arroz a las 4 semanas de sembradas.
Producción diaria de leche de cada una de las 10 vacas que
han consumido una dieta dada
Parámetros

... son indicadores o constantes que caracterizan a la población.


Ejemplos:

Media poblacional ():


... hacia donde se concentran los valores de la población

Varianza poblacional (2):


... da medida concentración de las observaciones alrededor de 

Desviación típica poblacional ():


... expresa lo mismo que 2, en la misma unidad que están los datos
Estadígrafos o estimadores

... son funciones de los valores muestrales.

Ejemplos:

Media muestral (x):


... promedio los valores de la muestra. (ixi)/n

Varianza muestral (S2):

... medida concentración de las observaciones alrededor de x


S2 = i(xi - x)2 /(n-1)

Desviación típica muestral (S):


... expresa lo mismo que S2, en la misma unidad que están los datos
Objetivo de la Estadística

“Llegar a conclusiones que tengan valor


para la población, a través del estudio de
una muestra de dicha población”
Estadística Matemática

ESTADÍSTICA

Estadística descriptiva Estadística inferencial


Estadígrafos o estimadores

Para cada muestra el estadígrafo o estimador


proporciona una estimación puntual del parámetro
correspondiente
Propiedades de los estimadores

Insesgadez
Se dice que ^ es un estimador insesgado de un parámetro , si el promedio de sus posibles
^ o esperanza matemática, es igual al valor del parámetro, es decir, se espera
valores (E())
que, en promedio, él proporcionará el verdadero valor del parámetro.

Eficiencia.
Un estimador ^1 de un parámetro  es más eficiente que otro ^
2, si la varianza de sus posibles
valores es menor que la del segundo.

Un estimador más eficiente proporciona estimaciones más concentradas entorno al verdadero


valor del parámetro. Un estimador insesgado y eficiente proporciona una buena estimación del
parámetro.

x y S2 son estimadores insesgados y eficientes de  y 2, respectivamente


Muestreo

Representatividad de la Muestra

Selección Tamaño
Tipos de Muestreos

Muestreo Probabilístico Muestreo No Probabilístico

Aleatorio Simple Causal


Azar Sistemático Intencional
Estratificado Autoselección
Por Conglomerados Por Cuotas
Caracterización de la población

 A través del conocimiento de sus parámetros

 Conociendo con que probabilidad toma cada uno


de sus valores (caracterización probabilística)
Variables Aleatorias

Variables discretas Variables continuas

Identificar la variables de uso frecuente en su


especialidad
Modelo probabilístico
Inferencia Estadística
Inferencia estadística

INFERENCIA ESTADÍSTICA


Muestra
 Población

ESTIMACIÓN DE PARÁMETROS PRUEBA DE HIPÓTESIS


Estimación por intervalos

... la estimación por intervalo de un parámetro  consiste en


encontrar los estadígrafos 1 y 2 tales que:
P{^
1 <  < ^
2 } = 1- 

... cada muestra concreta extraída de la población origina un


intervalo de confianza del (1- ).100% de confianza para 
Intervalos de Confianza

Intervalo de confianza de (1-)100% para la media


poblacional  de una población normal

Varianza conocida:

   
 x  z ; xz
1 
2
n 1 
2
n 
Varianza desconocida:

 S S 
 x  t (n  1) ; x  t (n  1)
1 
2
n n 
1 
2
Tamaño de muestra

Tamaño de muestra para estimar a  con un error prefijado


2

nZ 2

1
2 E 2

...precisión o error máximo permisible que se comete al


estimar a  a través de x

E  x 
Intervalos de Confianza

Intervalo de confianza de (1-)100% para la


proporción poblacional p.

 1 1 
 p̂  z 1
; p̂  z 1 
 2
4n 2
4n 
Intervalos de Confianza

Intervalo de confianza de (1-)100% para la para la


varianza de una población normal.

 n  1S 2
n  1S 2 
 ; 
  n  1  n  1
2 2

1
2

2

Ejemplo

Información:

Construya una base de datos de los participantes

Peso
Estatura
Edad
Talla
Genero

Realice un análisis descriptivo de ls datos por variables


peso talla edad genero

50 1.7 45 Masculino
56 1.65 23 Femenino
58 1.45 24 Femenino
60 1.78 34 Masculino
75 1.67 35 Masculino
80 1.65 45 Femenino
85 1.48 34 Femenino
84 1.65 23 Masculino
70 1.34 21 Femenino
72 1.47 32 Femenino
58 1.78 43 Masculino
54 1.38 54 Femenino
60 1.56 34 Masculino
62 1.69 23 Femenino
55 1.58 70 Masculino
52 1.7 67 Femenino
Prueba de Hipótesis
Prueba de Hipótesis

HIPÓTESIS:
“es una formulación que se apoya en un sistema de
conocimientos organizados y sistematizados en el cual se
establece una relación entre dos o más variables para explicar
y predecir, en la medida de lo posible ; los fenómenos que le
interesan en caso de que se compruebe la relación
establecida”
Prueba de Hipótesis

PRUEBA DE UNA HIPÓTESIS:

Para confirmar su veracidad o no, el procedimiento general es


tomar un conjunto de datos empíricos, y a partir de ellos tomar
una decisión
Prueba de Hipótesis

HIPÓTESIS ESTADÍSTICA:
... es un supuesto acerca de la distribución teórica de
probabilidad de una o más variables o uno o más parámetros
que caracterizan a su ley de distribución

Ho :  = 650 g/planta
H1 :  > 650 g/planta

 : Rendimiento por planta

 = 650
665
Prueba de Hipótesis

 =650 PC
Prueba de Hipótesis

PROCEDIMIENTO:
• Formulación de la hipótesis: hipótesis de nulidad Ho e hipótesis
alternativa H1
• Elección del estadígrafo y su distribución bajo la hipótesis Ho
• Elección del márgen de error: nivel de significación 
• Tamaño de la muestra a emplear
• Elección de la prueba estadística
• Cálculo del estadígrafo a partir de los datos muestrales
• Toma de decisión
Prueba de Hipótesis

Situación Verdadera
Decisión
H0 Cierta H0 Falsa
Acepto H0 No Error Error Tipo II
Rechazo H0 Error Tipo I No Error

H0:  = o H1:  > o

1-
 
o PC

Si x < PC Si x > PC P(cometer un error de tipo I) = 


P(cometer un error de tipo II) = 
Acepto H0 Rechazo H0 Potencia de la Prueba = 1-
Prueba de Hipótesis

Media de una población normal con varianza  conocida

Unilateral derecha
H0:  = o (puede ser H0:   o) H1:  > o

H0:  = o H1:  > o

o PC

Si x < PC Si x > PC
Acepto H0 Rechazo H0

PC    Z 
0 1 
2 n
Prueba de Hipótesis

Media de una población normal con varianza  conocida

Unilateral izquierda
H0:  = o (puede ser H0:   o) H1:  < o

H1:  < o H0:  = o

PC o

Si x < PC Si x>
PC
Rechazo H0 Acepto
H0   0 
PC Z 
1 
2 n
Prueba de Hipótesis

Media de una población normal con varianza  conocida

Bilateral
H0:  = o H1:   o

H1:  < o H0:  = o H1:  > o

PC1 o PC2

Si x < PC1 Si PC1 < x < PC2 Si x > PC2


Rechazo H0 Acepto H0 Rechazo H0

PC    Z  PC    Z 
1 0 1 
2 n 2 0 1 
2 n
Prueba de Hipótesis

Media de una población normal con varianza  desconocida

Unilateral derecha
H0:  = o (puede ser H0:   o) H1:  > o

H0:  = o H1:  > o

o PC

Si x < PC Si x > PC
Acepto H0 Rechazo H0

PC    t (n  1) S
0 1
n
Prueba de Hipótesis

Media de dos poblaciones normales con varianzas conocidas


e iguales

Unilateral derecha
H0: 1 = 2 (puede ser H0: 1  2) H1: 1 > 2
H0: 1 = 2 H1: 1 > 2

PC

Si x1 - x2 < PC Si x1 - x2 > PC
Acepto H0 Rechazo H0
1 1
PC  Z  
1
n n 1 2
Prueba de Hipótesis

Media de dos poblaciones normales con varianzas conocidas


e iguales

Unilateral izquierda
H0: 1 = 2 (puede ser H0: 1  2) H1: 1 < 2
H1: 1 < 2 H0: 1 = 2

PC

Si x1 - x2 < PC Si x1 - x2 > PC
Rechazo H0 Acepto H0
1 1
PC   Z  
1 
n n 1 2
Prueba de Hipótesis

Media de dos poblaciones normales con varianzas conocidas


e iguales
Bilateral
H0: 1 = 2 H1: 1  2
H1: 1 < 2 H0: 1 = 2 H1: 1 > 2

PC1 PC2

Si x1-x2 < PC1 Si PC1 < x1-x2 < PC2 Si x1-x2 > PC2
Rechazo H0 Acepto H0 Rechazo H0
1 1 1 1
PC   Z  
1 
PC  Z  
1 
n n n n
1 2

1 2 1 2
Prueba de Hipótesis

Media de dos poblaciones normales con varianzas conocidas


y diferentes
Unilateral derecha
H0: 1 = 2 (puede ser H0: 1  2) H1: 1 > 2

H0: 1 = 2 H1: 1 > 2

PC

Sxi x1- x2 < PC Si x1- x2 > PC


Acepto H0 Rechazo H0
 
2 2

PC  Z 1 

1 2

n n
1 2
Prueba de Hipótesis

Media de dos poblaciones normales con varianzas desconocidas


e iguales
Unilateral derecha
H0: 1 = 2 (puede ser H0: 1  2) H1: 1 > 2

H0: 1 = 2 H1: 1 > 2

PC

S i x1- x2 < PC Si x1-x2 > PC


Acepto H0 Rechazo H0
1 1 (n  1)S  (n  1)S
PC  t (n  n  2)  S 
2 2

1 S 
2 1 1 2 2

n n
1 2 0
n n 2
0

1 2 1 2
Prueba de Hipótesis

Media de dos poblaciones normales con varianzas


desconocidas y diferentes

Unilateral derecha
H0: 1 = 2 (puede ser H0: 1  2) H1: 1 > 2
H0: 1 = 2 H1: 1 > 2

PC

Si x1-x2 < PC Si X1-X2 > PC  S12 S 22 


2


 n  n  
Acepto H0 Rechazo H0  2 
  1
2 2
 S12   S 22 
S S 2 2

 n  
 n 
PC  t ()
1 
 1 2 
 1   2 

n n 1 2
n1  1 n2  1
Prueba de Hipótesis

Varianzas de dos poblaciones normales

H 0:  12 =  22 H 1:  12 >  22

S 2

 F (n  1; n  1)
1

S 2 1 2

Se rechaza H0

H 0:  12 =  22 H 1:  12 <  22

S 2

 F (n  1; n  1)
2

S 2 2 1

Se rechaza H0
Ejercicios de prueba de hipòtesis
Estadística No Paramétrica
Escala de medición

Escala de medición Relaciones que se establecen


Nominal o Clasificatoria Equivalencia
Ordinal o de rango Equivalencia
Orden (menor, igual, Mayor que...)
Intervalo Equivalencia,
Orden (menor, igual, Mayor que...)
Distancia entre individuos
Unidad de medida y punto 0 “cero” arbitrario
Razón o proporción Equivalencia,
Orden (menor, igual, Mayor que...)
Distancia entre individuos
Existencia de un punto 0 “cero” verdadero
La razón entre dos puntos cualesquiera es
independiente de la unidad de medida
Estadística no paramétrica

Estadística paramétrica Estadística no paramétrica

Fuertes supuestos Débiles supuestos

Escala: Al menos de intervalo Escala: Nominal, ordinal


homogeneidad de varianzas Estadígrafos: Moda, mediana,
normalidad rango
Estadígrafos: Media, Varianza
Estadística no paramétrica

Asociación
Escala de Dos muestras ”k” muestras Dos muestras “k” muestras
entre dos
medición independientes independientes relacionadas relacionadas
variables

Intervalo - ANOVA de
Regresión
razón t no pareada ANOVA t pareada medidas
lineal
repetidas

Rango de Coeficiente
Ordinal Mann-Whitney Kruskal-Wallis Friedman
Wilcoxon contingencia

Coeficiente
Nominal Chi-cuadrado Chi-cuadrado McNemar Q de Cochran
contingencia
Estadística no paramétrica

Caso de dos grupos independientes


Prueba de Mann-Whitney-----(paralela a la t de grupos independientes)

Caso de dos grupos relacionados


Prueba de Wilcoxon-----(paralela a la t de grupos relacionados)

Casi de “k" grupos independientes


Prueba de Kruskal-Wallis-----(similar a Completamente Aleatorizad)

Caso de “k" grupos relacionados


Prueba de Friedman----(similar al Diseño Bloques al Azar)
Prueba de Mann - Whitney

Para dos grupos independientes. Paralela a la t de dos grupos


independientes

Ho: No hay diferencia entre los dos grupos


H1: Hay diferencia entre los dos grupos

Pasos:
1. Obtener los rangos de forma conjunta en ambos grupos
2. Calcular las sumas de los rangos para cada
Prueba de Mann - Whitney

Muestras pequeñas (n1 y n2  20)

Ri =  rangos de i

U = n1 n2 + n1 (n1+1) / 2 – R1 y U´ = n1 n2 – U
ó
U = n1 n2 + n2 (n2+1) / 2 – R2 y U´ = n1 n2 – U

Contrastar el mayor { U , U´ } con el valor de la tabla

Muestras grandes

Se aproxima a la normal con :


U = n1 n2 / 2 ; U = [ n1 n2 (n1 + n2 )12]
Prueba de Mann - Whitney

Potencia:
Este es uno de los test no paramétricos más poderoso. Aun
cuando se cumplen las premisas para la prueba t, este test tiene
una potencia del 95% en relación a su homólogos paramétrico t.
Prueba de Mann - Whitney

Ejemplo:
Los datos se corresponden con las alturas de las plantas en la
etapa R8 de dos variedades de soya, y se quiere saber si sus
alturas son iguales o no.

Alturas Rangos
Var I Var II Var I Var II
76 69 1 7
74 68 2 8
73 66 3 10
72 65 4 11
71 64 5 12
70 6
67 9
n1 = 7 n2 = 5 R1 = 30 R2 = 48
Prueba de Wilcoxon

Para dos muestras relacionadas. Paralela prueba t de muestras pareadas

Ho: No hay diferencia entre los dos grupos


H1: Hay diferencia entre los dos grupos

Pasos:
1. Obtener las diferencias di para cada individuos
2. Calcular las sumas absoluta T de los rangos con el signo menos
frecuente

T ´ = m( n+1 ) – T
m; número de rangos con signo de más baja frecuencia

Muestras grandes ( n>100 )


Se puede aproximar a la distridución normal con:

T = n ( n + 1 ) / 4 ; T = [ n ( n + 1 )( 2n + 1 ) / 24
Prueba de Wilcoxon

Ejemplo:
Se aplicó un estimulante del crecimiento vegetal a 10 cultivares, y
se quiere saber si la biomasa se mantiene constante antes y
después de la aplicación del producto.

Diferencia Rango
Cult. di | di |

1 142 138 4 4.5


2 140 136 4 4.5
3 144 147 -3 1
4 144 139 5 7
5 142 143 -1 2
6 146 141 5 7
7 149 143 6 9.5
8 150 145 5 7
9 142 136 6 9.5
10 148 146 2 3
Prueba de Wilcoxon

Potencia:
Si las di siguen distribución normal, la potencia de esta prueba es
solo el 45% de la potencia de su correspondiente test de t para
muestras pareadas. No obstante es la alternativa cuando las di no se
distribuyen normalmente
Prueba de Kruskal - Wallis

Para “k" grupos independientes. Anova de Clasificación Simple por rango

Ho: No hay diferencia entre los dos grupos


H1: Hay diferencia entre los dos grupos

Pasos:
1. Convertir las puntuaciones a rangos (conjuntamente en los “k" grupos)
2. Calcular la suma de los rangos Rj en cada grupo

Estadígrafo
H = 12 / N ( N+1) [  R2i /ni ] – 3 (N + 1)
ni .; número de observaciones en grupo i
N = ni

Si la Hipótesis nula es cierta, H se distribuye según chi-cuadrado con


k-1 grados de libertad
Prueba de Kruskal - Wallis

Ejemplo:
Se desea comparar tres raciones alimenticias respecto al incremento en
peso (kg) de los animales durante el período de ceba. Las observaciones
se presentan en la siguiente tabla:

T1 Rangos T2 Rangos T3 Rangos

14.0 12 8.4 9 6.9 6


12.1 11 5.1 2 5.3 3
9.6 10 7.3 7 5.8 4
8.2 8 6.6 5 4.1 1
n1 = 4 R1 = 41 n2 = 4 R2= 23 n3= 4 R3 =14
Prueba de Kruskal - Wallis

N = 12
H = 12 / (12)(13) [ (41)2/4 + (23)2/4 +(14)2/4 – 3 ( 13)

H = 7.269 > H0.05( 4,4,4) = 5.692 Se rechaza Ho


Comparación Múltiple No paramétrica

Comparación múltiple no paramétrica

Rangos ordenados 14 23 42

ES diferencia entre dos rengos =  n ( n p )( n p + 1 ) / 12

Donde p es el número de rangos que intervienen en la comparación


Comparación Múltiple No paramétrica

Para p = 3 Es = 4 ( 12)(13) / 12 = 7.21


Para p = 2 Es = 4 ( 8)(9) / 12 = 4.90

B vs A RA - RB ESDif q p q0.05(  ,p) Sig.

3 vs 1 41-14=27 7.21 3.74 3 3.314 *

3 vs 2 41-23=18 4.90 3.67 2 2.772 *

2 vs 1 23-14=9 4.90 1.84 2 2.792 ns

q = ( RA –RB ) / ESdif
Prueba de Friedman

Para “k" grupos relacionados. Paralela al Anova de Bloques al Azar

Ho: No hay diferencia entre los dos grupos


H1: Hay diferencia entre los dos grupos

Pasos:
1. Obtener los rangos de los tratamientos dentro de cada bloque
2. Calcular la suma de los rangos Rj en cada tratmiento)

Estadístico

2 = 12 / a b ( a+1) [  R2i ] – 3b (a + 1)

Este estadístico se distribuye según 2 (a-1), si Ho es cierta


Prueba de Friedman

Ejemplo:

Se realizó un ensayo en Bloques al Azar con el propósito de evaluar el


efecto de cuatro dietas respecto a la conversión alimenticia de pollos de
engorde. A través de los bloques se controló el efecto de la orientacion
del galpón.

Bloques Dietas

1 R 2 R 3 R 4 R

I 1.5 2 2.7 4 2.1 3 1.3 1


II 1.4 2 2.9 4 2.2 3 1.0 1
III 1.4 2 2.1 3 2.4 4 1.1 1
IV 1.2 1 3.0 4 2.0 3 1.3 2
V 1.4 1 3.3 4 2.5 3 1.5 2
Ri 8 19 16 7
Prueba de Friedman

2 = 12 / (4)(5)(4+1) { (8)2 + (19)2 + (16)2 + (7)2 } – 3(5)( 4+1 )

2 = 12.60 > 20.05 (3) = 7.815 Se rechaza Ho


Prueba de Friedman

Es una alternativa eficiente cuando en el Anova del Diseño Bloques al


Azar no se cumplen las hipótesis de homogeneidad de varianza y/o la
normalidad

Para la prueba de Comparación entre los tratamientos se siguen los


mismos pasos que la de Kruskal –Wallis

ES =  a b ( (a + 1) / 12
MUCHAS GRACIAS

También podría gustarte