Está en la página 1de 75

UNIVERSIDAD RURAL DE GUATEMALA

2018
Ciencias Jurídicas Y Sociales

Quinto Semestre
Metodos Estadisticos Para Investigadores

ING. WALTER HERRERA

TEXTO PARALELO
UNIFICADO
POLLETH SINTO

Polleth Alexandra Sinto Tójes


Carné 14-000-0557
1 Tabla de contenido

1. TEORÍA DEL MUESTREO ........................................................................................... 4


1.1 Población Y Muestra ......................................................................................................... 4
1.2 Muestreo Con O Sin Reemplazo........................................................................................ 5
2 MÉTODOS DE MUESTREO ......................................................................................... 5
2.1 Probabilístico .................................................................................................................... 5
2.2 Distribuciones Muéstrales ................................................................................................. 9
3 DISTRIBUCIONES MUÉSTRALES DE UNA POBLACIÓN ....................................... 10
3.1 Media .............................................................................................................................. 10
3.2 Varianza ......................................................................................................................... 11
3.3 Proporción ...................................................................................................................... 14
4 TEORÍA DE LA ESTIMACIÓN.................................................................................... 15
4.1 Estimación Puntual ......................................................................................................... 15
4.2 Propiedades Del Estimador Puntual: .............................................................................. 15
5 ESTIMACIÓN POR INTERVALO................................................................................ 18
6 TEORIA DE ESTIMACIÓN ......................................................................................... 19
6.1 Estimas por puntos y estimas por intervalos. SEGURIDAD............................................ 20
6.1.1 La estimación puntual: ......................................................................................................................... 20
6.1.2 Insesgadez ............................................................................................................................................ 20
6.1.3 Totales .................................................................................................................................................. 22
6.2 Estimación por intervalo ................................................................................................. 23
6.2.1 Dos elementos en la estimación ........................................................................................................... 23
6.2.2 Seguridad ............................................................................................................................................. 24
7 ESTIMAS POR INTERVALOS DE CONFIANZA, DE PARAMETROS
POBLACIONALES .............................................................................................................. 25
8 INTERVALOS DE CONFIANZA PARA MEDIAS ....................................................... 27
9 Estadístico muestral Parámetro poblacional .................................................................. 27
9.1 Grandes muestras ........................................................................................................... 27
9.2 Pequeñas muestras .......................................................................................................... 28
10 INTERVALOS DE CONFIANZA PARA PROPORCIONES...................................... 30
11 INTERVALOS DE CONFIANZA PARA DIFERENCIAS Y SUMAS ........................ 30
12 INTERVALOS DE CONFIANZA PARA VARIANZAS ............................................. 31
13 INTERVALOS DE CONFIANZA PARA RELACIONES DE VARIANZAS ............... 33

Página 1 de 74
Polleth Sinto
16/06/2018 22:31:00
14 ESTIMA DE MAXIMA VEROSIMILITUD............................................................... 33
15 ESTIMAS INSESGADAS Y EFICIENTES ............................................................... 36
15.1 Estimadores insesgados ................................................................................................... 36
15.2 Error cuadrático medio. Estimadores insesgados de varianza mínima ............................ 38
15.3 Estimadores insesgados de mínima varianza ................................................................... 39
15.4 Estimadores Eficientes .................................................................................................... 41
16 ESTIMAS POR INTERVALOS DE CONFIANZA DE PROPORCIONES ................. 42
17 ESTIMAS POR INTERVALOS DE CONFIANZA PARA VARIANZAS .................... 43
18 ESTIMAS POR INTERVALO DE CONFIANZA PARA PROPORCIONES .............. 43
19 ESTIMAS POR INTERVALO DE CONFIANZA PARA DIFERENCIAS Y SUMAS . 44
20 ANEXO ..................................................................................................................... 46
21 Intervalo de confianza para una población ................................................................ 47
22 Intervalo para proporción .......................................................................................... 55
23 Ensayos de hipótesis .................................................................................................. 58
23.1 Hipótesis nula.................................................................................................................. 58
23.2 Hipótesis alternativa ....................................................................................................... 58
24 Nivel de significancia ................................................................................................ 58
24.1 Error tipo I y tipo II ........................................................................................................ 59
25 Ensayos de hipótesis para una población ................................................................... 60
25.1 La prueba de hipótesis tiene varias etapas: ..................................................................... 61
26 Pruebas de hipótesis para una población ................................................................... 62
26.1 Elementos de LA prueba:................................................................................................ 62
o Es la hipótesis o afirmación a ser probada ..................................................................... 63
o Puede ser por ejemplo  =, σ, o  a constante ................................................................ 63
o Sólo puede ser rechazada o no rechazada ...................................................................... 63
27 Prueba de hipótesis Estadística .................................................................................. 64
28 Estadístico de prueba ................................................................................................. 66
28.1 Pruebas de Hipótesis de dos colas: .................................................................................. 66
28.2 Pruebas de Hipótesis de cola derecha: ............................................................................. 67
28.3 Pruebas de Hipótesis cola izquierda: ............................................................................... 67
29 Modelos de Regresión y Correlación Lineal Simple y Múltiple ................................... 68

Página 2 de 74
Polleth Sinto
16/06/2018 22:31:00
29.1 Regresión Lineal Simple y Múltiple................................................................................. 68
29.2 Correlación Lineal Simple y Múltiple Correlación. ......................................................... 70
29.2.1 Coeficiente de correlación múltiple. ................................................................................................ 70
29.2.2 Correlación Parcial .......................................................................................................................... 72
29.2.3 Relación entre los coeficientes de correlación. ................................................................................ 73
29.2.4 Cálculo del coeficiente de correlación parcial. ................................................................................ 73

Página 3 de 74
Polleth Sinto
16/06/2018 22:31:00
1. TEORÍA DEL MUESTREO1

(Primera Semana)

Esta teoría trata sobre los fundamentos probabilísticos, las distribuciones estadísticas, los métodos
o técnicas de selección, las fórmulas de cálculo de los errores de muestreo, las fórmulas y tablas de
determinación del tamaño de la muestra, los métodos de estimación de los parámetros
poblacionales a partir de los estadísticos muestrales. Nosotros daremos una guía básica de
introducción a la teoría de las muestras.

Esta teoría indica los procedimientos o técnicas para extraer una parte o muestra del colectivo o
población que se quiere estudiar, o analizar en ella las características que interesen y el del resultado
de este análisis inferir o afirmar algo del universo total.

El muestreo se utiliza con mucha frecuencia en investigaciones de mercados, medios y opinión en


investigación social, en general-, puesto que ofrece algunos importantes beneficios con la
realización de un censo.

1.1 Población Y Muestra

a. Población2: Puede definirse como un conjunto de medidas, o el recuento de todas


las unidades que presentan una característica común. Se podría definir como un
conjunto de mediciones, finito o infinito, real o conceptual.
b. Muestra: Es un subconjunto de la población y tiene que ser representativa de la
misma.

1
José Rodriguez, Ruben José (Lic.,Prof); “TEORÍA BÁSICA DEL MUESTREO®”
http://www.rubenjoserodriguez.com.ar/wp-content/uploads/2011/07/Teoria_Basica_del_Muestreo.pdf
2
Martinez Bencardino, Ciro. “Estadística y muestreo” Décima tercera edición. Complemento virtual. Pag.274

Página 4 de 74
Polleth Sinto
16/06/2018 22:31:00
1.2 Muestreo Con O Sin Reemplazo3

Si se extrae un objeto de una urna, se tiene la opción de devolverlo o no a ella antes de hacer otra
extracción. En el primer caso un objeto particular se puede extraer varias veces, mientras que en el
segundo caso sólo se puede extraer una vez. Un muestreo en el que cada miembro de la población
es extraído una sola vez se le llama muestreo sin reemplazo, mientras que un muestreo en el que
cada miembro puede ser extraído varias veces se le llama muestreo con reemplazo.

Desde un punto de vista teórico, una población finita que se muestra con reemplazo se considera
teóricamente infinita, puesto que pueden extraerse muestras de cualquier tamaño sin agotar la
población. Para la mayoría de los propósitos prácticos, el muestreo de una población finita muy
grande puede considerarse como un muestreo de una población infinita.

2 MÉTODOS DE MUESTREO4

(Segunda Semana)

2.1 Probabilístico

Es requisito que todos y c/u de los elementos de la población tengan la misma probabilidad de ser
seleccionados (azar). Se debe tener disponible un listado completo de todos los elementos de la
población, a esto se le llama MARCO DE MUESTREO.

A. Aleatorio Simple

Cada sujeto tiene una probabilidad igual de ser seleccionado para el estudio.

3
Universidad Interamericana para el Desarrollo. “Estadística Inferencial” págs. 3 y 4
4
Espinoza Salvadó, Iván. Dr. “Tipos de Muestreo”

Página 5 de 74
Polleth Sinto
16/06/2018 22:31:00
a. Estratificado: Cuando la muestra incluye subgrupos representativos (estratos) de
los elementos de estudio con características específicas: urbano, rural, nivel de
instrucción, año académico, carrera, sexo, grupo étnico, edad, paridad etc.
En cada estrato para obtener el tamaño de la muestra se puede utilizar el muestreo
aleatorio o sistemático.

EJEMPLO
EstudiantesdelaCarreradeMedicina2005
Iaño=20% II año=18%
IIIaño=15% IV año=30%

b. Sistemático: Se necesita una lista numerada de las unidades de la población que se


quiere muestrear.

Opciones

• Fichas de lotería o bolitas numeradas


• Tabla de números aleatorios

Pasos

• Determinar el tamaño de la muestra


• Numerar los individuos de 1 a n
• Tirar unidades al azar (probabilidad igual)

EJEMPLO

Cobertura de la vacuna anti- sarampión entre 1200 niños


de una escuela X :

Página 6 de 74
Polleth Sinto
16/06/2018 22:31:00
Muestra = 60
Hacer una lista de todos los niños
Numerarlos de 1 a 1200
Selección aleatoria de 60 números

Se toman todos los individuos de la lista y se seleccionan c/3, c/7, o cualquier otro
numero. Para comenzar se utiliza un número al azar.

Población (N) :12,000


Muestra requerida (n) : 600
Calcular el intervalo de muestreo (k) = 12,000 / 600 = 20
Escoger el primer numero al azar [1 - 20]
1era unidad
Añadir k para escoger la siguiente unidad y así sucesivamente hasta completar n.

c. Por Conglomerado: Son unidades geográficas (distritos, pueblos, organizaciones,


clínicas)

Facultad de Ciencias Económicas Facultad de Ciencias Jurídicas y Sociales


Facultad de Química y Farmacia.
Limitantes: financieras, tiempo, geografía y otros obstáculos.

Se reducen costos, tiempo y energía al considerar que muchas veces las unidades de
análisis se encuentran encapsuladas o encerradas en determinados lugares físicos o
geográficos: Conglomerados.

Unidad de análisis: sujeto o sujetos


Unidad Muestral en este caso: conglomerado a través del cual se logra el acceso a
la unidad de análisis.
Selección en 2 etapas:

Página 7 de 74
Polleth Sinto
16/06/2018 22:31:00
Los racimos o conglomerados
En los racimos se seleccionan a los sujetos a ser medidos.

Población, Localidades, Viviendas. Croquis.

B. No Probabilístico

No se conoce la probabilidad que tienen los diferentes elementos de la población de estudio


de ser seleccionados.

a. Por conveniencia: Es la muestra que esta disponible en el tiempo o periodo de


investigación.

EJEMPLO

Todos los pacientes que asistan a una clínica en particular cierto día, semana,
pueden ser requeridos para participar.

Desventaja: la muestra puede ser poco representativa de la población que se desea


estudiar

b. Por cuotas: Todos los elementos conocidos de la población tienen que aparecer en
lamuestra.

i. Se debe asegurar que estos aparezcan en la misma proporción que en la


población
ii. El investigador entrevista a todos las personas de cada categoría que pueda
encontrar hasta que haya llenado la cuota

Página 8 de 74
Polleth Sinto
16/06/2018 22:31:00
c. Accidental o bola de nieve: Se aprovecha o utiliza personas disponibles en un
momento dado que se corresponda con el propósito del estudio.
i. De los tres tipos de muestreo no probabilístico resulta el más deficiente.

2.2 Distribuciones Muéstrales5

Las muestras aleatorias obtenidas de una población son, por naturaleza propia, impredecibles. No
se esperaría que dos muestras aleatorias del mismo tamaño y tomadas de la misma población tenga
la misma media muestral o que sean completamente parecidas; puede esperarse que cualquier
estadístico, como la media muestral, calculado a partir de las medias en una muestra aleatoria,
cambie su valor de una muestra a otra, por ello, se quiere estudiar la distribución de todos los
valores posibles de un estadístico

Tales distribuciones serán muy importantes en el estudio de la estadística inferencial, porque las
inferencias sobre las poblaciones se harán usando estadísticas muestrales.

Con el análisis de las distribuciones asociadas con los estadísticos muestrales, podremos juzgar la
confiabilidad de un estadístico muestral como un instrumento para hacer inferencias sobre un
parámetro poblacional desconocido.

Como los valores de un estadístico, tal como la media, varían de una muestra aleatoria a otra, se le
puede considerar como una variable aleatoria con su correspondiente distribución de frecuencias.

La distribución de frecuencia de un estadístico muestral se denomina distribución muestral

En general, la distribución muestral de un estadístico es la de todos sus valores posibles calculados


a partir de muestras del mismo tamaño.

5
De La Torre, Mrta Leticia. “Distribuciones Muestrales. Distribucion Muestral de Medias” pag. 11.

Página 9 de 74
Polleth Sinto
16/06/2018 22:31:00
3 DISTRIBUCIONES MUÉSTRALES DE UNA POBLACIÓN

(Tercera Semana)

3.1 Media6

Dada una muestra aleatoria X1,X2,...,Xn de tamaño n, la media muestral es el estadístico obtenido
tomando o la media aritmética de los elementos de la muestra. La denotaremos mediante X :

Ilustración 1

Si la variable aleatoria en estudio sigue una distribución normal N(µ,σ) entonces la media
muestral X sigue una distribución normal N(µ,σ/ √ n), donde n es el tamaño de la muestra.
Por otra parte:

a. Teorema del Límite Central. Si el tamaño de la muestra es suficientemente grande (n


≥ 30) entonces, para casi todas las poblaciones, la media muestral X sigue
aproximadamente una distribución normal.

Luego: Si la población de partida es normal, la distribución de las medias muestrales


también es normal, cualquiera que sea n.
Si la población de partida no es normal, la distribución de las medias muestrales es
aproximadamente normal cuando n ≥ 30.

EJEMPLO

6
Universidad de La Laguna. “Muestreo y Estimación” pág. 3

Página 10 de 74
Polleth Sinto
16/06/2018 22:31:00
El tiempo que tarda un cajero automático en atender a los clientes es de una media de
3 minutos, con desviación típica de 1.2 minutos. Se observa una muestra de 50
personas. ¿Cuál es la probabilidad de que el tiempo medio de espera supere los 2
minutos?

Sea X =‘tiempo de espera en el cajero’. Se tiene que µ = 3, σ = 1.2 y n = 50 clientes.

Aunque desconocemos la distribución de la variable aleatoria X, ya que n ≥ 30


podemos considerar que la variable aleatoria X =‘tiempo medio de espera’ sigue una
distribución normal.

Ilustración 2

Entonces:

Ilustración 3

Esto es, el tiempo medio de espera superará, con casi total seguridad, los 2 minutos.

3.2 Varianza7

Sea X1,...,Xn una m.a.s. de una variable aleatoria X con media E(X) = µ y varianza V ar (X) = σ2.
El estimador más razonable de la varianza poblacional σ2 es la varianza muestral.

7
“Introduccion a la Inferencia Estadística – Distribución en el Muestreo” pág. 8

Página 11 de 74
Polleth Sinto
16/06/2018 22:31:00
Ilustración 4

que verifica las siguientes propiedades:

i. Es un estimador consistente de σ2.


ii. Es un estimador asintóticamente insesgado de σ2 puesto que

Ilustración 5

Puesto que la varianza muestral S2 es un estimador sesgado (aunque asintóticamente


insesgado), para estimar la varianza σ2 se usa la cuasivarianza muestral:

Ilustración 6

que es un estimador insesgado y consistente de σ2.

Ilustración 7

a. Teorema de Fisher: Bajo hipótesis de normalidad (X ˜ N (µ, σ)) se verifica que:

Ilustración 8

Página 12 de 74
Polleth Sinto
16/06/2018 22:31:00
Si conocemos la varianza poblacional µ, se verifica

Ilustración 9

Bajo hipótesis de normalidad (X ˜ N (µ, σ)), las variables aleatorias X y S ˜2


son independientes.

EJEMPLO

Dada una población X ˜ N (6, σ = 2.5), y tomando una muestra aleatoria simple
X1,...,Xn de tamaño n = 12, calcular la probabilidad de que la varianza muestral sea
mayor que 4.9.

Ilustración 10

En la tabla de la distribución de la χ2 n aparecen los siguientes resultados

Ilustración 11

Mediante una interpolación numérica se calcula la probabilidad que interesa

Página 13 de 74
Polleth Sinto
16/06/2018 22:31:00
Ilustración 12

3.3 Proporción8

Se considera una población de la que se extraen muestras de tamaño n ≥ 30 y de la que se conoce


que la proporción de individuos que presentan una determinada característica es igual a p. La
variable aleatoria p de las b proporciones muestrales es la proporción de individuos de cada muestra
que presentan la característica estudiada. Se define como p= X/n, donde X es el número de éxitos
y n el tamaño de la muestra.

Se tiene que p sigue una distribución normal

De aquí:

8
Universidad de La Laguna. “Muestreo y Estimación” pág. 4

Página 14 de 74
Polleth Sinto
16/06/2018 22:31:00
4 TEORÍA DE LA ESTIMACIÓN9

(Cuarta Semana)

Como proceso, consiste en que dada una población que siga una distribución de cierto tipo con
función de probabilidad (de cuantía o de densidad) f( X, ) dependiente de un parámetro o
varios desconocido(s) " ", aventurar en base a los datos muestrales el valor que toma o puede
tomar el parámetro o parámetros .

4.1 Estimación Puntual

Se ocupará, dentro del marco de la perspectiva c´lasica, de estudiar las caracteristicas deseables de
los estimadores permitiendonos escoger aquel estimador que reuna mas propiedades ventajosas
apra que realicemos buenas estimaciones

4.2 Propiedades Del Estimador Puntual:

a. Insesgadez: un estimador es insesgado o centrado cuando verifica que

[se designa con B de BIAS ,sesgo en inglés]

Como ejemplo podemos decir que : la media muestral es un estimador insesgado de


la media de la población (y lo es sea cual fuere la distribución de la población) ya
que:

9
Universidad de Valencia Lejarza&Lejarza “ESTIMACIÓN PUNTUAL” págs.1-4

Página 15 de 74
Polleth Sinto
16/06/2018 22:31:00
si el parámetro a estimar es

y establecemos como estimador de

tendremos que

luego la media muestral es un estimador insegado de la media poblacional.

En cambio la varianza muestral es un estimador sesgado de la varianza de la


población , ya que: si utilizamos como estimador de

la varianza muestral es decir :

tendremos que

que es el parámetro a estimar .

existe pues un sesgo que será

Dado que la varianza muestral no es un estimador de la varianza poblacional con


propiedades de insesgadez , conviene establecer uno que si las tenga ; este
estimador no es otro que la cuasivarianza muestral, de ahí su importancia; así:

la cuasivarianza es en función de la varianza y tomada como


estimador

tendríamos que

Página 16 de 74
Polleth Sinto
16/06/2018 22:31:00
dado que la esperanza del estimador coincide con el parámetro a estimar podemos
decir que la cuasivarianza muestral es un estimador insesgado de la varianza de la
población.

No obstante , y dado que ,cuando el tamaño de la muestra tiende a infinito el sesgo


tiende a cero, se dice que el estimador es asintóticamente insesgado o

asintóticamente centrado: podemos establecer que :


Por tanto la varianza muestral es un estimador sesgado pero asintóticamente
insesgado de la varianza de la población.

b. Consistencia: Un estimador es consistente si converge en probabilidad al


parámetro a estimar . Esto es:
si

c. Linealidad. Un estimador es lineal si se obtiene por combinación lineal de los


elementos de la muestra ; así tendríamos que un estimador lineal sería :

d. Eficiencia: Un estimador es eficiente u óptimo cuando posee varianza mínima o


bien en términos relativos cuando presenta menor varianza que otro . Quedando
claro que el hecho puede plantearse también en términos más coherentes de Error
Cuadrático Medio (ECM). Tendríamos que :

ECM( )=

Página 17 de 74
Polleth Sinto
16/06/2018 22:31:00
por lo expresado podemos aventurar que un estimador insegado , luego

es el único capaz de generar eficiencia.

e. Suficiencia.Un estimador es suficiente cuando no depende del parámetro a estimar


.
En términos más simples : cuando se aprovecha toda la información muestral.

5 ESTIMACIÓN POR INTERVALO10

(Quinta Semana)

Dada una población X, que sigue una distribución cualquiera con media µ y desviación estándar σ
.

i. Sabemos (por el TCL) que, para valores grandes de n , la media muestral x sigue una

distribución aproximadamente normal con media µ x = µ y desviación estándar

ii. Por otra parte, el Teorema de Chebyshev nos dice que, en una distribución normal,
aproximadamente un 95% de los datos estaban situados a una distancia inferior a dos
desviaciones estándar de la media.

De lo anterior se deduce que:

10
UOC (www.uoc.edu) “Estimación Puntual y Estimación por Intervalos de Confianza” pág. 3

Página 18 de 74
Polleth Sinto
16/06/2018 22:31:00
Ilustración 13

Ilustración 14

Por tanto, ésta última fórmula nos da un intervalo de valores tal que la probabilidad de que la media
de la población µ esté contenida en él es de 0,95.

Este tipo de intervalos se llaman intervalos de confianza de un parámetro poblacional. El nivel de


confianza (1 - α) del intervalo es la probabilidad de que éste contenga al parámetro poblacional. En
el ejemplo anterior, el nivel de confianza era del 95% (α = 0,05).

6 TEORIA DE ESTIMACIÓN

Estimar qué va a ocurrir respecto a algo (o qué está ocurriendo, o qué ocurrió), a pesar de ser un
elemento muy claramente estadístico, está muy enraizado en nuestra cotidianidad. Dentro de ello,
además hacemos estimaciones dentro de un intervalo de posibilidades. Por ejemplo: “creo que
terminaré la tarea en unos 5-6 días”. Lo que hacemos en el terreno del análisis de datos es aplicar
matizaciones técnicas a este hábito. Vamos a dedicar este documento al concepto de estimación,
comenzando con la estimación puntual. Después nos ocuparemos de desarrollar un modelo de
estimación por intervalo donde identificaremos los elementos fundamentales, con su significado y
símbolo. Y, por último, habrá que desarrollar cómo se calculan esos elementos.

Página 19 de 74
Polleth Sinto
16/06/2018 22:31:00
6.1 Estimas por puntos y estimas por intervalos. SEGURIDAD
6.1.1 La estimación puntual:
Estimar puede tener dos significados interesantes. Significa querer e inferir. Desde luego, el primer
significado es más trascendente. Pero no tiene ningún peso en la estadística, disciplina que no se
ocupa de los asuntos del amor. El segundo significado es el importante aquí. Una estimación
estadística es un proceso mediante el que establecemos qué valor debe tener un parámetro según
deducciones que realizamos a partir de estadísticos. En otras palabras, estimar es establecer
conclusiones sobre características poblacionales a partir de resultados muestrales.

Vamos a ver dos tipos de estimaciones: puntual y por intervalo. La segunda es la más natural. Y
verás que forma parte habitual de nuestro imaginario como personas sin necesidad de una
formación estadística. La primera, la estimación puntual, es la más sencilla y, por ese motivo,
vamos a comenzar por ella. Ocurre, además, que la estimación por intervalo surge, poco más o
menos, de construir un intervalo de posibles valores alrededor de la estimación puntual.

Una estimación puntual consiste en establecer un valor concreto (es decir, un punto) para el
parámetro. El valor que escogemos para decir “el parámetro que nos preocupa vale X” es el que
suministra un estadístico concreto. Como ese estadístico sirve para hacer esa estimación, en lugar
de estadístico suele llamársele estimador. Así, por ejemplo, utilizamos el estadístico “media
aritmética de la muestra” como estimador del parámetro “media aritmética de la población”. Esto
significa: si quieres conocer cuál es el valor de la media en la población, estimaremos que es
exactamente el mismo que en la muestra que hemos manejado.

6.1.2 Insesgadez
Del párrafo anterior podemos concluir erróneamente que todo parámetro se infiere a partir de un
estadístico que resulta ser la misma fórmula o función pero calculado en la muestra. Si queremos
estimar la media poblacional, le asignamos directamente la media de la muestra. Si queremos
estimar la proporción poblacional, le asignamos el valor de la proporción en la muestra. Si
queremos estimar la varianza poblacional, le asignamos el valor de la varianza de la muestra. Esa

Página 20 de 74
Polleth Sinto
16/06/2018 22:31:00
norma general tiene excepciones, por lo que es mejor no pensar en ella como norma. De los tres
ejemplos, es cierto en los dos primeros casos: estimación puntual de una media o de una
proporción; pero no en el tercero: estimación puntual de una varianza. La razón proviene del
objetivo de la insesgadez.

Un sesgo es una tendencia constante. En un ejemplo clásico, solemos afirmar que las escopetas de
feria están diseñadas para errar, para desviarse. Si esa desviación es fija, es decir, si esa desviación
es una tendencia a errar hacia un sentido concreto, entonces hablamos de sesgo. Si no es fija,
entonces se trata de una variación aleatoria. Observa la figura 1. El objetivo es dar al centro de la
diana. El área de disparos A muestra una variación aleatoria, pero sin sesgo pues apunta
correctamente alrededor del objetivo. El área B muestra un sesgo claro: todos los disparos dan en
un mismo punto y ese punto no es el centro de la diana, estamos errando. El área C ejemplifica una
mezcla de ambos: existe sesgo y variación aleatoria, puesto que los disparos impactan en un área
con cierta dispersión aleatoria pero concentradas en torno a un punto desplazado del objetivo.

Los estimadores siempre suministran dispersión aleatoria. Como sabemos del monográfico sobre
muestreo, el conjunto de todas las muestras de un mismo diseño que provienen de una misma
población suministran valores diferentes. Esta circunstancia indica que existe una variación
aleatoria con la que hay que vivir porque es inevitable. Pero todavía sería peor. Es posible que el

Página 21 de 74
Polleth Sinto
16/06/2018 22:31:00
estimador escogido tenga sesgo, es decir, que no solo esté variando alrededor de un punto, sino que
el punto sobre el que varía no es el valor poblacional, verdadero u objetivo de nuestro interés. Esto
si es evitable. Así que los estimadores que utilizamos intentamos que sean insesgados, es decir, que
carezcan de sesgo.

El recurso que utilizamos para ello es el valor esperado, es decir, la media aritmética de la
distribución muestral del estimador. Ya lo viste en el monográfico sobre muestreo. El valor
esperado es, como dice la expresión, el valor que esperamos. Cabe elegir un estimador tal que el
valor esperado coincida con el parámetro. Esto ocurre si utilizamos la media aritmética de la
muestra como estimador de la media aritmética de la población, pues E(X̄ ) =μ . También ocurre
con las proporciones, pues E(p) = π . Pero no ocurre así con la varianza (y, por tanto, tampoco con
la desviación tipo) pues E(S 2 ) ≠ σ 2 . Esto ya lo hemos abordado en el monográfico sobre
muestreo. Lo que hacemos entonces es escoge otro estimador. En el muestreo aleatorio simple
donde las poblaciones son de gran tamaño, es la cuasivarianza el estadístico escogido como
estimador de la varianza poblacional, pues E(Ŝ 2 )= σ 2 , es decir, la cuasivarianza es un estimador
insesgado de la varianza poblacional.

6.1.3 Totales
Además de medias, proporciones y variaciones, un parámetro habitual es el total. Llamamos total
a una frecuencia absoluta calculada en la población. Por ejemplo, podemos tener interés en conocer
cuántas personas votarán al partido HH en las próximas elecciones o cuántos cigarrillos van a
consumirse en el mes de abril. Para responder, utilizamos un recurso indirecto que parte de una
estimación previa, bien sea de una media aritmética o de una proporción. Supongamos que la
población que nos interesa cuenta con un millón de habitantes. Hemos trabajado con una muestra
de 200. De los que 38 dicen que votarán al partido HH. Esto significa 38/200*100=19%. Una
estimación puntual establece que el 19% de la población votará a HH. Como hay un millón de
habitantes, entonces, hablamos de 1,000,000*19/100=190,000 personas. Supongamos también que
se fuman 50 cigarrillos por término medio cada mes. Si ese es el valor de la media aritmética de la
muestra, la estimación puntual afirmará que en la población se fumarán 50 cigarrillos por persona
durante el mes de abril, por término medio. Como hay un millón de habitantes, el mes de abril verá

Página 22 de 74
Polleth Sinto
16/06/2018 22:31:00
consumidos 50 millones de cigarrillos. Así pues, en la estimación de totales no realizamos un
camino alternativo específico sino que ampliamos la estimación realizada previamente, sea de una
proporción o de una media.

6.2 Estimación por intervalo


Las estimaciones puntuales no son una buena opción cuando constituyen el centro del objetivo,
aunque solucionan problemas de procedimiento, por lo que son absolutamente necesarias.

6.2.1 Dos elementos en la estimación


En una estimación por intervalo podemos observar dos elementos: un centro y un radio o distancia
al centro. En el ejemplo, el centro es 5 y el radio es 0,4. El centro es el valor aportado por el
estimador. El radio expresa una medida de imprecisión. Cuanto menor es su valor, mayor es la
precisión. Así que vamos a llamarlo coherentemente error de precisión, utilizando el símbolo ep.
En nuestro ejemplo, el estimador es la media aritmética con valor 5, mientras que el error de
precisión tiene el valor 0,4. Con ambos elementos podemos construir un intervalo. Antes de pasar
al tercer elemento fundamental de una estimación por intervalo, retomemos la estimación puntual.

He iniciado este apartado afirmando que “Las estimaciones puntuales no son una buena opción
cuando constituyen el centro del objetivo, aunque solucionan problemas de procedimiento, por lo
que son absolutamente necesarias”. Ya has leído el razonamiento por el que la estimación puntual
parece una mala opción. Sin embargo, llegará un momento, dentro de unas páginas, en el que
tendremos que calcular el error de precisión. Es algo por lo que hay que pasar comprensiblemente
antes de construir el intervalo, ya que este surge de sumar y restar el error de precisión sobre el
valor del estimador. En el cálculo del error de precisión veremos que nos hace falta el valor de
algún parámetro más. ¿Qué hacemos? Si la estimación por intervalo es la opción razonable,
entonces pondremos en marcha un nuevo proceso, anidado en el anterior, donde necesitaremos
construir un nuevo intervalo, es decir, calcular un nuevo error de precisión, es decir, encontrar el
valor de un nuevo parámetro... y así sucesivamente. Esto debe tener un fin. El fin es la estimación
puntual. En pocas palabras:

Página 23 de 74
Polleth Sinto
16/06/2018 22:31:00
cuando la estimación es un objetivo finalista, es decir un fin que deriva de los objetivos de la
investigación, entonces la llevamos a cabo por intervalo, pero
cuando la estimación es un objetivo instrumental, es decir, una necesidad temporal que surge en el
proceso de construcción de un intervalo, entonces la estimación será puntual.

6.2.2 Seguridad
La figura 2 muestra una distribución muestral hipotética. Cada resultado muestral está representado
por un bloque o ladrillo. Cada bloque es la media aritmética del número de horas que una muestra
aleatoria de personas dice que sería capaz de permanecer en un centro comercial. Muchas muestras
han suministrado el mismo valor, pues sus ladrillos se apilan sobre el mismo punto, formando una
columna. En el eje horizontal figura la diferencia entre el valor del estimador en esa muestra y el
valor real en la población. Así, por ejemplo, hay 6 muestras en las que se ha obtenido un valor del
estimador inferior al parámetro en 5 unidades (la media de esas muestras es 5 horas de permanencia
menos que la media de la población), o también hay 11 muestras con valores del estimador que
superan al parámetro en 4 unidades.

Pues bien, de las 160 muestras que construyen esa distribución muestral, una de ellas es la mía. Tal
vez sea la que he marcado con el color rojo. Tal vez sea alguna de las 159 restantes. Haga lo que
haga, no tengo una respuesta precisa a la pregunta ¿dónde está mi muestra? Pero tengo otro tipo de
respuesta: puedo hacer una apuesta. Por ejemplo, puedo plantearme cuál es la probabilidad de que
mi muestra sea exactamente esa que he marcado en rojo. Si hay 160 posibilidades y he escogido
solo una, la probabilidad es muy baja: 1/160 = 0,00625. Es más, esta operación carece de sentido

Página 24 de 74
Polleth Sinto
16/06/2018 22:31:00
en una distribución muestral más real, puesto que sabemos que el número de muestras es
prácticamente infinito por lo que la probabilidad de ocurrencia de una cualquiera de ellas es cero.
Una forma de solucionar esto es plantearme la probabilidad de que mi muestra sea una de las que
forman un conjunto amplio de resultados muestrales, un intervalo de resultados posibles

En la figura 3 he marcado un área central alrededor del valor esperado del estimador que, como
sabemos, coincide con el parámetro. El área reúne 112 muestras, un 70% de las 160. Se trata de
todas las muestras que suministran valores del estimador que se alejan del parámetro en no más de
3 unidades, sea por abajo o por encima. La figura 4 representa una situación similar, pero acotando
un área del 95% que afecta a 152 muestras, con una distancia máxima al parámetro de 6 unidades.
Observa que, como resulta obvio, cuanto más amplío la superficie de la gráfica, es decir, el
porcentaje de muestras posibles consideradas, también se amplía el intervalo de distancias al
parámetro.

7 ESTIMAS POR INTERVALOS DE CONFIANZA, DE PARAMETROS


POBLACIONALES
En una población cuya distribución es conocida pero desconocemos algún parámetro, podemos
estimar dicho parámetro a partir de una muestra representativa.

Página 25 de 74
Polleth Sinto
16/06/2018 22:31:00
Un estimador es un valor que puede calcularse a partir de los datos muestrales y que proporciona
información sobre el valor del parámetro. Por ejemplo la media muestral es un estimador de la
media poblacional, la proporción observada en la muestra es un estimador de la proporción en la
población.

Una estimación es puntual cuando se obtiene un sólo valor para el parámetro. Los estimadores más
probables en este caso son los estadísticos obtenidos en la muestra, aunque es necesario cuantificar
el riesgo que se asume al considerarlos. Recordemos que la distribución muestral indica la
distribución de los valores que tomará el estimador al seleccionar distintas muestras de la
población. Las dos medidas fundamentales de esta distribución son la media que indica el valor
promedio del estimador y la desviación típica, también denominada error típico de estimación, que
indica la desviación promedio que podemos esperar entre el estimador y el valor del parámetro.

Más útil es la estimación por intervalos en la que calculamos dos valores entre los que se encontrará
el parámetro, con un nivel de confianza fijado de antemano.

Llamamos Intervalo de confianza al intervalo que con un cierto nivel de confianza, contiene al
parámetro que se está estimando.

Nivel de confianza es la "probabilidad" de que el intervalo calculado contenga al verdadero valor


del parámetro. Se indica por 1-a y habitualmente se da en porcentaje (1-a)100%. Hablamos de nivel
de confianza y no de probabilidad ya que una vez extraída la muestra, el intervalo de confianza
contendrá al verdadero valor del parámetro o no, lo que sabemos es que si repitiésemos el proceso
con muchas muestras podríamos afirmar que el (1-a)% de los intervalos así construidos contendría
al verdadero valor del parámetro.

Página 26 de 74
Polleth Sinto
16/06/2018 22:31:00
8 INTERVALOS DE CONFIANZA PARA MEDIAS
En la determinación del tamaño de la muestra se tuvieron en cuenta el nivel de confianza y el error
buscando que al estimar los parámetros poblacionales fueran lo ms confiables posibles.
Una vez aplicada la encuesta a la muestra se debe hacer las estimaciones de los parámetros
poblacionales.

Para hacer esas estimaciones se puede utilizar cualquiera de los estadísticos de la muestra. El
estadístico que se usa para hacer la estimación del parámetro poblacional se le denomina estimador
puntal. Usualmente se usan como estimadores puntales la muestra. La media de la muestra es una
estimación puntual de la media población. La media muestral no es el único valor que se podría
usar para estimar la media poblacional. También se podría usar la mediana muestral, aunque no es
tan eficiente, lo que significa que hay más dispersión en la distribución de las dispersiones.
Los estimadores puntuales usados son:

9 Estadístico muestral Parámetro poblacional

La media muestral es una estimación puntual de la media poblacional. p es una puntual de la


proporción poblacional y s, la desviación estándar muestral, es una estimación puntual de σ, la
desviación estándar poblacional.

Pero como la estimación puntual no da mucha información acerca del parámetro poblacional, se
necesita mayor información por lo que el intervalo de confianza cumple este propósito.

El intervalo de confianza Es el conjunto de valores obtenido a partir de los datos muestrales en el


que hay una determinada probabilidad de que se encuentre el parámetro poblacional. Esta
probabilidad se le conoce como el nivel de confianza.

9.1 Grandes muestras


Cuando el tamaño de la muestra es grande o la variable tiene distribución normal, el intervalo de
confianza está dado por

Página 27 de 74
Polleth Sinto
16/06/2018 22:31:00
Como el error estándar está afectado por el tamaño de la muestra, este a su vez afecta el intervalo
de confianza. Conforme aumenta el tamaño de la muestra, el error estándar disminuye, indicando
esto que hay menos variabilidad en la distribución muestral de a media muestral. La estimación
obtenida de una muestra grande será más precisa que una estimación obtenida de una muestra
pequeña.

Cuando el tamaño de la muestra n es mayor o igual a 30, se aplica el teorema de límite central
asegura que la media muestral sigue la distribución normal. Si la media muestral tiene una
distribución normal, se puede usar la distribución normal estándar, es decir, z, para los cálculos.

9.2 Pequeñas muestras


Cuando el número de observaciones es menor de 30, la estimación del intervalo se basa en las
suposiciones que si la población es normal o que si se conoce ls desviación estándar de la población.
En caso que la muestra sea pequeña, menor de 30, y se conozca la varianza de la población σ 2, el
intervalo de confianza es.

Cauno el tamaño de la muestra sea pequeño y no se conozca la varianza poblacional σ2 , se utiliza


la desviación estándar de la muestra s, y la distribución de probabilidad t.

La distribución de probabilidad t o distribución t de Student es una distribución de probabilidad


que surge del problema de estimar la media de una población normalmente distribuida cuando el
tamaño de la muestra es pequeño. Ésta es la base del popular test de la t de Student para la

Página 28 de 74
Polleth Sinto
16/06/2018 22:31:00
determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo
de confianza para la diferencia entre las medias de dos poblaciones.

La distribución t surge, en la mayoría de los estudios estadísticos prácticos, cuando la desviación


típica de una población se desconoce y debe ser estimada a partir de los datos de una muestra.

Para la estimación del intervalo de confianza, el valor de t depende de los grados de libertad, n-1,
(fila) y del nivel de confianza.

Página 29 de 74
Polleth Sinto
16/06/2018 22:31:00
10 INTERVALOS DE CONFIANZA PARA PROPORCIONES
Si deseamos estimar la proporción p con que una determinada característica se da en una población,
a partir de la proporción p' observada en una muestra de tamaño n, sabemos que

La distribución muestral de proporciones sigue una distribución normal con q=1-p


Como la proporción p de la población es desconocida, se aproxima por la de la muestra siempre
que n>100.
Entonces para un nivel de confianza 1- , p pertenece al

intervalo:

11 INTERVALOS DE CONFIANZA PARA DIFERENCIAS Y SUMAS


Si S1 y S2 son dos estadísticos muestrales con distribuciones muestrales aproximadamente
normales, los límites de confianza para la diferencia de los parámetros poblacionales
correspondientes a S1 y S2 vienen dados por:

Figura 6.4.1 Diferencia de Parámetros Poblacionales


mientras que los límites de confianza para la suma de los parámetros poblacionales son:

Figura 6.4.2 Suma de Parámetros Poblacionales


con tal de que las muestras sean independientes.
Por ejemplo, los límites de confianza para la diferencia de dos medias poblacionales, en el caso de
que las poblaciones sean infinitas, vienen dados por:

Página 30 de 74
Polleth Sinto
16/06/2018 22:31:00
Figura 6.4.3 Diferencia de Parámetros con Poblacionales Infinitas

donde son las respectivas medias, desviaciones típicas y


tamaños de las dos muestras extraídas de las poblaciones.
Análogamente, los límites de confianza para la diferencia de dos proporciones poblacionales,
siendo las poblaciones infinitas, están dados por:

Figura 6.4.4 Diferencia de Proporciones con Poblacionales Infinitas

donde P1 y P2 son las dos proporciones muestrales n1 y n2, son los tamaños de las dos muestras
extraídas de las poblaciones, y p1 y p2 son las proporciones en las dos poblaciones (estimadas por
P1 y P2).

12 INTERVALOS DE CONFIANZA PARA VARIANZAS


Para estimar un intervalo de confianza para la varianza, nos ayudaremos de la siguiente propiedad

de la distribución :

Consideremos dos cuantiles de esta distribuci�n que nos dejen una probabilidad en la ``zona
central'' de la distribuci�n (cf. Figura 8.7):

Figura: Cuantiles de la distribuci�n .

Página 31 de 74
Polleth Sinto
16/06/2018 22:31:00
Entonces un intervalo de confianza al nivel para la varianza de una distribuci�n gaussiana
(cuyos par�metros desconocemos) lo obtenemos teniendo en cuenta que existe una

probabilidad de que:

Por tanto el intervalo que buscamos es

Página 32 de 74
Polleth Sinto
16/06/2018 22:31:00
13 INTERVALOS DE CONFIANZA PARA RELACIONES DE VARIANZAS
En el centro de la distribución debe quedar el 95% del área, pero como la distribución no es
simétrica, los valores de los extremos son diferentes.

Para encontrar el valor de la izquierda, se busca el punto cuya área sea a la izquierda 0.025 o lo que

es lo mismo, cuya área a la derecha sea 0.975 para n-1 gl, a este valor se le llamará x2 0.975, n-1

Para encontrar el valor de la derecha, se busca el punto cuya área sea a la derecha 0.025 para

n-1 gl, a este valor se le llamará x2 0.025, n-1

El intervalo de confianza para la varianza es el siguiente:

Nótese que los valores para los límites se cambian debido a que en la fórmula forman el
denominador.

14 ESTIMA DE MAXIMA VEROSIMILITUD


La idea fundamental de este método es tomar como estimación del parámetro estudiado el valor
que haga máxima la probabilidad de obtener la muestra observada.

Página 33 de 74
Polleth Sinto
16/06/2018 22:31:00
Para ilustrar este método, imaginemos la siguiente situación: queremos estimar la probabilidad p de
que salga cara en el lanzamiento de una moneda no necesariamente regular.

Para ello procedemos de la siguiente manera: lanzamos la moneda cinco veces y obtenemos la
siguiente secuencia:
C+CC+
Una manera aparentemente razonable de estimar p sería evaluar la probabilidad de obtener
esta muestra para diferentes valores de p y quedarnos con el valor que haga máxima dicha
probabilidad. En nuestro caso, debemos calcular:

para todos los posibles valores de p, es decir, para todo valor real entre 0 y 1. Es lo que se muestra
en la siguiente tabla, en la que se han simplificado los posibles valores de p tomando incrementos
de 0,1:

Como puede observarse, el valor para el que se obtiene la máxima probabilidad es 0,6. Por tanto,
dicho valor será la estimación máximo verosímil (EMV) de p.

Si analizamos este resultado es fácil darse cuenta que la EMV obtenida coincide con la frecuencia
relativa del número de caras (Fr (C) = 3/5 = 0,6), por lo que podemos preguntarnos ¿se trata de un
resultado casual o es generalizable? Para responder a esta cuestión volvamos al cálculo de la
probabilidad de nuestra muestra, pero aprovechemos para hacerlo más general. Supongamos que

Página 34 de 74
Polleth Sinto
16/06/2018 22:31:00
hemos efectuado n lanzamientos de la moneda de los que k (k <= n) han sido cara sin que importe
el orden en que han salido. La probabilidad de dicho suceso viene dada por:

y, si suponemos que los valores n y k son conocidos, esta probabilidad puede expresarse como una
función L(p) del parámetro p, exclusivamente. A dicha función se le llama función de
verosimilitud y puede definirse como la función de densidad conjunta de la muestra (probabilidad
de obtener la muestra observada, en nuestro caso), pero considerada como función del parámetro.
Por tanto, es posible maximizarla utilizando las técnicas conocidas de cálculo y asumiendo la
restricción de que 0 <= p <= 1. Es decir, derivamos L(p) e igualamos a cero. Aunque, los cálculos
suelen facilitarse al aplicar el hecho de que si una función (positiva) alcanza un máximo en un
punto dado, el logaritmo de dicha función alcanzará un máximo en el mismo punto:

Para ser rigurosos debemos comprobar que se trata de un máximo. Una manera de hacerlo es
demostrar que la derivada segunda de L(p) (o de su logaritmo) en el punto k/n es negativa. En
nuestro caso es fácil ver que la segunda derivada siempre es negativa:

Es decir, acabamos de demostrar que la frecuencia relativa es el estimador máximo verosímil de la


probabilidad de un determinado suceso (en nuestro ejemplo que salga cara). La metodología que
acabamos de utilizar para determinar el estimador máximo verosímil se denomina método de la
máxima verosimilitud.

Página 35 de 74
Polleth Sinto
16/06/2018 22:31:00
15 ESTIMAS INSESGADAS Y EFICIENTES
15.1 Estimadores insesgados

Obsérvese que escribimos el sesgo de un estimador con la letra "b", en lugar de la letra "s", como
parecería más normal. Esto ocurre porque, como sabemos, la letra "s" se emplea para designar la
desviación típica de unos datos (de una muestra). En su lugar, se emplea la inicial de la palabra
"biais" (léase bié), que es la expresión francesa para sesgo.

El sesgo de un estimador es un número, que depende del valor del parámetro, . Por tanto, es una
función del parámetro. En efecto, como veremos en los siguientes ejemplos, la esperanza del
estimador, es una función del parámetro porque la función de densidad o de probabilidad del
estimador depende del mismo. En consecuencia el sesgo depende también de .

Un estimador insesgado (con sesgo nulo) tiene por esperanza el valor del parámetro, sea quien sea
éste. Por ello, a los estimadores insesgados se les denomina también centrados. Nótese que si
utilizamos un estimador insesgado, "acertamos" en media, esto es, el valor esperado del estimador
es la cantidad que queremos estimar.

Ello no quiere decir, no obstante, que las estimaciones (que son los valores que toma el estimador)
se parezcan al parámetro, por el mismo motivo que una variable de Bernoulli b(p), tiene por
esperanza p, aunque sus valores son cero y uno. En otras palabras, una variable aleatoria no tiene
por qué estar cerca de su esperanza, luego un estimador insesgado no tiene por qué estar cerca del
parámetro.

Página 36 de 74
Polleth Sinto
16/06/2018 22:31:00
Obsérvese, finalmente, que se habla de estimadores insesgados. Esta propiedad no se aplica a las
estimaciones, esto es, no tiene sentido decir que una estimación es o no es insesgada.

Observa qué ocurre con los estimadores anteriores en la continuación del Ejemplo1 y en
la continuación del Ejemplo2
¿Conviene utilizar estimadores insesgados? o, dicho de otra forma, la insesgadez, ¿es una
propiedad de interés para los estimadores?

En esta ilustración se muestra la función de densidad de dos estimadores de . es la densidad

de un estimador insesgado, , mientras que es la de un estimador sesgado, .

Pero puede observarse que aunque el estimador sea sesgado, asigna mayores probabilidades

que a los valores próximos a q , esto es, resulta más probable que las estimaciones obtenidas

con se encuentren más próximas al parámetro que las obtenidas con .

Dicho de otra forma, la propiedad interesante para un estimador es su proximidad al parámetro, sea
éste su esperanza o no lo sea. Una forma de valorar esta proximidad es a través de la dispersión

cuadrática, del estimador con respecto al parámetro, denominada error cuadrático


medio.

Página 37 de 74
Polleth Sinto
16/06/2018 22:31:00
15.2 Error cuadrático medio. Estimadores insesgados de varianza mínima

No es difícil demostrar esa descomposición del error cuadrático medio. Obsérvese que

(donde estamos llamando a la esperanza del estimador). Entonces, el error cuadrático medio
(esperanza del término de la izquierda) es la suma de tres esperanzas:

es la varianza del estimador,

es el cuadrado del sesgo del estimador, y

ya que la esperanza de una variable


menos su esperanza es siempre igual a cero.
Es interesante observar que, entonces, para calcular el error cuadrático medio basta con calcular (o
conocer) los dos primeros momentos, esperanza y varianza, del estimador.
Obsérvese asimismo que, al depender de la distribución del estimador, también dependen del
parámetro su esperanza y varianza y, por tanto, el error cuadrático medio. Por tanto, este error es
no aleatorio, aunque depende del valor (desconocido) de .

Página 38 de 74
Polleth Sinto
16/06/2018 22:31:00
El error cuadrático medio nos permite comparar estimadores. Así, un criterio sería concluir que
entre dos estimadores, es preferible aquél cuyo error cuadrático medio es menor. Este criterio se
denomina de eficiencia relativa:

Nuevamente, la continuación del Ejemplo1 y la continuación del Ejemplo2 ilustran estas ideas.
Aunque el error cuadrático medio nos proporciona una forma de comparar estimadores, no permite
obtener estimadores óptimos. Esto es, para un problema concreto, no es posible obtener el
estimador de menor error cuadrático medio entre todos los estimadores del parámetro. Por ello esta
propiedad (la de minimizar el error cuadrático medio) no se suele presentar entre las propiedades
convenientes de los estimadores, porque no tiene interés práctico.

Si limitamos nuestro campo de interés a los estimadores insesgados, a veces el problema tiene
solución práctica. Para los estimadores insesgados, el error cuadrático medio coincide con la
varianza, por lo que hablaremos de estimadores insesgados de varianza mínima.

15.3 Estimadores insesgados de mínima varianza

Página 39 de 74
Polleth Sinto
16/06/2018 22:31:00
Los estimadores insesgados de mínima varianza no tienen por qué existir para un problema
concreto. Pero si existen son únicos, esto es, para un problema concreto, no pueden existir dos
estimadores insesgados de varianza mínima distintos.

En efecto, supongamos que hubiera dos estimadores insesgados de mínima varianza, y .


Vamos a concluir que tienen que ser el mismo, esto es, que tienen que ser iguales.

Como los dos son insesgados, , y como ambos son de mínima varianza, los
dos tendrén la misma varianza, V, esto es,

Pensemos en otro estimador, en concreto, el promedio de los dos anteriores, .


Como promedio de dos estimadores insesgados será también insesgado,

Su varianza, que vale

no puede ser menor que V, ya que entonces y no serían de mínima varianza entre los
insesgados. Por tanto,

y, por tanto, . Pero esta desigualdad implica entonces que

y como los coeficientes de correlación lineal no pueden ser superiores a la unidad, deberá

ser . Pero entonces existe una relación lineal entre ambos estimadores,
, con b mayor o igual que cero, ya que el coeficiente de correlación es positivo. Veremos que a=0
y b=1. Tomando varianzas en esta expresión,
Página 40 de 74
Polleth Sinto
16/06/2018 22:31:00
de donde , esto es, b=1, ya que es positivo. Pero entonces, tomando esperanzas,

o, lo que es lo mismo, a=0 . En definitiva, a=0 y b=1, y por tanto, . Si existen dos
estimadores insesgados de mínima varianza son, necesariamente, iguales.

En conclusión, para un problema concreto, puede que exista o puede que no exista un estimador
insesgado de mínima varianza, y si existe, es único. Pero, ¿cómo localizarlo si existe? Como
veremos a continuación,

Sólo es posible intentar obtenerlo en ciertos problemas, cuando se cumplan unas condiciones de
regularidad que se denominan de Cramér-Rao.

En esos problemas, sólo se puede localizar si pertenece a cierto tipo de estimadores insesgados de
mínima varianza, los denominados estimadores eficientes.

15.4 Estimadores Eficientes


Diremos que un estimador es más eficiente o más preciso que otro estimador, si la varianza del

primero es menor que la del segundo. Por ejemplo, si y son ambos estimadores de θ y

diremos que es más eficiente que . Un estimador es más eficiente (más preciso), por tanto,
cuanto menor es su varianza.
La eficiencia de los estimadores está limitada por las características de la distribución de
probabilidad de la muestra de la que proceden. El teorema de Cramer-Rao determina que la

varianza de un estimador insesgado de un parámetro θ es, como mínimo,

Página 41 de 74
Polleth Sinto
16/06/2018 22:31:00
donde f(X;θ) es la funciones de densidad de probabilidad de la

muestra en función del parámetro θ, (denominada


funciones de verosimilitud). Si un estimador alcanza esta cota mínima, entonces se dice que el
estimador es de mínima varianza.

16 ESTIMAS POR INTERVALOS DE CONFIANZA DE PROPORCIONES


Sea X una variable binomial de parámetros n y p (una variable binomial es el número
de éxitos en n ensayos; en cada ensayo la probabilidad de éxito (p) es la misma, por ejemplo:
número de diabéticos en 2000 personas).
Si n es grande y p no está próximo a 0 ó 1 (np ³ 5) X es aproximadamente normal con media np y

varianza npq (siendo q = 1 - p) y se puede usar el estadístico (proporción muestral), que

es también aproximadamente normal, con error típico dado por


en consecuencia, un IC para p al 100(1 - a)% será

es decir, la misma estructura que antes:

Obsérvese que para construirlo, ¡se necesita conocer p!. Si n es grande (>30) se pueden
substituir p y q por sus estimadores sin mucho error, en cualquier caso como pq £ 0,25 si se
substituye pq por 0,25 se obtiene un intervalo más conservador (más grande).

Página 42 de 74
Polleth Sinto
16/06/2018 22:31:00
Ejemplo: En una muestra de 100 pacientes sometidos a un cierto tratamiento se obtienen 80
curaciones. Calcular el intervalo de confianza al 95% de la eficacia del tratamiento.

¿Qué significa este intervalo? La verdadera proporción de curaciones está comprendida entre,
aproximadamente, 72% y 88% con un 95% de probabilidad.
¿Es suficientemente preciso? Habrá que juzgarlo con criterios clínicos.

17 ESTIMAS POR INTERVALOS DE CONFIANZA PARA VARIANZAS

Se utiliza el estadístico pivote: que sigue una distribución llamada chi-cuadrado con n-1
grados de libertad, que se representa por X2 , que a diferencia de las anteriores presenta una curva
no simétrica, y las tablas dadas expresan el área de probabilidad a la derecha de la variable. Estamos
pues ante la siguiente situación:

18 ESTIMAS POR INTERVALO DE CONFIANZA PARA PROPORCIONES


Queremos estimar la proporción p de que ocurra un determinado suceso en una población y
tomamos una muestra de tamaño n. Consideramos la variable aleatoria X= p’/n, donde p’ es el

Página 43 de 74
Polleth Sinto
16/06/2018 22:31:00
número de observaciónes de ese suceso en la muestra. La variable X es obviamente una binomial
(n, p). Para valores de n grande y p próximos a 0,5, podemos aproximarla mediante una normal de

media np y desviación típica , por tanto

es una N(0,1). Si dividimos por n tenemos es N(0,1)-


Así pues :

Pero dado que desconocemos p, deberemos sustituirlo por p’.

Una cota para el error es

alcanza un un máximo en 1/41 . y por tanto esta última expresión se podría tomar como radio del
intervalo de confianza propuesto.

19 ESTIMAS POR INTERVALO DE CONFIANZA PARA DIFERENCIAS Y SUMAS


Hemos visto que si las dos poblaciones de partida tienen distribución normal, o si n1 ≥ 30 y n2 ≥

30, entonces:

Página 44 de 74
Polleth Sinto
16/06/2018 22:31:00
Asi,́ si calculamos el valor de la diferencia de medias correspondientes a las muestras M1 y M2 de

tamaños n1 y n2, respectivamente , se tiene que el intervalo de confianza


para la diferencia de medias a un nivel de confianza 1 – α es:

Recuerda: En el caso de que σ1 y/o σ2 sean desconocidas, pero n1 ≥ 30 y n2 ≥ 30, podemos


considerar las aproximaciones:

Página 45 de 74
Polleth Sinto
16/06/2018 22:31:00
20 ANEXO
Ampliación de temas según el programa del curso

Página 46 de 74
Polleth Sinto
16/06/2018 22:31:00
21 Intervalo de confianza para una población

(7ma. Semana)

El intervalo de confianza describe la variabilidad entre la medida obtenida en un estudio y la


medida real de la población (el valor real). Corresponde a un rango de valores, cuya distribución
es normal y en el cual se encuentra, con alta probabilidad, el valor real de una determinada
variable. Esta «alta probabilidad» se ha establecido por consenso en 95%. Así, un intervalo de
confianza de 95% nos indica que dentro del rango dado se encuentra el valor real de un parámetro
con 95% de certeza.

Para comprender y hacer intuitivo el concepto de intervalo de confianza utilizaremos un ejemplo


clásico:

Supongamos que tenemos una moneda, la cual puede o no estar balanceada. Así, después de varios
lanzamientos, la probabilidad que el resultado sea sello variará desde 0 (todas las veces cara, es
decir, una moneda balanceada) hasta 1 (todas las veces sello, nuevamente balanceada), pasando
por 0,5 (la mitad de las veces sello y las otras cara, lo que equivale a una moneda no balanceada).
Como no conocemos la verdadera naturaleza de la moneda, vamos a experimentar con ella.

Iniciamos el experimento con 2 lanzamientos, uno es cara y el otro es sello. La probabilidad de que
el resultado sea sello fue 0,5, con lo que podríamos concluir que la moneda no está balanceada, sin
embargo, ¿con sólo 2 lanzamientos podemos concluir con total certeza que esa es la naturaleza de
la moneda? La respuesta es no, por lo tanto ¿cuál es el rango de valores donde se encuentra el valor
real? Dado que el azar pudo influir en este resultado, uno acepta que el rango de valores reales
posibles es amplio, incluso desde uno tan bajo como 0 a uno tan alto como 1, por lo tanto aún no
estamos seguros de la naturaleza de nuestra moneda.

Considerando lo anterior, ampliamos el experimento y realizamos 8 nuevos lanzamientos (10 en


total), resultando 5 caras y 5 sellos. Nuevamente el resultado es 0,5, sin embargo, ahora
intuitivamente nos percatamos que la verdadera naturaleza de la moneda se encuentra en un rango

Página 47 de 74
Polleth Sinto
16/06/2018 22:31:00
menos amplio. Por ejemplo, es poco probable que después de 10 lanzamientos 9 sean sello, menos
aún que todos lo sean, sin embargo, aún es factible que 8 ó 7 ó 6 sí lo sean. Así, nuestro nuevo
rango puede variar entre 0,2 y 0,8, pero con un alcance: todos advertimos que si bien 0,8 y 0,2 son
posibles, los valores centrales (0,4 y 0,6) lo son más aún, siendo 0,5 el más probable.

Decidimos seguir experimentando, realizando 90 nuevos lanzamientos (100 en total), resultando


50 caras y 50 sellos. Nuevamente el resultado es 0,5, advirtiendo que cada vez es más probable que
la verdadera naturaleza de nuestra moneda es el de una no balanceada, pero aún con un rango de
variabilidad que podríamos estimar entre 0,4 y 0,6 (es decir, que después de 100 lanzamientos, el
resultado real varíe entre 40 y 60 sellos).

Realizamos 1.000 lanzamientos, resultando 500 sellos y 500 caras, con lo que estamos aún más
seguros que nuestra moneda no está balanceada (nuestro rango puede ser 0,45 a 0,55 o menor).
El ejemplo anterior nos permite aclarar varios conceptos:

La «verdadera naturaleza» de nuestra moneda (si está balanceada o no) corresponde al valor real.
El rango de valores reales posibles, es decir, el rango donde se encuentra la verdadera naturaleza
de nuestra moneda, corresponde al IC.
El valor real más probable corresponde al estimador puntual del estudio, en este caso 0,5.
Finalmente, advertimos la relación inversa entre la amplitud del IC y el tamaño muestral: si
consideramos que el número de lanzamientos representa el n de la muestra, observamos que
mientras más pequeño es el n más amplio es el IC. A mayor número de lanzamientos (mayor n)
más certeza tenemos que el resultado del experimento se acerca al valor real, por lo tanto el IC es
más estrecho.

Fórmula de intervalo de confianza

Donde:

Página 48 de 74
Polleth Sinto
16/06/2018 22:31:00
p1 Tasa de eventos grupo 1
p2 Tasa de eventos grupo 2
n1 n grupo 1
n2 n grupo 2

Interpretación de un IC
El intervalo de confianza es una medida de precisión que permite al clínico evaluar 2 aspectos de
un resultado (estimador puntual):
Si existe diferencia estadística significativa.
Si tal diferencia es relevante para recomendarla a mis pacientes (relevancia clínica).

Para analizar si existe o no diferencia estadística significativa debemos observar los extremos del
IC. Independiente si el estimador puntual muestra beneficio o daño, debemos verificar si alguno de
los extremos del IC pasa sobre la línea del no efecto. Si es así, existe la posibilidad de que el valor
real corresponda al no efecto o incluso tenga un efecto opuesto al esperado. En este caso no existiría
diferencia estadísticamente significativa entre aplicar o no la intervención (Figura 1)

Cuando un estudio demuestra un efecto con significación estadística (es decir el extremo del IC no
cruza ni toca la línea del no efecto), el clínico debe definir cuál es el beneficio mínimo necesario
para recomendar la terapia, lo que llamaremos umbral. Así, nuestro estudio hipotético demuestra
beneficio estadístico significativo, siendo el beneficio mínimo probable un RRA de 0,9%. El que
este beneficio tenga relevancia clínica depende del tipo de evento prevenido o favorecido, los
efectos adversos de la droga A v/s la droga B, el costo, las circunstancias clínicas, etc. Si el evento
a prevenir es banal, o si la droga A tiene muchos efectos adversos y es más cara que B, nuestro
umbral va a ser alto, por lo tanto el beneficio demostrado en nuestro estudio no sería relevante
(Figura 2).

Al contrario, si el evento a prevenir es relevante en sí mismo (por ej: mortalidad o invalidez), o si


la nueva droga es más barata y sin efectos adversos, tal vez con demostrar un RRA de sólo 0,5%

Página 49 de 74
Polleth Sinto
16/06/2018 22:31:00
nos basta para recomendarla (umbral), por lo tanto nuestro estudio no sólo demuestra diferencia
estadísticamente significativa, sino que también beneficio relevante para el paciente (Figura 3).

Figura 1. Estudio hipotético cuyo estimador puntual informa un RRA 2,8%, pero cuyo IC
sobrepasa la línea del no efecto, por lo tanto es posible que el valor real sea daño. No existe
diferencia estadística significativa en este estudio.

Figura 2. Estudio hipotético que informa beneficio estadístico significativo, sin embargo, el IC
pasa sobre el beneficio mínimo necesario para recomendar la terapia (umbral, RRA 3%). El
beneficio mínimo demostrado (RRA 0,9%) no es suficiente para recomendar la terapia.

Figura 3. Estudio hipotético que informa beneficio estadístico significativo. El IC no sobrepasa el


beneficio mínimo necesario para recomendar la terapia (umbral, RRA 0,5%). El beneficio mínimo
demostrado (RRA 0,9%) es suficiente para recomendar la terapia.

Así, para evaluar beneficio clínico, primero debemos establecer un umbral mínimo de beneficio,
el que depende del tipo de evento a prevenir o favorecer los efectos adversos, costos, etc. de la
nueva droga, y luego observar el beneficio mínimo probable que muestra el estudio, que
corresponde al extremo del IC más cercano a la línea del no efecto. Si el extremo del IC no
sobrepasa el umbral se asume que el beneficio mínimo probable es suficiente para recomendar la
nueva terapia.

Página 50 de 74
Polleth Sinto
16/06/2018 22:31:00
Existe la posibilidad que la nueva droga hiciese daño (RRA negativo). El proceso es similar al
anterior, estableciendo un umbral máximo de daño tolerable, y observando el extremo del IC que
más se acerca a la línea del no efecto. Si la nueva droga genera más daño con una diferencia
estadísticamente significativa, debemos observar si el extremo del IC sobrepasa ese umbral. Si no
lo hace se asume que el daño mínimo probable es más alto que lo tolerable, por lo tanto se está en
condiciones de rechazar la nueva terapia (Figura 4).

Al comparar dos grupos en un estudio podemos demostrar que no existe diferencia entre ambos
(hipótesis nula) o que sí la hay (hipótesis alternativa)9,10. El valor P es un test de hipótesis que
nos ayuda a afirmar con cierto nivel de seguridad (por consenso se usa 95%, que se expresa como
P <0,05) que una de las hipótesis es la correcta. Para nuestro ejemplo, la hipótesis nula corresponde
a la igualdad de resultados al usar la droga A o B, mientras que la hipótesis alternativa supone que
una de ellas es mejor que la otra en prevenir la enfermedad.

El valor P representa la probabilidad que una diferencia observada entre 2 grupos sea sólo debida al
azar, es decir, la probabilidad que la hipótesis nula sea verdadera a pesar de observar diferencia en
un estudio7-9. Como toda probabilidad, puede tener valores desde 0 a 1. Valores más cercanos a 1
indican que existe una alta probabilidad que las diferencias observadas sean sólo por azar, es decir,
apoya la hipótesis nula. En cambio, valores más cercanos a 0 apoyan la hipótesis alternativa.

Apliquemos este concepto a nuestro ejemplo, en que se obtiene un RRA de 4,2% con un valor P
<0,05 (p=0,039). Si asumimos como valor real que la droga A es igual a B (hipótesis nula) y
pudiéramos repetir el estudio muchas veces, el P <0,05 nos dice que en menos de 5% de las
ocasiones se observaría tal diferencia entre ambas, sólo por azar. Dicho de otra forma, en la mayor
parte de las ocasiones la diferencia observada no se debe al azar, por lo tanto rechazamos la
hipótesis nula y establecemos que existe diferencia estadística significativa.

El valor P se correlaciona en forma muy estrecha con el intervalo de confianza, ya que si uno
muestra diferencia estadística significativa el otro también lo hace, y viceversa. Sin embargo, el
valor P, a diferencia del IC, no nos entrega información respecto al rango en el que se encuentra la

Página 51 de 74
Polleth Sinto
16/06/2018 22:31:00
magnitud del efecto de un determinado tratamiento (valor real), por lo que sólo nos habla de
diferencias estadísticas significativas, sin permitirnos evaluar si esta diferencia es relevante para
mi paciente. Por ejemplo, un resultado significativo (P <0,05) podría incluir diferencias
clínicamente irrelevantes, y resultados no significativos (P >0,05) podrían esconder una diferencia
clínicamente importante entre 2 tratamientos si el estudio no incluye un tamaño muestral adecuado
(un estudio con bajo poder puede no mostrar una diferencia que realmente sí existe).

De esta forma, aunque el valor P mide la fuerza de una asociación, siempre es útil el intervalo de
confianza para complementar la evaluación de la magnitud del efecto de una intervención y poder
realizar una interpretación adecuada de los resultados de un estudio.

Al leer un estudio es muy importante interpretar los resultados en forma correcta. Esto supone
comprender el significado del estimador puntual y de sus medidas de precisión, lo que permite
extrapolar los datos a la población de interés. Tanto el análisis de un intervalo de confianza como
el de un valor P nos permiten determinar diferencias estadísticas significativas, sin embargo sólo
el IC nos permite evaluar el rango de valores donde posiblemente se encuentra el valor real, y por
lo tanto, permite realizar una mejor interpretación y aplicación clínica de los resultados.

Figura 4. Estudio hipotético que informa daño estadístico significativo. El IC no sobrepasa el daño
mínimo establecido como umbral. El daño mínimo demostrado es suficientemente importante para
rechazar la terapia.

Intervalo para media con muestra grande


(8va. Semana)

Página 52 de 74
Polleth Sinto
16/06/2018 22:31:00
Bajo ciertas condiciones de regularidad, es posible construir intervalos de confianza
asintóticos de una manera bastante general.

Si suponemos que un parámetro θ tiene una estimación máximo verosímil θ*, la distribución
asintótica del estimador, bajo condiciones generales de regularidad, es Normal, de media el valor
verdadero del parámetro θ y varianza igual a la cota de Cramér-Rao σ2(θ*).

Bajo las suposiciones anteriores, es posible construir un intervalo de confianza asintótico y con
nivel de confianza (1 − α) · 100 % a partir de:

donde los valores de zα/2 se calculan a partir de la distribución N(0, 1) de


forma que P(|Z| > zα/2) = α.

Es decir, se utiliza como estadístico pivote

El intervalo de confianza aproximado que resulta es:

Intervalo para media con muestra pequeña


La estimación de intervalos de confianza para muestras pequeñas (cuando n<30), es muy semejante
al caso de muestras grandes cuando la distribución de la población que estamos analizando tiene
forma de campana. Sin embargo, es necesario reemplazar la distribución normal por otra
distribución continúa llamada la distribución t. Esta distribución tiene también forma de campana, pero
con las colas un poco más levantadas.

Página 53 de 74
Polleth Sinto
16/06/2018 22:31:00
De hecho, su forma exacta depende de un parámetro llamado grados de libertad, que es
simplemente n-1, el tamaño de la muestra menos uno

Lo primero que debemos obtener es el valor de 𝛼. Si queremos un grado de confianza del 90%,
entonces hablamos del 0.9. Como 0.9 es una probabilidad, el valor máximo que puede tomar es 1.
Y realizamos esa resta: 𝛼 = 1 − 0.9 = 0.1
Como nos interesa 𝛼 2 = 0.1 2 = 0.05 y entonces, la columna que usamos en la tabla es para 𝑡0.05.
Una empresa realizó un estudio del nivel de nicotina para una muestra de 20 cigarrillos por otra
empresa. La siguiente tabla muestra la cantidad de nicotina contenida en cada uno de los cigarrillos de la
muestra.

22.5 6.7 28.1 24.5 23.9 23.6 23.4 25.8 24.7 24.8
24.6 24.3 26.0 22.7 23.6 24.1 25.2 27.3 27.0 25.2

La media de la muestra es 𝑥̅= 24.9 y su desviación estándar es 𝑠 = 1.53.

Para determinar el intervalo de confianza de 95% buscamos en la tabla en la columna de 0.05 2 =


0.025 y el renglón correspondiente a 𝑛 − 1 = 𝟏𝟗, que son los grados de libertad.

El valor de t es 2.093, por lo tanto el intervalo de confianza del 95% es:

Página 54 de 74
Polleth Sinto
16/06/2018 22:31:00
Sustituimos los datos

Primer realizamos la multiplicación y la división

Esto significa que con una probabilidad de 0.95, el nivel medio de nicotina de la marca competidora
esta entre 24.18 y 25.62, o bien, que al estimar el nivel medio de nicotina como 24.9 mg. Sabemos
que con un grado del 95% el error es menor a 0.72 mg.

Calcular el intervalo para el 99%

22 Intervalo para proporción

(9na. Semana)

Dada una variable aleatoria con distribución Binomial B(n, p), el objetivo es la construcción de
un intervalo de confianza para el parámetro p, basada en una observación de la variable que ha
dado como valor x. El mismo caso se aplica si estudiamos una Binomial B(1, p) y consideramos el
número de veces que ocurre el suceso que define la variable al repetir el experimento n veces en
condiciones de independencia.

Existen dos alternativas a la hora de construir un intervalo de confianza para p:


Considerar la aproximación asintótica de la distribución Binomial en la distribución Normal.

Página 55 de 74
Polleth Sinto
16/06/2018 22:31:00
Utilizar un método exacto.

Aproximación asintótica
Tiene la ventaja de la simplicidad en la expresión y en los cálculos, y es la más referenciada en la
mayoría de textos de estadística. Se basa en la aproximación

que, trasladada a la frecuencia relativa, resulta

Tomando como estadístico pivote

que sigue una distribución N(0, 1), y añadiendo una corrección por continuidad al pasar de una
variable discreta a una continua, se obtiene el intervalo de confianza asintótico:

donde zα/2 es el valor de una distribución Normal estándar que deja a su derecha una probabilidad
de α para un intervalo de confianza de (1 − α) · 100 % Las condiciones generalmente
aceptadas para considerar válida la aproximación asintótica anterior son:

Intervalo exacto
Aun cuando las condiciones anteriores no se verifiquen, es posible la construcción de un intervalo
exacto, válido siempre pero algo más complicado en los cálculos. Es posible demostrar que un
intervalo exacto para el parámetro p viene dado por los valores siguientes:

donde Fα/2 a,b es el valor de una distribución F de Fisher-Snedecor con a y b grados de libertad que
deja a su derecha una probabilidad de α para un intervalo de confianza de (1 − α) · 100 %.

Página 56 de 74
Polleth Sinto
16/06/2018 22:31:00
En el programa siguiente se pueden calcular los intervalos de confianza asintótico y, si n es menor
de 100, también el exacto para una proporción.

Intervalo para varianza


Dada una variable aleatoria con distribución Normal N(μ σ , el objetivo es la construcción de
un intervalo de confianza para el parámetro σ, basado en una muestra de tamaño n de la variable.
A partir del estadístico

la fórmula para el intervalo de confianza, con nivel de confianza 1 − α es la siguiente

Donde χ2α/2 es el valor de una distribución ji-cuadrado con n − 1 grados de libertad que deja a su
derecha una probabilidad de α/2
Por ejemplo, dados los datos siguientes:

Distribución poblacional: Normal


Tamaño de muestra: 10
Confianza deseada para el intervalo: 95 %
Varianza muestral corregida: 38,5

Un intervalo de confianza al 95 % para la varianza de la distribución viene dado por:

que resulta, finalmente

Página 57 de 74
Polleth Sinto
16/06/2018 22:31:00
23 Ensayos de hipótesis

(10ma. Semana)

Si queremos decidir entre dos hipótesis que afectan a un cierto parámetro de la población, a partir
de la información de la muestra usaremos el contraste de hipótesis, cuando optemos por una de
estas dos hipótesis, hemos de conocer una medida del error cometido, es decir, cuantas veces de
cada cien nos equivocamos.

23.1 Hipótesis nula


La hipótesis nula consiste en una afirmación acerca de la población de origen de la
muestra. Usualmente, es más simple (menor número de parámetros, por ejemplo) que su
antagonista. Se designa a la hipótesis nula con el símbolo H0.

23.2 Hipótesis alternativa

La hipótesis alternativa es igualmente una afirmación acerca de la población de origen. Muchas


veces, aunque no siempre, consiste simplemente en negar la afirmación de H0. La hipótesis
alternativa se designa con el símbolo H1.

24 Nivel de significancia

(11va. Semana)

Cuando se toma la decisión de rechazar o no la Hipótesis Nula podemos acertar o cometer errores.
En el trabajo real no sabemos qué ocurre porque no sabemos si la Hipótesis Nula es verdadera o
no. Sin embargo, dados ciertos supuestos podemos obtener las probabilidades de cometer errores
de tipo I y de tipo II.

La probabilidad de cometer errores de tipo I, que se simboliza alfa, es la probabilidad de


ocurrencia de los valores del estadístico en la región de rechazo cuando la Hipótesis Nula es

Página 58 de 74
Polleth Sinto
16/06/2018 22:31:00
verdadera. El valor de alfa, también denominado nivel de significación, es definido por el
investigador antes de recoger los datos, y la costumbre es hacer alfa=0.05 o alfa=0.01 (en el
ejemplo alfa es igual a 0.05). La probabilidad de cometer errores de tipo II se simboliza beta y
depende de varias circunstancias como la distancia que separa el valor asignado al parámetro en la
Hipótesis Nula de su valor real, el tamaño muestral y el valor asignado a alfa.

24.1 Error tipo I y tipo II


El Contraste de Hipótesis no garantiza que la decisión (rechazar o no la Hipótesis Nula) sea
correcta. Como ejemplo, consideremos que la moneda es insesgada, y que obtenemos nueve caras
en diez lanzamientos. Es un resultado dentro del conjunto de resultados poco probables (p<= 0.05),
y por ello rechazamos la Hipótesis Nula, es decir, rechazamos la hipótesis inicial de que la moneda
está "bien hecha". El error ha consistido en rechazar la Hipótesis Nula cuando es correcta, y
diremos que es un error de tipo I.

Por el contrario, supongamos que en realidad la moneda es sesgada y la verdadera probabilidad de


que ocurra "cara" es igual a 0.8, lo cual significa que la hipótesis inicial (la moneda no es sesgada)
es falsa. En consecuencia la Hipótesis Nula que atribuye 0.5 a la probabilidad de que ocurra "cara"
es falsa. Si obtenemos siete caras y este resultado cae dentro del conjunto de aceptación (conjunto
de resultados probables si la Hipótesis Nula es verdadera) aceptamos la Hipótesis Nula. Como la
Hipótesis Nula es falsa, la decisión es errónea, y diremos que es un error de tipo II.

La siguiente tabla resume los tipos de errores en función de la decisión y de que la Hipótesis Nula
sea verdadera o no:

Página 59 de 74
Polleth Sinto
16/06/2018 22:31:00
25 Ensayos de hipótesis para una población

La inferencia estadística es el proceso mediante el cual se utiliza la información de los datos de una
muestra para extraer conclusiones acerca de la población de la que se seleccionó la muestra. Las
técnicas de inferencia estadística se dividen en dos áreas principales: Estimación de intervalos de
confianza y Pruebas de hipótesis.

En cada prueba estadística, se comparan algunos valores observados contra algunos esperados u
otro valor observado comparando estimaciones de parámetros (media, desviación estándar,
varianza). Estas estimaciones de los verdaderos parámetros son obtenidos usando una muestra de
datos y calculando los estadísticos.

La capacidad para detectar una diferencia entre lo que es observado y lo que es esperado depende
del desarrollo de la muestra de datos. Incrementando el tamaño de la muestra mejora la estimación
y la confianza en las conclusiones estadísticas.

Al realizar pruebas de hipótesis, se parte de que un valor supuesto (hipotético) es el parámetro


poblacional. Después de recolectar una muestra aleatoria, se compara el estadístico muestral, así
como la media (x), con el parámetro hipotético, se compara con una supuesta media poblacional
(). Después se acepta o se rechaza el valor hipotético, según proceda. Se rechaza el valor hipotético
sólo si el resultado muestral resulta muy poco probable cuando la hipótesis es cierta.

Se trata de probar una afirmación sobre parámetros de la población (media ; varianza σ2 o


proporción ) en base a datos de estadísticos de una muestra (X media, s2 o p respectivamente):

Página 60 de 74
Polleth Sinto
16/06/2018 22:31:00
Por ejemplo, probar las afirmaciones en los parámetros se usan los estadísticos:

En una población
La media poblacional  = 12; estadístico Zc
La varianza poblacional σ2 = 12; estadístico c2
La proporción poblacional  = 0.3 estadístico Zc

En dos poblaciones
Las medias poblacionales son iguales  1 = 2 o 1 - 2 = 0; estadístico Zc o Tc
Las varianzas poblacionalesson iguales σ12 = σ22 o σ12 - σ22 = 0; estadístico Fc
Las proporciones poblacionales son iguales 1 = 2 o 1 - 2 = 0 estadístico Zc

25.1 La prueba de hipótesis tiene varias etapas:

Etapa 1.- Planear la hipótesis nula y la hipótesis alternativa. La hipótesis nula (H0) es el valor
hipotético del parámetro que se compra con el resultado muestral resulta muy poco probable
cuando la hipótesis es cierta.

Etapa 2.- Especificar el nivel de significancia que se va a utilizar. El nivel de significancia del 5%,
entonces se rechaza la hipótesis nula solamente si el resultado muestral es tan diferente del valor
hipotético que una diferencia de esa magnitud o mayor, pudiera ocurrir aleatoria mente con una
probabilidad de 0.05 o menos.

Etapa 3.- Elegir el estadístico de prueba. El estadístico de prueba puede ser el estadístico muestral
(el estimador no segado del parámetro que se prueba) o una versión transformada de ese estadístico
muestral. Por ejemplo, para probar el valor hipotético de una media poblacional, se toma la media
de una muestra aleatoria de esa distribución normal, entonces es común que se transforme la media
en un valor Z el cual, a su vez, sirve como estadística de prueba.

Página 61 de 74
Polleth Sinto
16/06/2018 22:31:00
Etapa 4.- Establecer el valor o valores críticos del estadístico de prueba. Habiendo especificado la
hipótesis nula, el nivel de significancia y el estadístico de prueba que se van a utilizar, se procede
a establecer el o los valores críticos del estadístico de prueba. Puede haber uno o más de esos
valores, dependiendo de si se va a realizar una prueba de uno o dos extremos o colas.

Etapa 5.- Determinar el valor real del estadístico de prueba. Por ejemplo, al probar un valor
hipotético de la media poblacional, se toma una muestra aleatoria y se determina el valor de la
media muestral. Si el valor crítico que se establece es un valor de Z, entonces se transforma la
media muestral en un valor de Z.

Etapa 6.- Tomar la decisión. Se compara el valor observado del estadístico muestral con el valor
(o valores) críticos del estadístico de prueba. Después no se rechaza o se rechaza la hipótesis nula.
Si se rechaza ésta, se acepta la alternativa; a su vez, esta decisión tendrá efecto sobre otras
decisiones de los administradores operativos, como por ejemplo, mantener o no un estándar de
desempeño o cuál de dos estrategias de mercadotecnia utilizar.

La distribución apropiada de la prueba estadística se divide en dos regiones: una región de rechazo
y una de no rechazo. Si estadístico de prueba cae en esta última región no se puede rechazar la
hipótesis nula y se llega a la conclusión de que el proceso funciona correctamente.

Al tomar la decisión con respecto a la hipótesis nula, se debe determinar el valor crítico en la
distribución estadística que divide la región del rechazo (en la cual la hipótesis nula no se puede
rechazar) de la región de rechazo. A hora bien el valor crítico depende del tamaño de la región de
rechazo.

26 Pruebas de hipótesis para una población


Se trata de probar una afirmación sobre parámetros de la población (media ; varianza σ2 o
proporción ) en base a datos de estadísticos de una muestra (X media, s2 o p respectivamente):
26.1 Elementos de LA prueba:

Página 62 de 74
Polleth Sinto
16/06/2018 22:31:00
 Prueba Estadística: Procedimiento para decidir aceptar o rechazar hipótesis.
 Hipótesis: Es una afirmación acerca de una o más poblaciones.
 Hipótesis Nula (Ho): Usualmente es una afirmación representando una situación “status quo”.
Generalmente deseamos rechazar la hipótesis nula.

o Es la hipótesis o afirmación a ser probada

o Puede ser por ejemplo  =, σ, o  a constante

o Sólo puede ser rechazada o no rechazada

 Hipótesis Alterna (Ha): Es lo que aceptamos si podemos rechazar la hipótesis nula. Ha es lo


que queremos probar.
 Es la hipótesis que se acepta como verdadera cuando se rechaza Ho, es su complemento
 Puede ser por ejemplo 7 para prueba de dos colas
 < 7 para prueba de cola izquierda
> 7 para prueba de cola derecha
 Estadístico de prueba: Calculado con datos de la muestra.

 Región de Rechazo: Indica los valores de la prueba estadística para que podamos rechazar la
Hipótesis nula (Ho). Esta región esta basada en un riesgo a deseado, normalmente 0.05 o 5%.

 Estadístico de prueba(Z, t, X2 o F): Para probar la hipótesis nula se calcula un estadístico de


prueba con la información de la muestra el cual se compara a un valor crítico apropiado. De
esta forma se toma una decisión sobre rechazar o no rechazar la Ho.
 Error tipo I (alfa = nivel de significancia, normal=0.05): Se comete al rechazar la Ho cuando
en realidad es verdadera. También se denomina riesgo del productor
 Error tipo II (beta): Se comete cuando no se rechaza la hipótesis nula siendo en realidad falsa.
Es el riesgo del consumidor

Página 63 de 74
Polleth Sinto
16/06/2018 22:31:00
Las pruebas de hipótesis pueden ser de dos colas, de cola derecha o de cola izquierda, a
continuación se esquematizan cada una de ellas.

Pruebas de Hipótesis de dos colas:


Ho: a = b Región de Región de
Ha: a  b Rechazo Rechazo

-Z 0 Z
Pruebas de Hipótesis de cola derecha:
Ho: a  b
Ha: a > b Región de
Rechazo

0 Z
Pruebas de Hipótesis cola izquierda:
Ho: a  b
Ha: a < b Región de
Rechazo

-Z 0 Z

27 Prueba de hipótesis Estadística

- Hipótesis nula Ho, complemento de la Hipótesis alterna:

o Es la hipótesis o afirmación a ser probada


o Puede ser por ejemplo  =, , o  a 5
o Sólo puede ser rechazada o no rechazada

- Hipótesis alterna Ha, complemento de la hipótesis nula:

o Es la hipótesis que se acepta como verdadera cuando se rechaza Ho, es su


complemento

Página 64 de 74
Polleth Sinto
16/06/2018 22:31:00
o Si el signo de la hipótesis alterna es  entonces se trata de una prueba de dos colas;
si es > de cola derecha y si es < de cola izquierda.
o Puede ser por ejemplo   5 para prueba de dos colas
o  < 5 para prueba de cola izquierda
o  > 5 para prueba de cola derecha

P(Z<= - Zexcel ) = alfa/2 P(Z>= + Zexcel ) = alfa/2

Regiones de rechazo

Pasos de la prueba de hipótesis:

 Se plantea inicialmente la Ha si en el problema se muestra la afirmación de ser menor o


mayor a un valor establecido histórico.

 Se plantea inicialmente la Ho si en el problema se muestra la afirmación igual (es,


históricamente ha sido); mayor o igual (cuando menos) o menor o igual (a lo más) a un
valor establecido histórico.

 No importa cual se plantee primero, siempre la conclusión se hace contra la Ho (se


rechaza o no se rechaza)

 El intervalo de confianza es el intervalo donde se estima que se encuentre el parámetro de


la población (media ; varianza σ2 o proporción ) para un cierto nivel de confianza o de
significancia.

Página 65 de 74
Polleth Sinto
16/06/2018 22:31:00
28 Estadístico de prueba

o Para probar la hipótesis nula se calcula un estadístico de prueba con la información


de la muestra el cual se compara a un valor crítico apropiado. De esta forma se toma
una decisión sobre rechazar o no rechazar la Ho

- Error tipo I (alfa = nivel de significancia, es común = 0.05 ). Alfa = 1- Nivel de confianza

o Se comete al rechazar la Ho cuando en realidad es verdadera. También se denomina


riesgo del productor.

- Error tipo II (beta )

o Se comete cuando no se rechaza la hipótesis nula siendo en realidad falsa. Es el


riesgo del consumidor
28.1 Pruebas de Hipótesis de dos colas:

Si la Ho:  = que un valor poblacional, entonces el riesgo alfa se reparte en ambos extremos de
la distribución. Por ejemplo si Ha: ≠ 10 se tiene:

Ho: a = b
Ha: a  b

P(Z<= - Zexcel ) = alfa/2 P(Z>= + Zexcel ) = alfa/2

Regiones de rechazo

Página 66 de 74
Polleth Sinto
16/06/2018 22:31:00
28.2 Pruebas de Hipótesis de cola derecha:

Si la Ho:  , que un valor poblacional, entonces el riesgo alfa se coloca en el extremo derecho
de la distribución. Por ejemplo si Ho   10 y Ha:  >10 se tiene una prueba de cola derecha:

Ho: a  b
Ha: a > b

Región de
rechazo

P(Z>= + Zexcel ) = alfa

28.3 Pruebas de Hipótesis cola izquierda:

Si la Ho:   que un valor poblacional, entonces el riesgo alfa se coloca en el extremo izquierdo
de la distribución. Por ejemplo si Ho   10 y Ha:  < 10 se tiene una prueba de cola izquierda:

Ho: a  b
Ha: a < b

Región de
rechazo
P(Z<= - Zexcel ) = alfa

Zexcel ( 0.01 )

Página 67 de 74
Polleth Sinto
16/06/2018 22:31:00
29 Modelos de Regresión y Correlación Lineal Simple y Múltiple
29.1 Regresión Lineal Simple y Múltiple.

El caso más simple de regresión lineal ajusta a la ecuación de la recta los valores de la variable
independiente X1 a la variable dependiente Y, es decir:

Y = b0+b1X1,

donde b0 es la ordenada en el origen y b1 es la pendiente de la recta. El ajuste a esta ecuación


(mediante mínimos cuadrados) se caracteriza por la obtención de b0, b1 y el coeficiente de
correlación r.

La regresión lineal múltiple se basa en obtener una relación lineal entre un conjunto de variables
independientes X1,..,Xn con una variable dependiente Y, es decir:

Y = b0+b1X1+b2X2+b3X3+ ··· +bnXn.

El éxito de determinar una correlación lineal múltiple es que exista una correlación lineal simple
de cada variable independiente con la variable dependiente.

El estudio de la relación lineal simple y múltiple en R se realiza de la misma forma y se recoge en


el script_Regresion_Lineal.. Para ello se utiliza la función de regresión lineal lm(). Dicha función
esta definida por una variable dependiente, y una o varias variables independientes (si es una
variable independientes estamos trabajando con una regresión lineal simple; si son varias las
variables entonces es una regresión múltiple). Por ello, se ha de indicar a la función lm() cuál es la
variable dependiente y cuales son las independientes. La forma de expresarse en R es: variable
dependiente ~ variable/s independiente/s. Por ejemplo:

Página 68 de 74
Polleth Sinto
16/06/2018 22:31:00
la variable dependiente Y en función de X1: Y~ X1
la variable dependiente Y en función de X1 y X2: Y~ X1+X2
la variable dependiente Y en función de todas las variables independientes (se usa el ‘.’): Y~.

También hay que indicarle dónde están guardadas esas variables y almacenarlas. Así, añadimos
data=datos a la función lm(), es decir, indicamos que las variables están almacenadas en datos.
Posteriormente las almacenamos el resultado en reg. Los pasos a seguir son (recordar que en primer
lugar se cargan los datos):

datos<-read.table("datos.txt",header=T,blank.lines.skip=F)
reg<-lm(Y~.,data=datos)

En función de los resultados obtenidos en el modelo lineal (como se verá en el siguiente ejemplo)
éste se puede mejorar eliminado variables independientes que tienen poco peso estadístico en la
función. De esta forma se puede conseguir un modelo predictivo más preciso, aunque la
eliminación de estas variables puede disminuir la calidad del modelo geoquímico-predictivo.

Por último, siempre resulta práctico comprobar gráficamente los valores del modelo predictivo (o
teórico) con los valores experimentales con el objeto de cuantificar la bondad del modelo predictivo
y evaluar si el modelo se ajusta para todo el intervalo de valores. En primer lugar, guardamos los
datos del ajuste lineal (reg$fitted.values) y en segundo lugar lo almacenarlos (con la variable
Y_teor). Es decir:

Y_teor<-reg$fitted.values

Finalmente se representa gráficamente los datos experimentales (datos$Y) frente a los datos
teóricos (Y_teor) y el ajuste de la regresión lineal:

plot(datos$Y,Y_teor)
abline(lm(datos$Y~Y_teor),col="blue")

Si queremos realizar un análisis de regresión lineal simple o múltiple debemos cargar


el script_Regresion_Lineal.

Página 69 de 74
Polleth Sinto
16/06/2018 22:31:00
29.2 Correlación Lineal Simple y Múltiple Correlación.

Al ajustar un modelo de regresión múltiple a una nube de observaciones es importante disponer de


alguna medida que permita medir la bondad del ajuste. Esto se consigue con los coeficientes de
correlación múltiple.

29.2.1 Coeficiente de correlación múltiple.

En el estudio de la recta de regresión se ha definido el coeficiente de correlación lineal simple (o


de Pearson) entre dos variables X e Y , como

(8.25)

donde s es la covarianza muestral entre las variables X e Y ; sX y sY son las desviaciones


típicas muestrales de X e Y , respectivamente.

El coeficiente de correlación lineal simple es una medida de la relación lineal existente entre
las variables X e Y.

En general cuando se ajusta un modelo estadístico a una nube de puntos, una medida de la
bondad del ajuste es el coeficiente de determinación, definido por

(8.26)

Página 70 de 74
Polleth Sinto
16/06/2018 22:31:00
Si el modelo que se ajusta es un modelo de regresión lineal múltiple, a R se le
denomina coeficiente de correlación múltiple y representa el porcentaje de variabilidad de
la Y que explica el modelo de regresión.

Como scE < scG, se verifica que 0 < R2 < 1. Si R2 = 1 la relación lineal es exacta y si R2 =
0 no existe relación lineal entre la variable respuesta y las variables regresoras.

El coeficiente de correlación múltiple R es igual al coeficiente de correlación lineal simple entre

el vector variable respuesta y el vector de predicciones ,

El coeficiente de correlación múltiple R presenta el inconveniente de aumentar siempre que


aumenta el número de variables regresoras, ya que al aumentar k (número de variables regresoras)
disminuye la variabilidad no explicada, algunas veces de forma artificial lo que puede ocasionar
problemas de multicolinealidad. Si el número de observaciones n es pequeño, el coeficiente R2 es
muy sensible a losvalores de n y k. En particular, si n = k + 1 el modelo se ajusta exactamente a las
observaciones. Por ello y con el fin de penalizar el número de variables regresoras que se incluyen
en el modelo de regresión, es conveniente utilizar el coeficiente de determinación corregido por
2
el número de grados de libertad, . Este coeficiente es similar al anterior, pero utiliza el
cociente de varianzas en lugar del cociente de sumas de cuadrados. Para su definición se tiene en
cuenta que

Cambiando las sumas de cuadrados por varianzas se obtiene el coeficiente de determinación


2
corregido por el número de grados de libertad, , definido como sigue

Página 71 de 74
Polleth Sinto
16/06/2018 22:31:00
(8.27)

Ahora es fácil deducir la siguiente relación entre los dos coeficientes de determinación

(8.28)

También es fácil relacionar el estadístico del contraste de regresión múltiple con el coeficiente
de determinación, obteniendo

(8.29)

29.2.2 Correlación Parcial

Sea un conjunto de variables aleatorias, el coeficiente de correlación


parcial entre Xi y Xj es una medida de la relación lineal entre las variables Xi y Xj una vez que
se ha eliminado en ambas variables los efectos debidos al resto de las variables del

conjunto . Al coeficiente de correlación parcial entre X1y X2 se le denotará


por r12·3...k·

Para una mejor interpretación de este concepto, considérese el conjunto de cuatro

variables , se desea calcular el coeficiente de correlación parcial entre las


variables X1 y X2. Para ello, se procede de la siguiente forma,

1. Se calcula la regresión lineal de X1 respecto de X3 y X4

Página 72 de 74
Polleth Sinto
16/06/2018 22:31:00
donde e1·34 son los residuos del ajuste lineal realizado.

2. Se calcula la regresión lineal de X2 respecto de X3 y X4

X2

donde e2.34 son los residuos del ajuste lineal realizado.

3. El coeficiente de correlación parcial entre X1 y X2 es el coeficiente de correlación


lineal simple entre las variables e1.34 y e2.34,

Por tanto, el coeficiente de correlación lineal se define siempre dentro de un conjunto de variables
y no tiene interpretación ni sentido si no se indica este conjunto de variables.

29.2.3 Relación entre los coeficientes de correlación.

Sea el conjunto de variables , entonces se verifica la siguiente relación entre


los coeficientes de correlación lineal simple y el coeficiente de correlación parcial,

(8.30)

29.2.4 Cálculo del coeficiente de correlación parcial.

En un modelo de regresión múltiple

Página 73 de 74
Polleth Sinto
16/06/2018 22:31:00
se puede calcular fácilmente el coeficiente de correlación parcial entre la variable respuesta Y y
una variable regresora Xi controlado por el resto de variables regresoras. Para ello se utiliza
el estadístico del contraste individual de la t respecto a la variable Xi y que se definió
anteriormente como

obteniéndose la siguiente relación

(8.31)

donde C = el conjunto de índices de todas las variables


regresoras excepto el índice i.

Página 74 de 74
Polleth Sinto
16/06/2018 22:31:00

También podría gustarte