Está en la página 1de 7

UNIVERSIDAD UTE

FACULTAD DE CIENCIAS DE LA INGENIERÍA E


INDUSTRIAS

CARRERA DE INGENIERÍA ELECTROMECÁNICA

PROBABILIDAD Y ESTADÍSTICA

ESTUDIANTE: EDISON MILLINGALLE

CURSO: 3 “A”

DOCENTE: ING. YANDI FERNÁNDEZ OCHOA, MSc.

TEMA: ESTIMADORES PUNTUALES

PERIÓDO ACADÉMICO: OCT 2023/ FEB 2024


Estimador puntual

En estadística, la estimación puntual implica el uso de datos de muestra para


calcular un valor único que servirá como "mejor suposición" o "mejor estimación"
de un parámetro de población desconocido. Más formalmente, es la aplicación de
un estimador puntual a los datos para obtener una estimación puntual.

Estimación puntual

El objetivo de la estimación puntual es aproximar el valor del parámetro


desconocido (tiempo medio de ejecución de un algoritmo, altura media de las
mujeres de una población, diferencia del resultado medio entre dos tratamientos
médicos, proporción de gente que mejora con un tratamiento médico…)

Para ello se utiliza la información de la muestra (x1, x2,…, xn), a través de


un estimador.

Algunos estimadores frecuentes son:

 Media muestral, para estimar la media teórica de una variable X.

X 1+ … Xn
X=
n

Proporción muestral, para estimar una proporción P:

X 1+… Xn
P= , siendo x1,…,xn una muestra aleatoria simple de la
n
variable X∈B(1,p)∈(1,p), es decir, son unos o ceros.

 Varianza muestral: para estimar la varianza teórica de una población, se puede


usar la varianza de una muestra:
2 2
(x 1−x ) +(xn−x)
S2 = , y también la llamada
n

 Cuasi-varianza muestral:

2 ❑ ( x 1− x )2 + ( xn−x )2
s
n−1 = ,
n−1

que corresponde a la varianza de la muestra, pero dividiendo por n−1, en lugar


de dividir por n. En el capítulo de estadística descriptiva, ya comentamos que el
R, por defecto, al calcular la desviación típica de una muestra, mediante el
comando sd, calcula directamente la Cuasi-varianza y luego obtiene la raíz
cuadrada.
La evaluación del estimador sobre la muestra fija da lugar a una estimación
puntual.

Cálculo de la media muestral tomando la muestral fija (x1,x2,x3)=(2,7,1)


(1,2,3)=(2,7,1).

Ejemplo:

2+7+1 10
x= =
3 3

Propiedades de los estimadores

Estamos diciendo que un estimador es una aproximación de un parámetro


teórico o desconocido de una población. Para estimar la media de la altura de
una población, podemos seleccionar una muestra y calcular la media aritmética
de la muestra. Ahora bien, también tendría sentido usar como estimador el
siguiente:

min ( x 1 , x 2 , ….. xn ) +max ⁡(x 1, x 2 , … xn)


2

¿Cuál de los dos se aproxima más al verdadero valor desconocido? En


principio, no habría manera de saberlo, puesto que deberíamos conocer el valor
teórico (el desconocido). Por eso, interesa estudiar propiedades de los
estimadores, que nos permitan decidir entre usar unos u otros para los casos
concretos.

Estimadores insesgados

Una primera propiedad deseable para un estimador es que el centro de la


distribución de los valores que puede tomar coincida con el valor del parámetro
que queremos aproximar.

A esta propiedad se le llama insesgadez. Así, un estimador insesgado es aquel


cuya media coincide con el valor del parámetro a estimar.
Veámoslo con un ejemplo para entenderlo mejor: supongamos que deseamos
tener una estimación de la estatura media de los hombres mayores de 18 en
una población. Podríamos ponernos en medio de la calle y seleccionar
aleatoriamente una muestra de n hombres, medir su estatura (o preguntársela) y
calcular después la media aritmética de los datos obtenidos. Esa sería una
estimación puntual; llamémosla x1.

Por medio de R podemos hacer una simulación de este proceso. En vez de


bajar a la calle, parar a la gente y preguntarle lo que mide, simulamos cien datos
correspondientes a 100 estaturas de varones mayores de 18. En este caso,
tenemos que “simular” que medimos a cien personas, de una población de
varones españoles mayores de 18.

# Consideremos n =100 personas


set.seed(1)
n=100
# asi se simulan n datos que siguen
# una distribución normal de
# media 177.7 y desviación típica 5.9 :
X1=rnorm(n,177.7,5.9)
# dibujamos el histograma:
hist(X1, probability = TRUE, col = 'light blue',
main="100 estaturas de varones mayores de 18")
# dibujamos los puntos:
rug(X1)
# dibujamos la estimación de la densidad:
lines(density(X1), col="red",lwd=2)
La media muestral de esos 100 valores es x1= 178.3424.

Si vamos al día siguiente a la misma calle y seleccionamos aleatoriamente otra


muestra del mismo número n de personas, medimos su estatura y calculamos la
media aritmética, tenemos otra estimación puntual (x2).

# Otras 100 personas


n=100
X2=rnorm(n,177.7,5.9)

La media es x2=177.4769.

Obviamente, estos valores x1 y x2 no coinciden, y no tienen por qué coincidir. En


cada caso, hemos seleccionado 100 personas aleatoriamente, hemos medido su
estatura y hemos calculado la media muestral. Los datos no van a ser los mismos,
y por lo tanto las medias muéstrales tampoco. Cada vez que seleccionemos otra
muestra, el estimador media muestral da un valor diferente. Esto es, la media
muestral es una variable aleatoria.

Vamos ahora a suponer que realizamos este proceso un número grande B de


veces; es decir, salimos a la calle, medimos a 100 personas, y calculamos la
media muestral; al día siguiente volvemos a hacer lo mismo, y así sucesivamente,
hasta B=250 veces, por ejemplo. Mediante el siguiente procedimiento en R,
simulamos este procedimiento y hacemos una gráfica (Figura 7.4) de la
distribución de los 250 valores obtenidos.

n=100;B=250
s<-0
for (i in 1:B) s[i]=mean(rnorm(n,177.7,5.9))
hist(s, probability = TRUE, col = 'lightblue',
main="250 datos de la media")
rug(s)
lines(density(s), col="red",lwd=2)

Figura 7.4: Histograma y estimación de la densidad de las 250 MEDIAS de todas


las muestras.

La media de estos 250 valores es 177.7205 que es muy próxima al verdadero


valor 177.7
De esta forma, comprobamos que la media (de las diferentes medias) se aproxima
al verdadero valor 177.7. Matemáticamente, se puede demostrar que siempre
ocurre así; es decir, que la media muestral es un estimador insesgado.
BIBLIOGRAFIA:

Kahneman, D. 2014. Pensar Rápido, Pensar Despacio / Thinking,


Fast and Slow. Debolsillo Mexico.

Wainer, Howard. 2007. “The Most Dangerous


Equation.” American Scientist 95 (3): 249.

También podría gustarte