P. 1
Definición de parámetro estadístico

Definición de parámetro estadístico

|Views: 7.765|Likes:

More info:

Published by: Markuz Fernando Zapoth D'Melchi on Feb 10, 2012
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOCX, PDF, TXT or read online from Scribd
See more
See less

09/30/2015

pdf

text

original

Definición de parámetro estadístico

Un parámetro estadístico es un número que se obtiene a partir de los datos de una distribución estadística. Los parámetros estadísticos sirven para sintetizar la información dada por una tabla o por una gráfica. Tipos de parámetros estadísticos Hay tres tipos parámetros estadísticos: De centralización. De posición De dispersión.

MEDIDAS DE CENTRALIZACIÓN Nos indican en torno a qué valor (centro) se distribuyen los datos. La medidas de centralización son: MEDIA ARITMÉTICA La media es el valor promedio de la distribución. MEDIANA La mediana es la puntación de la escala que separa la mitad superior de la distribución y la inferior, es decir divide la serie de datos en dos partes iguales.

PERCENTILES Los percentiles dividen la serie de datos en cien partes iguales. MEDIDAS DE DISPERSIÓN Las medidas de dispersión nos informan sobre cuanto se alejan del centro los valores de la distribución. MEDIDAS DE POSICIÓN Las medidas de posición dividen un conjunto de datos en grupos con el mismo número de individuos. Las medidas de dispersión son: RANGO O RECORRIDO El rango es la diferencia entre el mayor y el menor de los datos de una distribución estadística .MODA La moda es el valor que más se repite en una distribución. La medidas de posición son: CUARTILES Los cuartiles dividen la serie de datos en cuatro partes iguales. Para calcular las medidas de posición es necesario que los datos estén ordenados de menor a mayor. DECILES Los deciles dividen la serie de datos en diez partes iguales.

En su ejemplo. Regresando a las bolitas del ``Roll on''.5 mm. mismo un ejemplo como el de las bolitas. diríamos que ESTIMAMOS el promedio de la población en 43.5 mm. una estadística que le sirva como estimador. un parámetro para la población. le llamamos ESTIMADOR. VARIANZA La varianza es la media aritmética del cuadrado de las desviaciones respecto a la media. Si la muestra de 100 bolitas arroja un valor del promedio de 43. Por ejemplo si se recibe un embarque de objetos que pueden · · estar listos para usarse ó defectuosos.DESVIACIÓN MEDIA La desviación media es la media aritmética de los valores absolutos de las desviaciones respecto a la media. El parámetro de interés es la proporción de defectuosos en . es decir los estimadores son variables aleatorias. A un valor calculado con los datos de una muestra lo llamamos ESTADÍSTICA. DESVIACIÓN TÍPICA La desviación típica es la raíz cuadrada de la varianza. el valor de un parámetro de la población. al azar. Características probabilísticas de un estimador Cuando se tiene una fórmula para estimar y se aplica a una muestra aleatoria. Constrúyase Ud. Cuando usamos una estadística para jugar el papel de decir. algunos de ellos para darnos una idea de la proporción de defectuosos en el embarque. aproximadamente. Cuando andamos un poco pedantes le llamamos ESTIMADOR PUNTUAL (al decir ``puntual'' queremos decir que para estimar el parámetro estamos usando un valor único). el resultado es aleatorio. describa · · · · una población. una muestra. Podemos seleccionar.

Si el sesgo 0. Esto hace que nuestras preferencias estén con T1. El sesgo es la diferencia entre el valor esperado del estimador y el parámetro que estima. Pero tampoco creemos que el valor de la estadística vaya a estar lejos de 4. una propiedad muy deseable es que ese valor esperado del estimador coincida con el del parámetro que se pretende estimar. Por esa razón es importante la cantidad que. quisiéramos que el valor esperado no difiera mucho del parámetro estimado. Para aclarar esto.toda la población. El valor de la proporción en la muestra es una variable aleatoria cuya distribución está emparentada directamente con la binomial (si se tratara del número de defectuosos. suponga que ambos son instigados y suponga que la varianza de T1 es menor que la de T2 ¿Qué quiere decir esto? Simplemente que en un entorno fijo del valor del parámetro. Al menos. Cuando un estimador tiene una varianza menor que otro decimos que el estimador es más eficiente. la desviación estándar). esto significaría que al tomar una muestra: · · No creemos que el valor de la estadística vaya a ser 4. considere dos estimadores T1 y T2. los valores de T1 son más probables que los de T2. se dice que el estimador es instigado y ésta es una característica buena para un estimador. En el pizarrón vemos algunos estimadores instigados: · · la proporción muestra como estimador de la proporción poblaciones. será más probable que su valor en una muestra específica se encuentre mas cerca del valor esperado. . si supieramos que el valor esperado de una estadística es 4. Varianza de un estimador Otra propiedad importante de un estimador es su varianza (o su raíz cuadrada. desviación estándar / varianza. Como cualquier variable aleatoria. técnicamente llamamos sesgo. sería binomial). O sea que vamos a encontrar a T1 más cerca del valor del parámetro que a T2. valor esperado. Entre menor sea la desviación estándar (o la varianza) de un estimador. Para poner un ejemplo. Valor esperado de un estimador y sesgo El valor esperado de un estimador nos da un valor alrededor del cual es muy probable que se encuentre el valor del estimador. Ya que es muy probable que el valor del estimador esté cerca de su valor esperado. la media muestra como estimador del valor esperado poblaciones. Un estimador que es instigado tiene una alta probabilidad de tomar un valor cercano al valor del parámetro. pero lo que observamos es la proporción de defectuosos en la muestra. el estimador tiene · · · distribución de probabilidad. La importancia de la desviación estándar es que nos permite darle un sentido numérico a la cercanía del valor del estimador a su valor esperado.

Debido a la existencia de errores aleatorios. Mejor valor de un conjunto de medidas Supongamos que medimos una magnitud un número n de veces. a partir de una muestra (el número limitado de medidas que podemos tomar). las n medidas serán en general diferentes El método más razonable para determinar el mejor valor de estas medidas es tomar el valor medio. Tipos de estimación estadística Estimación de parámetros: Un problema importante de la inferencia estadística es la estimación de parámetros de la población. tan probable es que ocurran por defecto como por exceso. No existe un conjunto de reglas bien fundadas e inalterables que permitan determinar el error de una medida en todos los casos imaginables. la varianza es igual a la de la población dividida por el número de elementos de la muestra. Sin embargo.Bajar trabajo¨ del menú superior y este es el valor que deberá darse como resultado de las medidas. En efecto. para la estadística promedio de la muestra · · · el valor esperado es la media de la población. la aplicación de algunos métodos estadísticos permite objetivar en gran medida la estimación de errores aleatorios. Es sólo cuestión de usar la tabla normal teniendo cuidado al estandarizar de usar la desviación estándar adecuada que es la de la población dividida por la raíz cuadrada del número de elementos de la muestra. la distribución de probabilidad es la normal. por lo menos parcialmente. ejemplos de estos cálculos. nadie mejor que un observador experimentado para saber con buena aproximación cuál es el grado de confianza que le merece la medida que acaba de tomar. de . 2. En efecto. Este teorema es muy importante porque permite calcular probabilidades acerca de dónde se encuentra el valor del promedio muestra. y al hacer la media se compensarán. Estimación del error de una medida directa La estimación del error de una medida tiene siempre una componente subjetiva. si los errores son debidos al azar. Muchas veces es tan importante consignar cómo se ha obtenido un error como su propio valor. Este resultado nos indica que. La distribución de probabilidad de una estadística Quizá el resultado mas importante para la estadística es el Teorema del Límite Central. La estadística permite obtener los parámetros de una población (en este caso el conjunto de todas las medidas que es posible tomar de una magnitud). En el salón hacemos en forma detallada.· la varianza de la muestra como estimador de la varianza de la población. El valor medio se define por: Para ver el grafico seleccione la opción &uml. brevemente parámetros (tales como la media y la variación de la población).

En términos de esperanza podríamos decir que un estadístico es instigado porque Para ver el grafico seleccione la opción ¨Bajar trabajo¨ del menú superior Estimación Eficiente: Si las distribuciones de muestreo de dos estadísticos tienen la misma media(o esperanza). Sin embargo. media de la población. si no se llama estimador sesgado. Si consideramos todos los posibles estadísticos cuyas distribuciones de muestreo tiene la misma media. . del parámetro. Ejemplo: Las distribuciones de muestreo de media y mediana tienen ambas la misma media. mientras que el otro se llama un estimador ineficiente. de manera que es una estimación sin sesgo de. estimaciones ineficientes se usan con frecuencia a causa de la relativa sencillez con que se obtienen algunas de ellas. Las medias de las distribuciones de muestreo de las variables es: Para ver el grafico seleccione la opción ¨Bajar trabajo¨ del menú superior Encontramos. Ejemplo 1: la media de las distribuciones de muestreo de medias e. o simplemente estadísticos(tales como la media y la variación de la muestra). Estimaciones sin sesgo: Si la media de las dispersiones de muestreo con un estadístico es igual que la del correspondiente parámetro de la población. si no. a saber. el de menor varianza se llama un estimador eficiente de la media. la media muestral da una estimación eficiente de la media de la población. la media muestral proporciona la mejor( la más eficiente) estimación. la varianza de la distribución de muestreo de medias es menor que la varianza de la distribución de muestreo de medianas. el estadístico se llamara estimador sin sesgo. respectivamente. aquel de varianza mínima se llama aveces. la media muestral es una estimación sin sesgo de la media de la población. Los correspondientes valores de tal estadístico se llaman estimación sin sesgo. la media de la población. y estimación con sesgo respectivamente.los correspondientes estadísticos muéstrales. el estimador de máxima eficiencia. De todos los estadísticos que estiman la media de la población. Por tanto. Ejemplo 2. mientras la mediana de la muestra da una estimación ineficiente de ella. Sin embargo. s es una estimación sesgada de. En la practica. Por lo tanto. ósea el mejor estimador.

ESTIMACION .MATERIA: TRATAMIENTO DE DATOS DE AZAR MAESTRO: ELIZALDE VARGAS CARLOS TEMA: PARAMETROS ESTADISTICOS . Y ESTIMADORES PUNTUALES ALUMNO: FERNANDO ZAPOT MEL CHI GRUPO: 4202 .

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->