Está en la página 1de 17

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN UNIVERSITARIA


UNIVERSIDAD NACIONAL EXPERIMENTAL SIMÓN RODRÍGUEZ
NUCLEO LOS TEQUES
ESTADÍSTICA 2 SECCIÓN B

NOMBRE: EMIL AMARILYS MICHINEL RONDÓN


C.I 6.841.575
FECHA: 20-01-2022
ASIGNACION Nº 3

Variables aleatorias, definición.


En probabilidad y estadística, una variable aleatoria es una función que
asigna un valor, usualmente numérico, al resultado de un experimento
aleatorio. Una variable aleatoria puede ser discreta o continua. Algunos
ejemplos son: número de caras obtenidas al lanzar seis veces una moneda,
número de llamadas que recibe un teléfono durante una hora, tiempo de fallo
de una componente eléctrica, el número de estudiantes en un aula, el número
de aviones en un aeropuerto, entre otros

Distribución de probabilidad de una variable aleatoria finita


Una variable aleatoria es discreta cuando sólo puede tomar unos ciertos
valores enteros en un número finito de valores o infinito numerable. A tal efecto,
una distribución discreta describe la probabilidad de ocurrencia de cada valor
de una variable aleatoria discreta. Con una distribución de probabilidad
discreta, cada valor posible de la variable aleatoria discreta puede estar
asociado con una probabilidad distinta de cero.
Por ejemplo, número de caras obtenidas al lanzar tres monedas: 0, 1,
2, 3. Las variables discretas representan algo que se pueden contar, y no
suelen llevar decimales. Para designar a las variables aleatorias, se utilizan
letras mayúsculas X, Y, ..., y las respectivas minúsculas (x, y, ...) para designar
valores concretos de las mismas.
Valor esperado, varianza y desviación típica de una variable aleatoria
finita.

El valor esperado tiene origen en los juegos de azar y en las apuestas,


ya que los jugadores deseaban saber cual era “la esperanza de ganar” al
apostar repetidamente. Desde este punto de vista, la esperanza es la cantidad
media de dinero que un jugador puede ganar o perder después de un numero
grande de apuestas.
Ejemplo: Imaginemos una moneda. Dos caras, cara y cruz. ¿Cuál sería
la esperanza matemática (valor esperado) de que salga cara?
La esperanza matemática se calcularía como la probabilidad de que,
tirando la moneda un número muy grande de veces, salga cara. Dado que la
moneda solo puede caer en una de esas dos posiciones y ambas tienen la
misma probabilidad de salir, diremos que la esperanza matemática de que
salga cara es una de cada dos, o lo que es lo mismo, el 50% de las veces.
Vamos a hacer una prueba y vamos a tirar una moneda 6 veces.
Supongamos que la moneda es perfecta.
Tiradas y resultado:
1-Cara. 2-Cruz.3-Cruz.4-Cara.5-Cruz.6-Cara.
¿Cuántas veces ha salido cara (contamos las C)? 3veces ¿Cuantas veces ha
salido cruz (contamos las z)? 3 veces. La probabilidad de que salga cara será
de 3/6=0,5 o, en porcentaje, del 50%.
Una vez ha ocurrido ese suceso podemos calcular la media matemática
del número de veces que ha ocurrido cada suceso. El lado caro ha salido una
de cada dos veces, es decir, un 50% de las veces. La media coincide con la
esperanza matemática.

La varianza es una medida de dispersión que representa la variabilidad


de una serie de datos respecto a su media. Formalmente se calcula como la
suma de los residuos al cuadrado divididos entre el total de observaciones. A
tal efecto, la unidad de medida de la varianza será siempre la unidad de medida
correspondiente a los datos pero elevada al cuadrado. La varianza siempre es
mayor o igual que cero. Al elevarse los residuos al cuadrado es
matemáticamente imposible que la varianza salga negativa. Y de esa forma no
puede ser menor que cero.

De manera desglosada tenemos que:

Donde:

X: variable sobre la que se pretenden calcular la varianza


xi: observación número i de la variable X. i puede tomará valores entre 1 y n.
n: número de observaciones.
x̄: Es la media de la variable X.

Ejemplo: Vamos a acuñar una serie de datos sobre salarios. Tenemos cinco
personas, cada uno con un salario diferente:
Juan: 15 Bs

María: 12 Bs

José: 17 Bs

Margarita: 13 Bs

Mateo: 18 Bs

La media del salario, la cual necesitamos para nuestro cálculo, es de ((15 + 12


+ 17 + 13 + 20) /5) 15 Bs.

Dado que la fórmula de la varianza en su forma desglosada se formula como


sigue:

Obtendremos que se debe calcular tal que:


( 15−15 )2 + ( 12−15 )2+ ( 17−15 )2 + ( 13−15 )2+ ( 18−15 )2
Var(x) =
5

( 0 )2 + (−3 )2 + ( 2 )2+ (−2 )2+ ( 3 )2


Var(x)=
5

0+9+ 4+ 4+ 9 =
Var(x)= 5.2 Bs 2
5

El resultado es de 5.2 Bs al cuadrado. Es importante recordar que


siempre que calculamos la varianza tenemos las unidades de medida al
cuadrado

La desviación típica es la separación que existe entre un valor


cualquiera En todo caso, para entender este concepto a la perfección es
necesario llevar a cabo el análisis de 2 premisas fundamentales:

1.- La media aritmética de la serie de los datos utilizados.

2.- La desviación, es decir, la separación que existe entre cualquier valor


de la serie y la media aritmética de todos los datos de dicha serie.

Una vez analizados ambas premisas, la desviación típica se calcula de


forma muy parecida a la media, si bien es cierto que en el cálculo de la
desviación típica se toman como valores las desviaciones. Aunque el
razonamiento resulta bastante lógico, lo cierto es que existe un fallo que se
solucionan a través de los diferentes cálculos de la desviación típica. de la serie
y la media. La desviación estándar es siempre mayor o igual que cero.

El cálculo y la fórmula de la desviación típica

Existen dos fórmulas para calcular la desviación típica. Son las


siguientes:

1.- La raíz cuadrada de la varianza: en este caso, hemos de realizar la raíz


cuadrada de la fórmula de la varianza para poder calcular la desviación típica,
es decir, la raíz cuadrada de la media de los cuadrados de las puntuaciones de
la desviación.

2.- La suma de las desviaciones y dividir entre el total de observaciones: esta


segunda fórmula es más intuitiva, de forma que se ha de realizar la suma de
todas las desviaciones en valor absoluto y, a continuación, dividir entre el total
de observaciones.

Ejemplo: A continuación, se pondrá un ejemplo del cálculo de la desviación


típica con ambas fórmulas para ilustrar cómo se han de utilizar cada una de
ellas.

1.- La raíz cuadrada de la varianza:


En primer lugar, hemos de calcular la media aritmética. Supongamos
que los datos utilizados son 9, 3, 8, 9 y 16. Donde la Media aritmética = (9 + 3
+ 8 + 9 + 16) / 5 = 9
A continuación, tenemos que aplicar a la fórmula de la varianza la raíz
cuadrada. Veámoslo.
Desviación típica =  (9 – 9)2 + (3 – 9)2 + (8 – 9)2 + (9 – 9)2 + (16 – 9)2 / 5 =
=  0 + 36 + 1+ 0 + 49 / 5
ü 86 / 5 = ü 17,2 = 4,14

2.- Suma de las desviaciones y dividir entre el total de observaciones:


En primer lugar, hemos de calcular la media aritmética. Supongamos que los
datos utilizados son los siguientes: 2, 4, 2, 4, 2 y 4.
Media aritmética = 2 + 4 + 2 + 4 + 2 + 4 / 6 = 3
A continuación, hemos de calcular la desviación típica sumando todas las
deviaciones y dividiendo el resultado obtenido entre el número total de
observaciones. Veámoslo:
Desviación típica = (2 – 3) + (4 – 3) + (2 – 3) + (4 – 3) + (2 – 3) + (4 – 3) / 6 =
1 + 1 + 1 + 1 +1 + 1 / 6 = 1
Así, a través de estos ejemplos hemos ilustrado perfectamente que, a través de
ambas fórmulas es posible calcular la desviación típica, si bien, como ya
apuntamos antes, personalmente encontramos más sencillo utilizar la raíz
cuadrada de la fórmula a través de la cual se obtiene el valor de varianza.

Desigualdad de Chebyshev y ley de los grandes números

La desigualdad de Chebyshev es uno de los resultados clásicos más


importantes de la teoría de probabilidad. Es un teorema utilizado en estadística
que proporciona una estimación conservadora (intervalo de confianza) de la
probabilidad de que una variable aleatoria con varianza finita se sitúe a una
cierta distancia de su esperanza matemática o de su media.
Su expresión formal es la siguiente:

X = Valor estimado
µ = Esperanza matemática del valor estimado
Ϭ = Desviación típica del valor esperado
k    = Número de desviaciones típicas

Partiendo de esta expresión general y desarrollando la parte que queda


dentro del valor absoluto tendríamos lo siguiente:

En la literatura, a este tipo de desigualdades, cuya característica es la


comparación de la probabilidad de la cola de la distribución y su valor
esperado, se le conoce como desigualdades tipo Chebyshev. Estas
desigualdades son la herramienta básica para demostrar resultados no menos
importantes como la Ley de los Grandes Números, entre otros. Además, tienen
aplicaciones en estadística, así como en otras áreas de las matemáticas. La
aplicación directa de las desigualdades tipo Chebyshev es el de aproximar
probabilidades por medio de cálculo de cotas.
Ejemplo:
Supongamos que somos gestores de un fondo de inversión. La cartera
que estamos gestionando tiene una rentabilidad media del 8,14% y una
desviación típica del 5,12%. Para saber, por ejemplo, qué porcentaje de
nuestros retornos se encuentran al menos a 3 desviaciones típicas de nuestra
rentabilidad media simplemente aplicaríamos la formula anterior de la
expresión 2.
k = 1,96 El valor de K = 1,96 se obtiene a través de las tablas de probabilidad
de la distribución normal N~(0,1).
Sustituyendo el valor de k: 1-(1/ (1,96^2)) = 0,739 = 73,9%

Esto quiere decir que hay un 73,9% de los resultados que están en el intervalo
de confianza situado a 1,96 desviaciones típicas de la media.
Realicemos el ejemplo anterior para valores distintos de k.

k = 2,46
k=3

Sustituyendo el valor de k: 1-(1/(2,46^2) )= 0,835 = 83,5%

Sustituyendo el valor de k: 1-(1/(3^2)) = 0,889 = 88,9%

Hay un 83,5% de los datos que están a una distancia de 2,46 desviaciones
típicas de la media y un 88,9% que están a 3 desviaciones típicas de la media.
Utilizando la desigualdad de Chebyshev, es sencillo deducir que a mayor valor
de K (mayor desviación del valor estimado sobre su media) mayor probabilidad
de que la variable aleatoria se encuentra dentro del intervalo acotado.

Media muestral y la ley de los grandes números

Esta ley afirma que el promedio de variables aleatorias independientes


con una distribución común va a converger a la media de la distribución a
medida que el tamaño crece. Es decir, de acuerdo a esta ley, el promedio de
los resultados obtenidos de una larga serie de repeticiones se acerca al valor
esperado. El teorema del límite central está relacionado con la distribución del
promedio muestral cuando el tamaño de muestra es grande y no con que
cualquier variable converge en distribución a una normal, como suele mal
interpretarse.
Teorema:
Si X1,...,XnX1,...,Xn es una m.a. de una población con valor esperado μ y
varianza σ2

Distribución binomial o de Bernoulli, fórmulas y su aplicación,


características más resaltantes de esta distribución.
La distribución binomial es una distribución de probabilidad discreta que
nos dice el porcentaje en que es probable obtener un resultado entre dos
posibles al realizar un número n de pruebas. La probabilidad de cada
posibilidad no puede ser más grande que 1 y no puede ser negativa.
Por ejemplo, de una moneda estaremos estudiando cuántas veces sale
"cara" o cuántas veces sale "cruz", o la probabilidad de que salga "cara", al
menos una vez, de un número n de intentos. La probabilidad de éxito
permanece constante ensayo tras ensayo.
Las variables de Bernoulli pueden tomar dos valores numéricos, 0 y 1,
donde 1 corresponde a un evento y 0 corresponde a un no evento. Una
variable aleatoria X sigue una distribución de Bernoulli si P(X = 1) = p y P(X =
0) = 1 – p, donde p es la probabilidad de ocurrencia del evento.
La distribución de Bernoulli es una distribución discreta que está
relacionada con muchas distribuciones, tales como la distribución binomial,
geométrica y binomial negativa. La distribución de Bernoulli representa el
resultado de 1 ensayo. Las secuencias de ensayos de Bernoulli independientes
generan las demás distribuciones: la distribución binomial modela el número de
éxitos en n ensayos, la distribución geométrica modela el número de fallas
antes del primer éxito y la distribución binomial negativa modela el número de
fallas antes del éxito.

Media y varianza de una distribución binomial.


En una distribución binomial, la media nos indica el valor medio de un
fenómeno aleatorio. Se calcula con la siguiente fórmula:
Donde:
n es el número de ensayos
p es la probabilidad de éxito

Varianza
 
Es una medida de dispersión que nos indica qué tan lejos se encuentran los
cuadrados de la desviación de la media. Se calcula con la fórmula:
 

 
Donde:
n es el número de ensayos
p es la probabilidad de éxito
q es la probabilidad de fracaso

Desviación típica
 
Es la raíz cuadrada de la varianza:
 

 
Ejemplo
 
La probabilidad de que un artículo producido por una fabrica sea defectuoso
es  . Se envió un cargamento de   artículos a unos almacenes.
Hallar el número esperado de artículos defectuosos, la varianza y la desviación
típica.
 
Distribución normal o campana de Gauss, Distribución normal tipificada,
el número Z.

En estadística y probabilidad se llama distribución normal, distribución de


Gauss, distribución gaussiana o distribución de Laplace-Gauss, a una de las
distribuciones de probabilidad de variable continua que con más frecuencia
aparece en estadística y en la teoría de probabilidades. La gráfica de su
función de densidad tiene una forma acampanada y es simétrica respecto de
un determinado parámetro estadístico. Esta curva se conoce como campana
de Gauss y es el gráfico de una función gaussiana.
La importancia de esta distribución radica en que permite modelar
numerosos fenómenos naturales, sociales y psicológicos. Mientras que los
mecanismos que subyacen a gran parte de este tipo de fenómenos son
desconocidos, por la enorme cantidad de variables incontrolables que en ellos
intervienen, el uso del modelo normal puede justificarse asumiendo que cada
observación se obtiene como la suma de unas pocas causas independientes.
De hecho, la estadística descriptiva solo permite describir un fenómeno,
sin explicación alguna. Para la explicación causal es preciso el diseño
experimental, de ahí que al uso de la estadística en psicología y sociología sea
conocido como método correlacional. La distribución normal también es
importante por su relación con la estimación por mínimos cuadrados, uno de
los métodos de estimación más simples y antiguos. Algunos ejemplos de
variables asociadas a fenómenos naturales que siguen el modelo de la normal
son:
 Caracteres morfológicos de individuos como la estatura;
 Caracteres fisiológicos como el efecto de un fármaco;
 Caracteres sociológicos como el consumo de cierto producto por un
mismo grupo de individuos;
 Caracteres psicológicos como el cociente intelectual;
 Nivel de ruido en telecomunicaciones;
 Errores cometidos al medir ciertas magnitudes;
La distribución normal también aparece en muchas áreas de la propia
estadística. Por ejemplo, la distribución muestral de las medias muestrales es
aproximadamente normal, cuando la distribución de la población de la cual se
extrae la muestra no es normal. Además, la distribución normal maximiza la
entropía entre todas las distribuciones con media y varianza conocidas, lo cual
la convierte en la elección natural de la distribución subyacente a una lista de
datos resumidos en términos de media muestral y varianza. La distribución
normal es la más extendida en estadística y muchos tests estadísticos están
basados en una normalidad más o menos justificada de la variable aleatoria
bajo estudio. En probabilidad, la distribución normal aparece como el límite de
varias distribuciones de probabilidad continuas y discretas.

Aproximación normal, teorema central del límite.


El teorema central del límite es uno de los resultados fundamentales de
la estadística. Este teorema nos dice que si una muestra es lo bastante grande
(generalmente cuando el tamaño muestral (n) supera los 30), sea cual sea la
distribución de la media muestral, seguirá aproximadamente una distribución
normal.
El teorema central del límiteestudia el comportamiento de la suma de
variables aleatorias, cuando crece el número de sumandos, asegurando su
convergencia hacia una distribución normal en condiciones muy generales.
Este teorema, del cual existen diferentes versiones que se han ido
desarrollando a lo largo de la historia, tiene una gran aplicación en inferencia
estadística, pues muchos parámetros de diferentes distribuciones de
probabilidad, como la media, pueden expresarse en función de una suma de
variables. Permite también aproximar muchas distribuciones de uso frecuente:
binomial, Poisson, chi cuadrado, t-student, gamma, etc.
Ejemplo del teorema central del límite
Imaginemos que queremos analizar las rentabilidades medias históricas
del índice S&P 500, que como sabemos, tiene unas 500 compañías dentro del
mismo. Pero no tenemos suficiente información como para analizar la totalidad
de las 500 compañías del índice. En este caso la rentabilidad media del S&P
500 sería la media poblacional.
Ahora bien, siguiendo al TCL podemos coger una muestra de estas 500
empresas para realizar el análisis. La única limitación que tenemos es que en
la muestra tiene que haber más de 30 compañías para que se cumpla el
teorema. Entonces imaginemos que cogemos 50 compañías del índice de
manera aleatoria y repetimos el proceso varias veces.
Los pasos a seguir del ejemplo serían los siguientes:
Elegimos la muestra de unas 50 compañías y obtenemos la rentabilidad media
de la totalidad de la muestra.
De manera continuada seguimos escogiendo 50 compañías y obtenemos la
rentabilidad media.
La distribución de todas las rentabilidades medias de todas las muestras
escogidas se aproximará a una distribución normal.
Las rentabilidades medias de todas las muestras seleccionadas se
aproximarán a la rentabilidad media del total del índice. Tal y como demuestra
el teorema Central del Límite.

Distribución probabilística de Poisson, propiedades


Se utiliza la distribución de Poisson para hacer cálculos de
probabilidades donde se requiere contar el número de veces que se produce
un suceso aleatorio durante un periodo determinado de tiempo (o también de
distancia, área u otro parámetro).
La distribución de Poisson fue creada por el matemático y filósofo
francés del siglo XVII Simeón-Denis Poisson en su proyecto para modelar la
frecuencia de eventos durante un rango de tiempo determinado
Para que una distribución sea considerada como distribución de Poisson debe
cumplir con tres requisitos:
 La variable discreta “x” es el número de ocurrencias de un evento
durante un intervalo determinado (de tiempo, espacio, etc.).
 Las ocurrencias deben ser aleatorias y no contener ningún factor que
favorezca unas ocurrencias en favor de otras.
 Las ocurrencias deben estar uniformemente distribuidas dentro del
intervalo que se emplee.
Una propiedad importante de la distribución de Poisson es que, la suma de
“n” variables de Poisson independientes tendrán como resultado también una
variable de Poisson, siendo su parámetro la suma del valor de los parámetros
originales.
Ejemplos de la aplicación de la distribución de Poisson

A continuación, presentamos algunos ejemplos de la aplicación de la


distribución de Poisson en la vida real:
 Contador de Geiger. Es un instrumento para medir la radiactividad de
un objeto o zona. Se utiliza la distribución de Poisson para calcular el
comportamiento estadístico de la radiación y así poder establecer su
nivel.
 Operaciones bursátiles. En el mundo de los mercados y la bolsa se
utiliza la distribución de Poisson para calcular el riesgo de las
operaciones en los tiempos de espera entre transacciones financieras.
 Contador de personas. Los contadores de personas que habitualmente
se utilizan en los comercios para saber el número de personas que
entran en su establecimiento durante un periodo de tiempo (número de
clientes en la última hora, por ejemplo).
 Otras aplicaciones. Otros ejemplos del uso de esta distribución son el
cálculo de las llamadas de teléfono que se reciben en un día en una
centralita, hallar el número de bacterias que hay en un volumen de
determinado de agua, el número de peticiones de servicio diarias de un
servidor web, establecer el riesgo de crédito en una operación de
financiación, calcular la cantidad de estrellas en un determinado
volumen espacio o el número de accidentes por año registrados por una
compañía de seguros.

La media de las medias muestrales.


La media de las medias muestrales es igual a la media poblacional. En
consecuencia, cuando en una población se toma una muestra y se mide una
variable continua, se obtiene un conjunto de mediciones que puede resumirse
en un valor de media. Si se toma otra muestra de la misma medición se
obtendrá otra media. Puede intuirse entonces que podemos tomar infinitas
muestras y obtener por lo tanto infinitas medias. Esas medias por lo tanto
constituyen a su vez una variable continua, que como toda variable continua
tiene determinada distribución de probabilidades.

Varianza y el error estándar de las medias muestrales.


La media muestral es el estimador usual de una media poblacional. El
error estándar de la media (es decir, el error debido a la estimación de la media
poblacional a partir de las medias muestrales) es la desviación estándar de
todas las posibles muestras (de un tamaño dado) escogidos de esa población.
Por ejemplo, en una muestra de 64 alumnos con una puntuación media de 56
y una desviación típica de 24, el error estándar de la media es 24 : 8 = 3, y los
extremos del intervalo de estimación para la media de las puntuaciones en la
población serían 56 – (2 x 3) = 50 y 56 + (2 x 3) = 62.

El impacto del tamaño de la muestra en el error estándar.


El error estándar, x, es una medición de dispersión de las medias de
muestras alrededor de la media de población. Si la dispersión disminuye (si x ,
se hace más pequeña), entonces los valores tomados por la media de la
muestra tienden a agruparse más cercanamente alrededor de . Por el contrario,
si la dispersión se incrementa (si x , se hace más grande), los valores tomados
por la media de la muestra tienden a agruparse menos cercanamente alrededor
de . Podemos concebir esta relación así: al disminuir el error estándar, el valor
de cualquier media de muestra probablemente se acercará al valor de la media
de población. Los especialistas en estadística describen este fenómeno de otra
manera: al disminuir el error estándar, se incrementa la precisión con la
que se puede usar la media de muestra para estimar la media de
población. En el siguiente ejercicio tenemos una población de 400 elementos
con media de 5.5 y desviación estándar de 2.69. Dado que la formula del error
estándar es: a medida que aumente el tamaño de la muestra n el error
estándar va a disminuir.
Aplicación del teorema del límite central en la distribución muestral.
El teorema central del límite es uno de los resultados fundamentales de
la estadística. Este teorema nos dice que si una muestra es lo bastante grande
(generalmente cuando el tamaño muestral (n) supera los 30), sea cual sea la
distribución de la media muestral, seguirá aproximadamente una distribución
normal.
Su fórmula + X n + W , si hay n genes que afectan a la altura (aquí,
como antes, la variable aleatoria W denota los efectos no genéticos). Aunque n
es fijo, si es bastante grande, entonces el teorema central del límite garantiza
que X1+X2+… +Xn. + X n tiene una distribución aproximadamente normal.

Métodos de muestro.
Existen dos métodos de muestreo: El muestreo probabilístico y el no
probabilístico: Muestreo no probabilístico: En el muestreo no probabilístico, el
investigador elige al azar a los miembros de la investigación. Este método de
muestreo no es un proceso de selección fijo o predefinido.

El fundamento de un intervalo de confianza.


Un intervalo de confianza es un rango de valores, derivado de los
estadísticos de la muestra, que posiblemente incluya el valor de un parámetro
de población desconocido. Debido a su naturaleza aleatoria, es poco probable
que dos muestras de una población en particular produzcan intervalos de
confianza idénticos. Un intervalo de confianza nos va a permitir calcular dos
valores alrededor de una media muestral (uno superior y otro inferior). Estos
valores van a acotar un rango dentro del cual, con una determinada
probabilidad, se va a localizar el parámetro poblacional.
Intervalo de confianza = media +- margen de error
Conocer el verdadero poblacional, por lo general, suele ser algo muy
complicado. Pensemos en una población de 4 millones de personas.
¿Podríamos saber el gasto medio en consumo por hogar de esa población? En
principio sí. Simplemente tendríamos que hacer una encuesta entre todos los
hogares y calcular la media. Sin embargo, seguir ese proceso sería
tremendamente laborioso y complicaría bastante el estudio.
Ante situaciones así, se hace más factible seleccionar una muestra
estadística. Por ejemplo, 500 personas. Y sobre dicha muestra, calcular la
media. Aunque seguiríamos sin saber el verdadero valor poblacional,
podríamos suponer que este se va a situar cerca del valor muestral. A esa
media le sumamos el margen de error y tenemos un valor del intervalo de
confianza. Por otro lado, le restamos a la media ese margen de error y
tendremos otro valor. Entre esos dos valores estará la media poblacional.
En conclusión, el intervalo de confianza no sirve para dar una estimación
puntual del parámetro poblacional, si nos va a servir para hacernos una idea
aproximada de cuál podría ser el verdadero de este. Nos permite acotar entre
dos valores en dónde se encontrará la media de la población.

Factores de los que depende un intervalo de confianza

El cálculo de un intervalo de confianza depende principalmente de los


siguientes factores:

 Tamaño de la muestra seleccionada: Dependiendo de la cantidad de


datos que se hayan utilizado para calcular el valor muestral, este se
acercará más o menos al verdadero parámetro poblacional.
 Nivel de confianza: Nos va a informar en qué porcentaje de casos
nuestra estimación acierta. Los niveles habituales son el 95% y el 99%.
 Margen de error de nuestra estimación: Este se denomina como alfa y
nos informa de la probabilidad que existe de que el valor poblacional
esté fuera de nuestro intervalo.
 Lo estimado en la muestra (media, varianza, diferencia de medias…): De
esto va a depender el estadístico pivote para el cálculo del intervalo.

Formula:
Determinación del tamaño apropiado de la muestra:

El cálculo del tamaño de la muestra es una función matemática que


expresa la relación entre las variables, cantidad de participantes y poder
estadístico. La muestra de un estudio debe ser representativa de la población
de interés.

También podría gustarte