Está en la página 1de 5

DISTRIBUCION DE PROBABILIDADES DISCRETAS.

Una variable es aleatoria, si toma valores diferentes, determinados como resultados de un


experimento aleatorio, pueden ser discretas o continuas.

Para poder decir que nos encontramos en presencia de una variable aleatoria, se deben cumplir
dos condiciones

1) F(Xi)= mayor o igual que 0 y menor o igual que 1


2) La sumatoria de todas las probabilidades deben ser iguales a 1.

Cuando hablamos de la distribución de las probabilidades discretas, nos podemos asemejar a la


distribución de las frecuencias, con la principal atención de que difieren en, que cuando nos
referimos a las frecuencias, las mismas y sus valores se distribuyen a partir de los resultados de un
experimento, mientras que si nos referimos a las probabilidades, lo hacemos antes de la
realización de dicho experimento aleatorio, es decir calculamos las probabilidades de ocurrencias.

VALOR ESPERADO, el cálculo del valor esperado para variables aleatorias discretas, es definido
como la sumatoria entre el producto del valor que toma la variable y su probabilidad

SUMATORIA Xi . F(Xi)

Para variables aleatorias continuas INTEGRAL fx.dx

VARIANZA

Variable aleatoria discreta:  = Var (X) =  (xi - E(X))2 f(xi)

Variable aleatoria continua:  = Var (X) =  (x - E(X))2 f(x) dx

DISTRIBUCION BINOMIAL

1) Supongamos que en un experimento aleatorio, pueden ocurrir únicamente dos sucesos


( éxito) o ( fracaso)
2) El resultado obtenido en cada prueba es independiente del resultado obtenido
anteriormente
3) Supongamos que la probabilidad de éxito (P) es constante entonces la probabilidad de
fracaso (q) es igual 1-p
4) El experimento consta en un n número de veces.
Todo experimento que contenga estas características sigue la distribución binomial
Media= np
Varianza= npq
Desviacion típica= raíz npq
X- Bi( n, p)
(x<xi)= k ósea que son aquellos números enteros que son menores a xi.
N p”k . q”n-k
k
ASIMETRIA DE LA DISTRIBUCION BINOMIAL
SI p = 0,5 entonces es una distribución simétrica
Si p es menor que 0,5 es una distribución con asimetría positiva
Si p es mayor que 0,5 es una asimetría negativa.

DISTRIBUCION MULTINOMIAL: Sigue las mismas características que la distribución binomial, con la
diferencia que los resultados que toman cada vez que se recurre al experimento aleatorio ya no
son dos opciones, sino que mas

N! /x1! X2! X3! P “x1. P”x2.p”x3

DISTRIBUCION HIPERGEOMETRICA

Este tipo de distribucion, es valida si se cumplen las siguientes condiciones

Se obtiene una muestra de n elementos, extraidos de una población finita de N elementos

La probabilidad de éxito de la población se designa con la letra K, Y el fracaso con N-K

La probabilidad de éxito de la muestra n se designa con la letra x, y el fracaso n-x

K N-K

X n-x / N n los parámetros de esta distribución son(N,K,n)

Media= n . K/N

VARIANZA= N-n/ n-1 x )

DISTRIBUCION DE POISSON

Esta distribución depende principalmente de encontrar éxitos en base a un tiempo o dimensión


especifico

1) La probabilidad de obtener los éxitos depende de la dimensión del tiempo o el espacio


inherentes al mismo, es decir que es independiente, no influye cualquier otra dimensión
disjunta de la misma
2) La probabilidad de encontrar éxitos, depende de la proporción de la dimensión del tiempo
o espacio, y no importa lo que suceda fuera del mismo
3) A medida que la dimensión se reduce, entonces la probabilidad de la obtención de los
éxitos tiende a 0, es decir que mientras la dimensión sea menor entonces las
probabilidades de obtener éxitos serán menores.

P(X=K)= e”-u x u”k/ k!


En esta distribución la media es igual a la varianza

DISTRIBUCIONES DE PROBABILIDADES CONTINUAS

Las distribuciones de probabilidades continúas, siguen la distribución de un polígono de


frecuencias, si nos referimos a una variable cuantitativa continúa, la gráfica representativa de la
misma sería un histograma de frecuencias. En el caso de aumentar el número de observaciones y
clases, la gráfica se asemeja a una gráfica cartesiana de una función, La cual denominamos función
de densidad= y=f(x)

1) El área bajo la curva representa su totalidad=1


2) Si deseamos encontrar la probabilidad sería igual a P ( a mayor o igual x menor igual b) es
decir el área bajo la curva que comprende en base a esos dos limites
3) La probabilidad de sucesos puntuales es 0
La función de densidad definida por gauss 1/o raíz 2x pi x e” -1/2 x-u/o
PROPIEDADES DE LA DISTRIBUCION NORMAL
EL MAXIMO DE LA CURVA COINCIDE CON LA MEDIA (u)
ES SIMETRICA RESPECTO A LA MEDIA
UN CAMBIO EN EL VALOR DE LA MEDIA DESPLAZARA LA CURVA HACIA IZQUIERDA O
DERECHA
UN CAMBIO EN LA DESV TIPICA NOS REPRESENTA UN CAMBIO EN LA FORMA DE LA
GRAFICA.
EL EJE OX REPRESENTA UNA ASINTOTA HORIZONTAL
PRESENTA PUNTOS DE INFLEXION EN SUS COLAS
ES CRECIENTE EN – INF, u Y DECRECIENTE DESDE u, +INF

TEOREMA CENTRAL DEL LÍMITE


Lo que nos dice el teorema central del límite, es que teniendo en cuenta una variable
aleatoria de media u, la distribución muestral de dicha variable seguirá una distribución
normal de media u (media poblacional) y desvió estándar calculado como o/ raíz de n,
siempre y cuando se cumpla que el tamaño de la muestra o el número total de
observaciones sea mayor o igual a 25 observaciones.
En el caso de que la variable aleatoria sea normal, entonces la distribución muestral
seguirá siendo normal sin importar la cantidad o el tamaño de la muestra.
MUESTREO
El muestreo surge ante la necesidad de obtener observaciones de poblaciones finitas
demasiados grandes, ya que el mismo nos permite reducir o ahorrar, tiempo, esfuerzos y
recursos, dentro del muestreo se debe tener cuidado porque podemos conducirnos al
error de muestreo, que básicamente está relacionado con la variabilidad de los datos que
se extraen de la población
Las condiciones de una muestra, tienen que ver principalmente con dos, la cual es la
relativa al tamaño muestral y la calidad muestral.
EXISTEN DOS TIPOS DE MUESTREOS.
MUESTREO NO PROBABILISTICO, También podemos llamarlo como muestre por juicio, el
cual tiene que ver principalmente con que el experto en la materia o el investigador
selecciona los elementos de la población para la conformación de la muestra en base a sus
opiniones, estudios o preferencias
MUESTREO PROBABILISTICO, Este tipo de muestreo se caracteriza principalmente porque
todos los elementos que conforman la población tienen alguna posibilidad de ser
seleccionados, es decir a su vez que no todos tienen la misma posibilidad pero si alguna.
MUESTREO ALEATORIO SIMPLE: Este muestreo se caracteriza por que todos los elementos
tienen la misma posibilidad de ser seleccionados
Con reemplazo, un elemento puede volver a ser seleccionado
Sin reemplazo, el elemento seleccionado ya no cuenta con la posibilidad de volver a ser
escogido.
MUESTREO ALEATORIO ESTRATIFICADO: En general este tipo de muestreo se utiliza
cuando las poblaciones se encuentran divididas en subgrupos, y cada elemento pertenece
a uno y solo uno de esos subgrupos
El método consiste en separar a la población en diferentes estratos, se aplica el muestreo
aleatorio simple en cada estrato pero proporcionalmente a su tamaño.
MUESTREO SISTEMATICO: Este muestreo se obtiene a partir de la razón de N/n esta razón
corresponde asignarla con la letra k, entonces si la muestra es de 50 unidades, se
recogerán cada 20-esima unidad de la población
MUESTREO POR CONGLOMERADOS:

INFERENCIA ESTADISTICA: Es aquella que selecciona una muestra aleatoria de la


población, y a partir de las observaciones de la misma se obtienen conclusiones sobre la
población.
Estimación de parámetros: Consiste en calcular medidas descriptivas utilizando las
observaciones muéstrales.
La estimación puntual, consiste en calcular parámetros desconocidos con un solo número,
es decir que por ejemplo de una muestra de 50 familias donde el ingreso familiar
promedio es de 1200, se tiene por estimación que de la población misma será el mismo
ingreso familiar.
Es considerada como una función de las observaciones muéstrales, que no depende del
parámetro desconocido ni es incluida en el mismo
Para que exista una estimación puntual, deben reunirse ciertas condiciones.
INESGABILIDAD: La misma se da cuando se desea calcular una estimación de un parámetro
a partir de la muestra, resultando el promedio de las observaciones calculadas, si el
promedio es igual al parámetro poblacional, entonces se dice que dicha estimación es
insesgada
Esta propiedad la cumple la media, la proporción, y la diferencia de dos proporciones
muéstrales.
INSESGABILIDAD DE LA VARIANZA MINIMA: Esta propiedad nos dice que dado dos
estimadores de un parámetro, si la varianza del estimador 1 es menor que la varianza del
estimador dos entonces aquella que es menor resulta más eficiente que la otra.
DISTRIBUCION ASINTOTICAMENTE NORMAL: Se dice que un estimador de un parámetro
es asintóticamente normal, si se cumple que al aumentar el tamaño de la muestra el
mismo sigue teniendo una distribución normal.
CONSISTENCIA: Se dice que un estimador es consistente si puede lograse que la
probabilidad de que el estimador difiera del valor real del parámetro en otra cantidad, a
partir de un valor arbitrariamente elegido, aumentando el tamaño de la muestra en la
cantidad menor posible.
SUFICIENCIA: Se dice que un estimador es suficiente si brinda toda la información
necesaria de un parámetro, sin tener la necesidad de acudir a diferentes

ESTIMACION POR INTERVALOS DE CONFIANZA: Es la estimación que se realiza de un


parámetro a partir de un intervalo seleccionado al azar, llamado intervalo de confianza
Se establecen lo que denoinamos como limite superior y limite inferior y se debe cumplir
la siguien desigualdad
Li mayor o igual (o) Ls menor o igual= 1-a
el multiplicador de confianza se establece a partir de la variable aleatoria normal
estandarizada, este multiplicador nos dice que por ejemplo si tenemos un 95 por ciento de
confianza, 95 de cada 100 intervalos construidos, cubrirán el valor real del parametro el 5
por ciento restante no lo hará.

También podría gustarte