Está en la página 1de 17

Una VARIABLE ALEATORIA es una función que asigna un valor numérico a cada suceso elemental del

espacio muestral.

Una variable aleatoria de tipo discreto es aquella que toma un número finito de valores, e incluso puede
tomar un número infinito, pero siempre que este número infinito sea numerable.

Una de tipo continuo tomará siempre un número infinito NO numerable de valores.

TIPO DISCRETO TIPO CONTINUA


La función de cuantía: Consiste en asignar a cada La función de densidad: Para cada valor x de una
valor que tome la variable aleatoria la probabilidad variable aleatoria continua X se representa por
(o «quantum» de probabilidad) que le corresponde. f(x) .tiene que cumplir los requisitos:

La función de distribución: consiste en asignar Función de distribución: será la probabilidad


probabilidades a todos los valores que están a su asignada a todos los valores que están a la izquierda
izquierda de x (son menores que x). O que van desde - 4 hasta
x.

VARIABLE ALEATORIA BIDIMENSIONAL: se abordará el estudio de dos variables aleatorias. Es decir, se


estudian conjuntamente dos características de un fenómeno aleatorio.

Tipo discreta Tipo continua


Función de cuantía: Función de densidad de probabilidad.

Función de distribución: Función de distribución

¿Qué relación existe entre la f(x,y) y la F(x,y)?---La f(x, y) coincide con la derivada parcial segunda,
respecto a x e y, de la función de distribución F(x, y).

Distribuciones marginales

Tipo discreta Tipo continuo


Funciones de cuantía marginal Funciones de densidad marginales

Funciones de distribución marginal Funciones de distribución marginales


Distribuciones condicionadas

 Distribuciones discretas. El alumno entenderá que tendrá todo el sentido hablar de: las
funciones de cuantía condicionadas y las funciones de distribución condicionadas.

Funciones de cuantía condicionadas se expresan por: P(xi/yj) y P(yj/xi).

Funciones de distribución condicionadas son: F(x/yj) y F(y/xi).

Puesto que el alumno ya estudió en la Introducción a la Estadística el concepto de


probabilidad condicionada, no deberá tener dificultad en comprender las expresiones a
que equivalen las funciones condicionadas anteriores.

 Distribuciones continuas. Aquí cabrá hablar de las funciones de densidad condicionadas y


las funciones de distribución condicionadas.

Funciones de densidad condicionadas: se expresan por f(x/y) y f(y/x). Funciones de


distribución condicionadas: expresadas por F(x/y) y F(y/x).

Al ser distribuciones continuas, recordemos que la probabilidad exigirá siempre


«integrar» la probabilidad elemental «f(x)·dx».
Tipificar una variable aleatoria x es transformarla mediante un cambio de origen Ex y un cambio de
escala  ; es decir hay que restarle la media y dividirla por la desviación típica.

Medidas de forma.

El coeficiente de correlación de Pearson es un índice estadístico que mide la fuerza de la relación lineal
que existe entre dos variables aleatorias cuantitativas. A diferencia de la covarianza, el coeficiente de
correlación de Pearson es independiente de la escala de medida de las variables aleatorias. Se define
como:
Distribución de Bernoulli. Este modelo se utiliza principalmente en
situaciones en las que sólo pueden ocurrir dos
resultados posibles mutuamente excluyentes:
uno de ellos de probabilidad p y la otra 1-p
Distribución binomial. Cuando repetimos de forma independiente
un ensayo Bernoulli

Distribución de Poisson. Cuando observamos la aparición de sucesos


puntuales sobre un soporte continúo.

Distribución de Poisson como límite de la Binomial

La distribución de Poisson se obtiene como limite de la distribución binomial cuando n  , , de


manera que podemos considerar un soporte continuo,y p  ,para que el número medio de
sucesos, np , permanezca constante. En este caso np = , es decir el número de éxitos es una
variable aleatoria que tiene una distribución de Poisson con el parámetro .
Uniforme: Es la distribución donde todos resultados
posibles tienen la misma probabilidad, en este caso
la variable aleatoria al ser de tipo continuo toma
todos los posibles valores en un intervalo finito

Normales la distribución más utilizada porque la


mayoría de las variables utilizadas en fenómenos
sociales se distribuyen aproximadamente siguiendo
este modelo. La estudiaremos más detalladamente a
continuación y se le llama comúnmente distribución
normal

Ejemplos de distribuciones normales

Aproximación a la distribución normal la distribución binomial


El teorema de Moivre (1.756) permite realizar esta aproximación considerando que las variables
aleatorias sigan una distribución binomial con p=q=1/2 este teorema fue generalizado para
distribuciones no simétricas P q.

Teorena Central del Límite: No existe un único Teorema Central del Límite, sino un conjunto de
teoremas, todos ellos dando condiciones para que una sucesión de variables aleatorias tienda a
distribuirse según una distribución normal. Muchas variables aleatorias que se encuentran en la práctica
son sumas o promedios de un número grande de variables aleatorias independientes.

- La validez del teorema central del límite no está limitado a variables aleatorias
continuas y simétricas, se extiende también a variables aleatorias discretas y
asimétricas. Así tenemos el Teorema de Moivre

- Si las variables aleatorias no son independientes o no tienen la misma distribución


de probabilidad, en ese caso habrá que utilizar otras condiciones de mayor
dificultad que no consideraremos en este caso
Estimación puntual.

En una estimación puntual se utiliza un solo número o valor para determinar una
estimación del parámetro poblacional desconocido. En la estimación puntual se asume que
el estadístico es un buen estimador del parámetro desconocido. Obviamente cualquier
estadístico no sirve, es necesario que satisfaga ciertas propiedades:

Estimación por intervalos de confianza.


En un intervalo de confianza se indica un rango o recorrido, dentro del cual se pondría
encontrar el parámetro poblacional desconocido, y el nivel de confianza de que el intervalo
contenga este parámetro poblacional.

Contrastación de hipótesis.
Una hipótesis estadística es una conjetura relativa a alguna característica de la población,
que puede ser cierta o no. Las hipótesis estadísticas se pueden contrastar con la
información extraída de las muestras, y tanto si se aceptan como si se rechazan se puede
cometer un error.
La hipótesis formulada con intención de rechazarla se llama hipótesis nula y se representa
por H0. Rechazar H0 implica aceptar una hipótesis alternativa (H1).
En este caso los pasos a seguir son los siguientes, plantear las hipótesis, escoger un
estadístico concreto, conocer la distribución de este estadístico y decidir, con los datos de
la muestra, si estamos caracterizando a la población.

1-Estimador insesgado o centrado y de varianza mínima. Cota de Cramer-Rao.

2. Estimador eficiente.
Se tiene dos estimadores insesgados , que siguen las mismas distribuciones , para
un mismo tamaño muestral n , se sidece que uno es más eficiente que el otro
cuando su varianza es menor.

Var estimador 1  Var estimador 2

3.Estimador consistente.

La consistencia de un estimador está relacionada con el comportamiento del estimador


cuando el tamaño de la muestra aumenta. Es decir, a medida que el tamaño de la muestra
aumenta la información que nos proporciona sobre la población será mayor.

4.Estimador suficiente.

Diremos que un estadístico suficiente para un parámetro poblacional desconocido


cuando recoge toda la información que la muestra contiene sobre el parámetro.

Estimador invariante: Un estimador es invariante si se verifica que el estimador de una función del
parámetro es igual a la función del estimador del parámetro.

Estimador robusto: Un estimador es robusto cuando pequeños cambios en las hipótesis de


partida del procedimiento de estimación considerado, no producen variaciones
significativas en los resultados obtenidos.

Métodos de obtención de estimadores.

Método de los Es el método más sencillo y antiguo. Se suele utilizar para


obtener una primera aproximación de los estimadores. Se
momentos
igualan tantos momentos muestrales, como parámetros se
tengan que estimar.
Propiedades:

- Si los parámetros desconocidos son momentos


poblacionales, entonces los estimadores obtenidos
serán insesgados y asintóticamente normales

- Bajo condiciones bastantes generales, los estimadores obtenidos


serán consistentes.

Método de máxima En esencia el método consiste en seleccionar como estimador


del parámetro, de un modelo probabilístico, a aquél valor que
verosimilitud
tiene la propiedad de maximizar el valor de la probabilidad de la
muestra observada. Es decir, encontrar el valor del parámetro
que maximiza la función de verosimilitud.
Propiedades:

- Los estimadores de máxima verosimilitud son


consistentes.

- Todo estimador de máxima verosimilitud no es


eficiente, pero sí son asintóticamente eficientes.

- Son asintóticamente normales.

- Son suficientes.

- En general son sinsesgados , pero si no son insesgados


son asintóticamnete insesgados.

Estimación por intervalos de confianza

Introduciendo un nuevo método de estimación, que llamaremos «estimación por intervalos». En este
método se trata de hallar dos estadísticos t1 (X1, X2,..., Xn) y t2 (X1, X2,..., Xn) que serán, por tanto,
variables aleatorias como ya sabemos, y tales que para el parámetro poblacional desconocido θ, se
cumpla:
Siendo conocida Siendo desconocida
Intervalo de confianza para la media.

n>=30

n<30

Siendo μ conocida Siendo μ desconocida


Intervalo de confianza para la varianza

Obtener un intervalo para la μ con varianza conocida( Desigualdad de CHEBYCHEV)

Intervalo de confianza de una proporción


Se utiliza un método gráfico (n es pequeña)

n es grande
Contrastes de hipótesis.

Hipótesis estadística: Es cualquier afirmación que hagamos, verdadera o falsa, sobre alguna
característica desconocida de la población.

Contraste paramétrico: Si la hipótesis formulada se refiere al valor de un parámetro desconocido


e de la población.

Contraste no paramétrico: Si la hipótesis formulada se refiere a la forma que tiene la función de


probabilidad [v. gr. la función de cuantía, o la función de densidad f(x, )] de la población.

La hipótesis que contrastamos se llama hipótesis nula H 0  y la contrastamos con la


hipótesis alternativa H1)

- Si una hipótesis, nula o alternativa, designa un único valor, llamado parámetro poblacional  en
este caso, se dice que la hipótesis es simple.
- La hipótesis, nula o alternativa, también puede designar un rango de valores para el
parámetro desconocido. Una hipótesis de este tipo se denomina compuesta y será cierta para más
de un valor del parámetro poblacional.

Si sólo se dispone de una muestra de la población, entonces el parámetro poblacional no se


conocerá con exactitud. Por consiguiente, no se puede saber con seguridad si la hipótesis nula es
cierta o falsa.

 El Error de Tipo I, es rechazar la hipótesis nula cuando es cierta. Si la regla de decisión


es tal que la probabilidad de rechazar la hipótesis nula cuando es cierta es ,
entonces se llama nivel de significación del contraste. Por tanto, la

probabilidad de aceptar la hipótesis nula cuando es cierta es (1- )

 El Error de Tipo II, ocurre cuando no se rechaza la hipótesis nula y es falsa. Supongamos
que para una determinada regla de decisión particular, la probabilidad de cometer este

error se denota por . Entonces, la probabilidad de rechazar una hipótesis nula falsa es

(1-y se denomina potencia del contraste.

Fases a realizar en un contraste de hipótesis.


Paramétricas, se refieren a características de los parámetros poblacionales.

No paramétricas, relacionadas con las características de la distribución.

1. Formular la hipótesis nula H 0 y la hipótesis alternativa H1 

2. Determinar el estadístico apropiado, que se utilizará para rechazar o no rechazar la hipótesis

nula H 0 

3. Seleccionar el nivel de significación, valor

4. Determinar la región crítica o región de rechazo y la región de aceptación en la curva de la


distribución del estadístico.

5. Seleccionar aleatoriamente la muestra y calcular el valor del estadístico.

6. Interpretación: Si el valor calculado para el estadístico cae dentro de la región crítica, entonces la
hipótesis nula H 0  se rechaza y si cae dentro de la región de aceptación entonces no se rechaza
H 0 
Valor Probabilístico o P-valor.
Contraste no significativo: p- valor > α (no se rechaza H 0 )

Contraste significativo: p- valor ≤ α (se rechaza H 0 )

Contrastes no paramétricos.
Pruebas paramétricas
Ventajas: Desventajas:
1.- Por lo general, son fáciles de usar y
entender.
1.-Pueden, ignorar,
2.- Eliminan la necesidad
desperdiciar o incluso
de suposiciones restrictivas
prescindir de información.
de las pruebas
paramétricas. 3.- Se pueden 2.- No son tan eficientes

usar con muestras (potentes) como las

pequeñas. paramétricas.

4.- Se pueden usar con datos


cualitativos.

Los contrastes no paramétricos que vamos a estudiar se clasifican en los siguientes


grupos:

 Contrastes de aleatoriedad: contrastan hipótesis sobre la aleatoriedad de las


muestras

Concepto de racha: Sea una sucesión en la que intervienen dos tipos de símbolos entonces definimos
una racha como una sucesión de uno o más símbolos idénticos, que están precedidos o seguidos
por un símbolo diferente o por ninguno, siendo la longitud de una racha el número de símbolos
iguales que incluye.

n grande muestra concreta

 Contrastes de localización: Contrastan hipótesis sobre medidas de posición

 Contrastes de comparación de poblaciones: contrastan hipótesis


sobre las distribuciones poblacionales

También podría gustarte