Está en la página 1de 24

1 Estadística descriptiva: Medidas de tendencia central

1.1 Definiciones importantes: estadística, población y muestra, variable,


variable cualitativa y cuantitativa,  presentación de datos en forma gráfica

Estadística descriptiva: se ocupa de describir conjunto de muestras como


poblaciones.

Población: es el conjunto de mediciones de interés para el investigador.

Muestra: subconjunto de mediciones seleccionado de la población de interés.

Variable: es una característica que cambia o varía con el tiempo y para


diferentes personas u objetos bajo consideración.

Viable cualitativa: miden una cualidad o característica en cada unidad


experimental.

Variables cuantitativas: miden una cantidad numérica en cada unidad


experimental.

Presentación de datos en forma gráfica:

*Grafica de barras y de pastel*

Gráfi cas de pastel y de barrasb. Gráfi cas de líneasc. Gráfi cas de puntosd.
Gráfi cas de tallo y hojae. Histogramas de frecuencia relativa3.

1.2 Medidas de tendencia central: Media, Mediana, Moda, Varianza,


Desviación Media, Rango.

Medida de centro: medida a lo largo del eje horizontal que localiza el centro de
la distribución.

Media (aritmética o promedio): conjunto de mediciones es igual a la suma de


las mediciones dividida entre n.
Mediana: m de un conjunto de n mediciones es el valor de x que cae en la
posición mediana cuando las mediciones son ordenadas de menor a mayor.

Moda: categoría que se presenta con más frecuencia o el valor de x se


presenta con más frecuencia.

Varianza de una población: de N mediciones es el promedio de los cuadrados


de las desviaciones de las mediciones alrededor de su media m.
Varianza de una muestra:

Desviación estándar: es igual a la raíz cuadrada positiva de la varianza.

Rango: El rango es un valor numérico que indica la diferencia entre el valor


máximo y el mínimo de una población o muestra estadística.

1.3 Teorema de Chevyshev y regla empírica

Teorema de chevyshev: aplica a cualquier conjunto de mediciones y se puede


usar para describir ya sea una muestra o una población. Usaremos la notación
apropiada para poblaciones, pero usted debe ver que con la misma facilidad
podríamos usar la media y la desviación estándar para la muestra.

Ejemplo:
Regla empírica: dada una distribución de mediciones que tiene forma
aproximada de montículo.
2. Probabilidad

2.1. Cálculo de la probabilidad de un evento

Cuando se realiza un experimento, lo que observamos es un resultado


llamado EVENTO SIMPLE: es el resultado que se observa en una sola
repetición del experimento.

EVENTO: conjunto de eventos sencillos, a menudo denotado por una letra


mayúscula.

EVENTOS MUTUAMENTE EXCLUYENTES: cuando ocurre un evento, los


otros no pueden ocurrir y viceversa.

El conjunto de todos los eventos sencillos se denomina espacio muestral, S.

Requisitos para probabilidades de un evento sencillo: debe estar entre 0 y 1.


La suma de las probabilidades de todos los eventos sencillos en S igual a 1.
2.2 Métodos de conteo.

Suponga que un experimento comprende un gran número N de eventos


simples y que usted sabe que todos esos eventos son igualmente probables.
Entonces cada evento simple tiene una probabilidad 1/N y la probabilidad de
na
un evento A se puede calcular. P ( A )= na: número de eventos simples que
N
resultan en el evento A.

Regla MN: Que el experimento se realice en dos etapas.


REGLA MN extendida:
2.2.2 Combinaciones

2.2.3 Permutaciones

Es el número de formas en que podemos acomodar n objetos distintos,


tomándolos una cantidad r a la vez.
2.3. Reglas de probabilidad.
Mutuamente excluyentes no pueden ocurrir al mismo tiempo.

2.4 Independencia, probabilidad condicional y regla de la multiplicación.

Se dice que dos eventos, A y B, son independientes si y sólo si la probabilidad

del evento B no está infl uenciada o cambiada por el suceso del evento A, o

viceversa.
3. Distribuciones Discretas

3.1 Distribución Binomial.


Es el que tiene estas cinco características:

a. Consiste en n intentos idénticos.

b. Cada intento resulta en uno de dos resultados. El resultado uno se llama


éxito, S, y el otro fracaso, F.

c. La probabilidad de éxito en un solo intento es igual a p y es igual de un


intento a otro. La probabilidad de fracaso es igual a (1-p) =q

d. Los intentos son independientes.

e. Estamos interesados en x, el número de éxitos observado durante los n


intentos para x= 0,1, 2…, n
3.2  Distribución Poisson.

Puede ser modelada por la variable aleatoria de Poisson:

a. El número de llamadas recibidas por un conmutador durante un tiempo


determinado.
b. El número de bacterias por volumen pequeño fluido.

c. El número de llegadas de clientes al mostrador de una caja de pago en un


minuto determinado.

d. El número de descomposturas de una máquina durante un día


determinado.

e. El número de accidentes de tránsito en un crucero dado durante un tiempo


determinado.

X representa el número de eventos que ocurren en un periodo o espacio


determinado, durante el cual se puede esperar que ocurra un promedio de m
de estos eventos.

e= 2.7182
LA APROXIMACIÓN DE POISSON A LA DISTRIBUCIÓN BINOMIAL.

La distribución de probabilidad de Poisson da una aproximación sencilla, fácil


de calcular y precisa a probabilidades binomiales cuando n es grande y m np
es pequeña, de preferencia con np 7. Una aproximación apropiada para
valores más grandes de m np se da en el capítulo 6.
4. Distribuciones continuas

4.1 Distribuciones continuas.p14

Variable aleatoria x es discreta, se asigna una probabilidad positiva a cada


uno de los valores que x pueda tomar y obtener la distribución de probabilidad
para x.

Variables aleatorias continuas: estatura y peso, lapso de vida útil de un


producto particular o un error experimental de laboratorio, pueden tomar los
infinitamente numerosos valores correspondientes a punto en un intervalo de
una recta.
Variable aleatoria uniforme: modelar el comportamiento de una variable cuyos
valores estén uniforme o exactamente distribuidos en un intervalo dado.

Variable aleatoria exponencial: modelar como tiempos de espera o vidas útiles


asociadas con componentes electrónicos.
4.2 Distribución normal.

4.3 Áreas tabuladas de la distribución normal.

Para hallar la probabilidad de que una variable aleatoria normal x se


encuentre en el intervalo de a a b, necesitamos hallar el área bajo la curva
normal entre los puntos a y b.

La variable aleatoria normal estándar: está estandarizada al expresar su valor


como el número de desviaciones estándar (s) que se encuentran a la
izquierda o derecha de su media m.
5. Estadística inferencial

5.1  Teorema del límite central

5.2 Estimadores de Confianza

5.3 Intervalos de Confianza

5.4 Pruebas de Hipótesis con Sigma conocida

5. 5 Estimación de intervalo para proporciones

También podría gustarte