Está en la página 1de 69

ESTADISTICA

APLICADA II

Programa: Administración Pública

TABLA DE CONTENIDO
JUSTIFICACIÓN..................................................................................................................2
OBJETIVOS..........................................................................................................................2
OBJETIVO GENERAL....................................................................................................2
OBJETIVOS ESPECÍFICOS..........................................................................................2
UNIDAD 1: INTRODUCCIÓN A LAS PROBABILIDADES..........................................4
1. TEORIA DE CONJUNTOS Y TEORIA DE PROBABILIDAD..............................5
1.1. TEORIA DE CONJUNTOS.................................................................................5
1.1.1. Descripción de un conjunto por extensión o tabulación..................5
1.1.2. Descripción de un conjunto por compresión.......................................6
1.1.3. Descripción de un conjunto por diagrama de Venn..............................6
1.2. CLASIFICACIÓN DE CONJUNTOS.....................................................................7
1.2.1. Conjunto vacío.................................................................................................7
1.2.2. Conjunto unitario............................................................................................7
1.2.3. Conjunto finito.................................................................................................7
1.2.4. Conjunto infinito..............................................................................................7
1.2.5. Conjunto universo..........................................................................................8
1.3. CUANTIFICADORES..............................................................................................8
1.3.1. Cuantificador universal.................................................................................8
1.3.2. Cuantificador existencial..............................................................................9
1.4. SUBCONJUNTOS...................................................................................................9
1.5. OPERACIONES ENTRE CONJUNTOS............................................................10
1.5.1. Unión................................................................................................................10
1.5.2. Intersección....................................................................................................10
1.5.3. Complemento.................................................................................................11
1.5.4. Diferencia........................................................................................................12
1.5.5. Diferencia simétrica..........................................................................................13
2. PROBABILIDAD........................................................................................................15
2.1. AXIOMAS DE LA PROBABILIDAD...............................................................16
2.2. REGLA DE LA SUMA DE PROBABILIDADES...........................................16
2.2.1. La regla de adición o regla de la suma si los eventos son mutuamente
excluyentes................................................................................................................17
2.3. PROBABILIDAD CONDICIONAL...................................................................18
2.4. PROBABILIDAD ESTADÍSTICA....................................................................22
2.5. REGLA DE LA MULTIPLICACION DE PROBABILIDADES....................24
2.6. REGLA DE BAYES...........................................................................................26
UNIDAD 2: DISTRIBUCIONES DISCRETAS DE PROBABILIDAD........................28
1. DISTRIBUCIÓN DE PROBABILIDAD DE VARIANZAS ALEATORIAS DISCRETAS
29
2. MEDIA Y VARIANZA DE UNA DISTRIBUCIÓN DE PROBABILIDADES......34
2.1. LA MEDIA O VALOR ESPERADO................................................................34
2.2. VARIANZA..........................................................................................................34
2.3. DESVIACIÓN ESTÁNDAR..............................................................................35
3. DISTRIBUCIÓN BINOMIAL.....................................................................................39
3.1. PROPIEDADES DE LA DISTRIBUCIÓN BINOMIAL..................................39
4. DISTRIBUCIÓN DE POISSON............................................................................41
UNIDAD 3: DISTRIBUCIONES CONTINÚAS DE PROBABILIDAD........................45
1. DISTRIBUCION NORMAL DE PROBABILIDAD.................................................46
1.1. LA DISTRIBUCIÓN NORMAL ESTÁNDAR.................................................48
1.2. DISTRIBUCIÓN NORMAL NO ES ESTANDARIZADA..............................49
UNIDAD 4: MUESTREO Y DISTRIBUCIONES MUESTRALES...............................52
1. INTRODUCCION AL MUESTREO.........................................................................53
1.1. ERRORES EN EL MUESTREO......................................................................54
1.1.1. El error muestral.........................................................................................54
1.1.2. El error no muestral...................................................................................54
1.2. TIPOS DE MUESTREO....................................................................................55
1.2.1. Muestreo probabilístico............................................................................55
1.2.2. Métodos de muestreo no probabilísticos............................................58
2. DISTRIBUCIONES MUESTRALES.......................................................................59
2.1. DISTRIBUCION MUESTRAL DE LA MEDIA...............................................59
JUSTIFICACIÓN

La enseñanza de la Estadística a nivel descriptivo se justifica en un programa


académico debido a la necesidad que tiene el profesional de hoy de apropiar
conocimientos que lo hagan competente no solamente desde el punto de vista
metodológico sino en su capacidad de analizar e interpretar dicha información.

Son precisamente los métodos y las técnicas de la Estadística Descriptiva lo


que le permite el dominio para la recolección, el resumen, el análisis y la
interpretación de datos cuantitativos.

Se justifica además la Estadística en el profesional de Ingeniería Industrial por


la necesidad que tiene este de desarrollar constantemente investigaciones y
experimentos que le faciliten información previa para un mejor desempeño
profesional en las áreas propias de la industria.

La lógica estadística, el pensar estadístico y las operaciones estadísticas son


herramientas necesarias de toda profesión, que como la Ingeniería Industrial
requiere del control de sus procesos productivos y de la calidad de los bienes
producidos, entre otros, apoyado en las ventajas que ofrecen los métodos
estadísticos en la realización de pruebas, o en la predicción de los valores que
podrían tomar las variables implicadas en la toma de decisiones
OBJETIVOS

OBJETIVO GENERAL

Capacitar al estudiante en los conceptos básicos de la estadística probabilística,


proyectándolos al futuro como profesionales con la suficiente capacidad interpretativa y
argumentativa de las informaciones de carácter estadístico

OBJETIVOS ESPECÍFICOS

Identificar las principales fuentes de información estadística.

Recopilar y organizar datos estadísticos por su naturaleza y ordenación de los


mismos.

Decidir qué tipos de graficas se debe diseñar para diferentes tipos de datos.

Conocer los principios de la probabilidad su escala y tipos marginal, conjunta y


condicional.

Identificar tipos de variables probabilísticas.

Representación gráfica de eventos probabilísticos.

Determinar el procedimiento para calcular los principales índices empleados en el


análisis socio-económicos
UNIDAD 1: INTRODUCCIÓN
A LAS PROBABILIDADES
1. TEORIA DE CONJUNTOS

1.1. TEORIA DE CONJUNTOS

La teoría de conjuntos es una rama de las matemáticas, y cuya dedicación de este


capítulo, es gracias al matemático, Ferdinand Ludwing Philipp Cantor, quien es
considerado el padre de la Teoría de Conjuntos, debido a ello, es que, en el año 1874,
salió su primer trabajo revolucionario, con respecto a la teoría de conjuntos.

Conjuntos se refiere a agrupar personas, animales, plantas, cosas o simplemente


elementos que existen en el universo, para poder analizar relaciones que puedan existir
entre ellos.

Su objetivo es simplemente la representación de varios elementos de manera gráfica y


entendible.

Un conjunto es una agrupación de elementos. Un elemento pertenece al conjunto si este


se encuentra incluido dentro de él. Un conjunto puede ser infinito, finito, vacío o unitario,
todo dependiendo de los elementos que se encuentren dentro de él y se lo representa
con una letra mayúscula "A,B,C...", seguido por llaves {...}. Ejemplo de un conjunto de
vocales:

Los conjuntos se definen habitualmente usando llaves “{… }” y estos pueden ser
descritos de distintas formas como se las mencionará a continuación. Se pueden
describir por: extensión o tabulación, comprensión y por diagrama de ven

1.1.1. Descripción de un conjunto por extensión o tabulación.

Se conoce como descripción por extensión al describir los elementos de un conjunto uno
a uno. Si un conjunto llega a tener varios elementos se puede hacer uso de los puntos
suspensivos. Un ejemplo claro pueden ser el conjunto de los números pares. 𝐴 =
{2,4,6,8, … }
Ejemplo.

Sea A el conjunto de partes que conforman una computadora.

Descripción.

El conjunto A está conformado por partes de una computadora: mouse, teclado, monitor,
CPU, Impresora

Notación matemática.

𝐴 = {𝑀𝑜𝑢𝑠𝑒, 𝑇𝑒𝑐𝑙𝑎𝑑𝑜, 𝑀𝑜𝑛𝑖𝑡𝑜𝑟, 𝐶𝑃𝑈, 𝐼𝑚𝑝𝑟𝑒𝑠𝑜𝑟𝑎}


1.1.2. Descripción de un conjunto por compresión

Se conoce como descripción por comprensión al mencionar simplemente una sola


característica que tengan todos los elementos deseados en común. Un ejemplo claro
pueden ser el conjunto de los números pares. 𝐴 = {𝑥/𝑥 𝑒𝑠 𝑛ú𝑚𝑒𝑟𝑜 𝑝𝑎𝑟}
Ejemplo.

El conjunto B está compuesto por todas las vocales.

1. Descripción.

Sea A el conjunto de los elementos de x tales que x son todas las vocales.

Notación matemática.

B = { /𝓍 es una vocal }

1.1.3. Descripción de un conjunto por diagrama de Venn

Un diagrama de Venn sirve para poder representar gráficamente la agrupación de


elementos que tienen alguna característica en común y hacer sencilla su interpretación.
Se lo representa con una letra mayúscula seguido por un círculo en el cual en su interior
se encuentran los elementos del conjunto.
Ejemplo

Descripción.

Representar los siguientes conjuntos:

C= {1, 3, 4, 5, 7, 9}, D= {4, 6, 8, 9}.

Notación matemática.

𝐶 = {𝑥/𝑥 𝑒𝑠 𝑢𝑛 𝑛𝑢𝑚𝑒𝑟𝑜}, 𝐷 = {𝑥/𝑥 𝑒𝑠 𝑢𝑛 𝑛𝑢𝑚𝑒𝑟𝑜},


La cardinalidad de un conjunto es la que indica el número o la
cantidad de elementos que tiene el conjunto. Su símbolo esta
denotado por (𝐴).

1.2. CLASIFICACIÓN DE CONJUNTOS

Los conjuntos se clasifican de acuerdo a la cantidad de elementos que poseen. Es por ello
que se clasifican en los siguientes tipos de conjuntos:
1.2.1. Conjunto vacío.

Un conjunto se denomina vacío cuando no tiene elementos. El símbolo que lo representa


es ∅ y su cardinalidad, al no tener elementos, es de 0.
1.2.2. Conjunto unitario.

Un conjunto se denomina unitario cuando tiene solo un elemento. Su cardinalidad es: ( 𝐴) =


1.
1.2.3. Conjunto finito.

Son los que tienen un número de elementos conocidos y estos por ende se pueden
contabilizar. Por ejemplo, sea el conjunto 𝐴 = {𝑥/𝑥 𝑒𝑠 𝑣𝑜𝑐𝑎𝑙} el cual es un conjunto finito con
una cardilanidad (𝐴) = 5..
1.2.4. Conjunto infinito

Un conjunto se denomina infinito cuando posee una cantidad ilimitada de elementos y por
ende es difícil de contabilizar. Por ejemplo, sea el conjunto B={x/x es constelaciones del
universo}, el cual es un conjunto infinito ya que es imposible saber el número exacto de
constelaciones que hay en el universo.

1.2.5. Conjunto universo.

Es un conjunto para el estudio o análisis de alguna situación particular dada, que


contiene a todos los conjuntos considerados. Se le denota generalmente por la letra 𝑈.
Ejemplo
Sean los conjuntos 𝐴 = {𝑚𝑎𝑚𝑖𝑓𝑒𝑟𝑜𝑠, 𝑎𝑣𝑒𝑠} y 𝐵 = {𝑟𝑒𝑝𝑡𝑖𝑙𝑒𝑠, 𝑝𝑒𝑐𝑒𝑠}. Determine su
conjunto universo.
Solución.

1. Definición.

Su conjunto universo es:

𝑈 = {𝑎𝑛𝑖𝑚𝑎𝑙𝑒𝑠}
2. Grafica.
1.3. CUANTIFICADORES.

Son tipos de expresiones con las cuales podemos indicar cuantos elementos,
pertenecientes a un determinado conjunto, cumplen con ciertas propiedades ya sean
pertenencia, equivalencia, entre otras
.

1.3.1. Cuantificador universal.

El cuantificador universal forma parte de un lenguaje formal que tiene expresiones como:
“para todo”, “todo”, “cada”, “para cada”, que indican si un elemento cumple con ciertas
leyes. Su símbolo es (∀).

Ejemplo

Sea A el conjunto del nombre de los estudiantes que estudian en la Universidad de La


Guajira

Sea 𝐴 = {𝑥/𝑥 𝑎𝑙𝑢𝑚𝑛𝑜 𝑝𝑒𝑟𝑡𝑒𝑛𝑒𝑐𝑒 𝑎 𝑙𝑎 𝑢𝑛𝑖𝑣𝑒𝑟𝑠𝑖𝑑𝑎𝑑 𝑑𝑒 La Guajira}

1. Descripción.

Sea A el conjunto de los elementos de x tales que x es estudiante de la universidad de La


Guajira

2. Notación matemática.

 𝑥: 𝐴 = 𝑃𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑥, 𝑥 𝑒𝑠 𝑒𝑠𝑡𝑢𝑑𝑖𝑎𝑛𝑡𝑒 𝑑𝑒 𝑙𝑎 𝑈𝑛𝑖𝑣𝑒𝑟𝑠𝑖𝑑𝑎𝑑 𝑑𝑒 La Guajira

1.3.2. Cuantificador existencial.


El cuantificador existencial forma parte de un lenguaje formal que tiene expresiones como:
“existe”, “algún”, “algunos”, “por lo menos uno”, “basta que uno”, que indican si un elemento
cumple con ciertas leyes. Su símbolo es ∃

Ejemplo.
Sean: A el conjunto de nombre de estudiante que estudia la carrera de Administración
publica
B el conjunto de estudiantes mayores de 18 años.

𝐴 = {𝑥/𝑥 𝑒𝑠𝑡𝑢𝑑𝑖𝑎 𝑙𝑎 𝑐𝑎𝑟𝑟𝑒𝑟𝑎 𝑑𝑒 𝑖𝑛𝑔𝑒𝑛𝑖𝑒𝑟í𝑎 𝑒𝑛 𝑡𝑒𝑙𝑒𝑖𝑛𝑓𝑜𝑟𝑚á𝑡𝑖𝑐𝑎}

𝐵 = {𝑥/𝑥 𝑒𝑠 𝑚𝑎𝑦𝑜𝑟 𝑑𝑒 18 𝑎ñ𝑜𝑠}

1. Descripción.
Sea A, el conjunto de los elementos de x tales que x es estudiante de la carrera de
ingeniería en sistemas
Sea B, el conjunto de los elementos de x tales que x es estudiante mayor de 18 años.

2. Notación matemática.
 𝑥: (𝑥)  (𝑥) Existen estudiantes de la de la carrera de ingeniería en teleinformática que son
mayores de 18 años.

1.4. SUBCONJUNTOS

Decimos que un conjunto 𝐴 está incluido o es subconjunto de un segundo conjunto 𝐵,


cuando todos los elementos del primero constituyen el segundo conjunto y se lo denota
de la siguiente manera 𝐴 𝐵.

Ejemplo

Definición. Sean los conjuntos A y B:

𝐴 = {18, 19, 20, 21, 22, 23, 24}

𝐵 = {22, 23, 24}

2. Notación matemática. 𝐵 ⊂ 𝐴

3. Gráfica.
1.5. OPERACIONES ENTRE CONJUNTOS.

Los conjuntos son una colección ordenada o desordenada de elementos, estos se los
puede combinar de varias maneras distintas y por lo tanto se pueden realizar distintas
operaciones diferentes.

1.5.1. Unión
La unión entre dos o más conjuntos es un nuevo conjunto
conformado por la agrupación de todos los objetos o
elementos de los conjuntos que intervienen. El símbolo es
la letra: ∪. A  𝐵 = {𝑥 / 𝑥 ∈ 𝐴 𝑜 𝑥 ∈ 𝐵}

Ejemplo

Sean los conjuntos:

𝐴 = {𝐴𝑚𝑖𝑔𝑜𝑠 𝑑𝑒 𝑙𝑎 𝑓𝑎𝑐𝑢𝑙𝑡𝑎𝑑}

𝐵 = {𝐴𝑚𝑖𝑔𝑜𝑠 𝑑𝑒𝑙 𝑡𝑟𝑎𝑏𝑎𝑗𝑜}

Defina 𝐴𝑈𝐵.

𝐴𝑈𝐵 = {𝐴𝑚𝑖𝑔𝑜𝑠 𝑑𝑒 𝑙𝑎 𝑢𝑛𝑖𝑣𝑒𝑟𝑠𝑖𝑑𝑎𝑑 𝑦 𝑎𝑚𝑖𝑔𝑜𝑠 𝑑𝑒𝑙 𝑡𝑟𝑎𝑏𝑎𝑗𝑜}

1.5.2. Intersección
La intersección entre dos conjuntos, sean estos 𝐴 y 𝐵, es el conjunto formado
por todos los objetos o elementos que pertenecen a los conjuntos 𝐴 y 𝐵 a la
vez. 𝐴 ∩ 𝐵 = {𝑥 / 𝑥𝐴 𝑦 𝑥 ∈ 𝐵}

Ejemplo

Sean los conjuntos:

𝐴 = {𝑥/𝑥 𝑒𝑠 𝑛ú𝑚𝑒𝑟𝑜 𝑝𝑎𝑟}

𝐵 = {2, 5, 7, 8, 9},

Describa por tabulación 𝐴 ∩ 𝐵.

1. Definición de conjuntos.

𝐴 = {2,4,6,8,10,12,14,16,18,20 … }

𝐵 = {2, 5, 7, 8, 9}

2. Solución. 𝐴 ∩ 𝐵 = {2,8}

Cálculos matemáticos.

𝑁(𝐴): 𝐿𝑎 𝑐𝑎𝑟𝑑𝑖𝑛𝑎𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝐴 𝑒𝑠 𝑖𝑚𝑝𝑜𝑠𝑖𝑏𝑙𝑒 𝑑𝑒 𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑟 𝑦𝑎 𝑞𝑢𝑒 𝑒𝑠 𝑢𝑛


𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜 𝑖𝑛𝑓𝑖𝑛𝑖𝑡𝑜.

(𝐵) = 5

(𝐴 ∩ 𝐵) = 2
2. Gráfica.
1.5.3. Complemento

El complemento de un conjunto 𝐴 cualquiera es un nuevo conjunto formado por los


elementos que corresponden al conjunto universal, pero no al conjunto 𝐴. Se símboliza de
la siguiente manera: . 𝐴 = {𝑥 ∈ 𝑈 / 𝑥 ∉ 𝐴}
Ejemplo
Sea el conjunto
Universo 𝑈 = {𝑥/𝑥 𝑒𝑠 𝑛ú𝑚𝑒𝑟𝑜 𝑝𝑎𝑟}
𝐵 = {2, 5, 7, 8, 9}
Describa por tabulación𝐵 𝑐
1. Definición de conjuntos. 𝑈 = {2, 4, 6, 8, 10, 12, 14, 16, 18, 20 … }
𝐵 = {2, 8}
2. Solución del problema.
𝐵C = {4, 6, 10, 12, 14, 16. . . }
3. Cálculos matemáticos.
(𝑈) = 𝐸𝑠 𝑢𝑛 𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜 𝑖𝑛𝑓𝑖𝑛𝑖𝑡𝑜 𝑝𝑜𝑟 𝑙𝑜 𝑞𝑢𝑒 𝑛𝑜 𝑒𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒 𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑟 𝑠𝑢 𝑐𝑎𝑟𝑑𝑖𝑛𝑎𝑙𝑖𝑑𝑎𝑑 (𝐵) = 2 (𝐵C )
= 𝐸𝑠 𝑢𝑛 𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜 𝑖𝑛𝑓𝑖𝑛𝑖𝑡𝑜 𝑝𝑜𝑟 𝑙𝑜 𝑞𝑢𝑒 𝑛𝑜 𝑒𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒 𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑟 𝑠𝑢 𝑐𝑎𝑟𝑑𝑖𝑛𝑎𝑙𝑖𝑑𝑎𝑑
4. Gráfica

5. Interpretación de resultado. El complemento de B estará formado por todos los


elementos que estén a fuera de él, es decir, en el conjunto universo.
1.5.4. Diferencia
El conjunto diferencia es aquel que está formado solamente por los elementos que forman
parte de 𝐴 pero no de 𝐵. Se simboliza de la siguiente manera:(𝐴 − 𝐵). 𝐴 − 𝐵{𝑥/𝑥 ∈ 𝐴^𝑥 ∉
𝐵}
Ejemplo

Sea 𝐴 = {𝑥/𝑥 𝑒𝑠 𝑛ú𝑚𝑒𝑟𝑜 𝑝𝑎𝑟}

𝐵 = {2, 4, 5,7, 8, 9},

Describa por tabulación 𝐴 − 𝐵.

1. Definición de conjuntos.

𝐴 = {2, 4, 6, 8, 10, 12, 14, 16, 18, 20 … }

𝐵 = {2, 4, 5, 7, 8, 9}

2. Solución del problema. 𝐴 − 𝐵 = {6, 10, 12, 14, 16, 18, 20 … }

3. Cálculos matemáticos.

(𝐴) = 𝐸𝑠 𝑖𝑚𝑝𝑜𝑠𝑖𝑏𝑙𝑒 𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑟𝑙𝑎 𝑦𝑎 𝑞𝑢𝑒 𝑒𝑠 𝑢𝑛 𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜 𝑖𝑛𝑓𝑖𝑛𝑖𝑡𝑜 (𝐵) = 6 ( ) = 𝐸𝑠 𝑖𝑚𝑝𝑜𝑠𝑖𝑏𝑙𝑒


𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑟𝑙𝑎 𝑦𝑎 𝑞𝑢𝑒 𝑒𝑠 𝑢𝑛 𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜 𝑖𝑛𝑓𝑖𝑛𝑖𝑡𝑜

𝑁(𝐴 − 𝐵) = 𝐸𝑠 𝑖𝑚𝑝𝑜𝑠𝑖𝑏𝑙𝑒 𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑟𝑙𝑎 𝑦𝑎 𝑞𝑢𝑒 𝑒𝑠 𝑢𝑛 𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜 𝑖𝑛𝑓𝑖𝑛𝑖𝑡𝑜

4. Gráfica.
3. Interpretación de resultado. La diferencia de los conjuntos 𝐴 − 𝐵 estará formada por todos
los elementos que estén en A y no en B.

1.5.5. Diferencia simétrica

La diferencia simétrica de dos conjuntos 𝐴𝑦𝐵 cualesquiera es un nuevo conjunto formado


por todos los elementos que corresponden a 𝐴𝑜𝐵 pero no a ambos conjuntos. Se
simboliza de la siguiente manera:Δ𝐵.

Ejemplo
Dado un conjunto D, conformado por nombres de estudiantes que piensan que Python es
más sencillo que C:
𝐷= {𝐾𝑒𝑙𝑣𝑖𝑛,𝑃𝑒𝑑𝑟𝑜,𝑀𝑎𝑟𝑡ℎ𝑎,𝐾𝑎𝑟𝑙𝑎,𝑀𝑒𝑙𝑖𝑠𝑠𝑎}
y un conjunto E constituido por nombres de estudiantes que piensan que C y Python son
sencillos:
𝐸= {𝑀𝑒𝑙𝑖𝑠𝑠𝑎,𝑃𝑒𝑑𝑟𝑜,𝑀𝑎𝑟𝑡ℎ𝑎,𝐾𝑎𝑟𝑙𝑎,𝑀𝑎𝑥,𝐿𝑖𝑛𝑔𝑒𝑟}

Calcule de Diferencia Simétrica de 𝐷−𝐸:

1. Definición de conjuntos.

𝐷={𝐾𝑒𝑙𝑣𝑖𝑛,𝑃𝑒𝑑𝑟𝑜,𝑀𝑎𝑟𝑡ℎ𝑎,𝐾𝑎𝑟𝑙𝑎,𝑀𝑒𝑙𝑖𝑠𝑠𝑎}

𝐸= {𝑀𝑒𝑙𝑖𝑠𝑠𝑎,𝑃𝑒𝑑𝑟𝑜,𝑀𝑎𝑟𝑡ℎ𝑎,𝐾𝑎𝑟𝑙𝑎,𝑀𝑎𝑥,𝐿𝑖𝑛𝑔𝑒𝑟}

2. Solución del problema.

𝐷 Δ 𝐸={ 𝑀𝑎𝑥,𝐾𝑒𝑙𝑣𝑖𝑛,𝐿𝑖𝑛𝑔𝑒𝑟}
Ejercicio
Dados los siguientes conjuntos, represente mediante un Diagrama de Venn la solución a
cada operación de conjuntos e indique qué elementos forman la solución.
2. PROBABILIDAD

La probabilidad pertenece a la rama de la matemática que estudia ciertos experimentos


llamados aleatorios, o sea, regidos por el azar, en que se conocen todos los resultados
posibles, pero no se tiene la certeza de cuál será en particular el resultado del
experimento. Por ejemplo, experimentos aleatorios cotidianos son el lanzamiento de una
moneda, el lanzamiento de un dado y la extracción de una carta de un paquete de cartas.

Evento. Llamamos evento a cualquier conjunto de uno o más resultados u observaciones


de un experimento.

Ejemplo : Obtener un 5 al realizar el experimento de lanzar al azar un dado de seis caras


balanceado (todas las caras del dado son igualmente probables).

Evento Simple. Llamamos evento simple a cualquier evento que consta de un solo
resultado u observación de un experimento.

Ejemplo. Obtener un 3 al lanzar un dado al azar es un evento simple pues ocurre de una
sola forma.

Ejemplo. Obtener un número impar al lanzar un dado al azar no es un evento simple pues
ocurre de más de una forma, pues puede ser 1, 3 ó 5.

Espacio Muestral. El espacio muestral de un experimento es el conjunto que contiene


solamente a todos los eventos simples posibles. De aquí en adelante utilizaremos la letra S
para referirnos al espacio muestral.

Ejemplo: Halle el espacio muestral de lanzar al azar un dado.

Respuesta: S = {1, 2, 3, 4, 5, 6}

Ejemplo: Halle el espacio muestral de lanzar al azar dos monedas.

Respuesta: S = {(cara-cara), (cara-cruz), (cruz-cara), (cruz-cruz)}

La probabilidad de que ocurra un evento se mide por un número entre cero y uno,
inclusive. Si un evento nunca ocurre, su probabilidad asociada es cero, mientras que si
ocurriese siempre su probabilidad sería igual a uno. Así, las probabilidades suelen venir
expresadas como decimales, fracciones o porcentajes.
En el caso de utilizar fracciones para expresar probabilidades, las mismas pueden ser
simplificadas pero no es necesario hacerlo. Existen diferentes formas para definir la
probabilidad de un evento basadas en formas distintas de calcular o estimar la
probabilidad
2.1. AXIOMAS DE LA PROBABILIDAD

Un axioma de probabilidades el componente principal de un sistema de


condiciones que deben cumplirse y junto con las pautas de inferencia
especifican un sistema deductivo, para que una función determinada
sobre un conjunto de eventos determine sus probabilidades.

Los siguientes axiomas fueron formulados por el matemático ruso


Kolmogórov. Por lo que se los denomina axiomas de Kolmogórov.

Axioma1.-𝑃𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑒𝑣𝑒𝑛𝑡𝑜𝑆,0≤𝑃(𝑆)≤1

Axioma 2.-𝑃(𝑆)=1

Axioma 3.-Si 𝐴1𝑦𝐴2 son eventos mutuamente exclusivos

2.2. REGLA DE LA SUMA DE PROBABILIDADES

La regla de adición o regla de la suma, establece que si tenemos un evento A y un evento


B, la probabilidad de que ocurra el evento A o el evento B se calcula de la siguiente
manera:

P(A⋃B) = P(A) + P(B) − P(A⋂B)

Donde:

P(A): probabilidad de que ocurra el evento A.

P(B): probabilidad de que ocurra el evento B.

P(A⋃B): probabilidad de que ocurra el evento A o el evento B.

P(A⋂B): probabilidad de que ocurra el evento A y el evento B a la vez.

https://matemovil.com/regla-de-la-suma-o-adicion-de-probabilidades/

2.2.1. La regla de adición o regla de la suma si los eventos son mutuamente


excluyentes
Dos eventos A y B son mutuamente excluyentes si no pueden ocurrir al mismo tiempo, es
decir, si no tienen elementos comunes.

Por ejemplo, sacar una carta al azar de una bajara, y obtener un 5 y un 7, son eventos
mutuamente excluyentes, ya que no hay ninguna carta que tenga un 5 y un 7 al mismo
tiempo.

Entonces P(A⋂B) = 0 , por lo tanto, partiendo de la misma fórmula, obtendríamos la


siguiente expresión:

P(A⋃B) = P(A) + P(B) − P(A⋂B)

P(A⋃B) = P(A) + P(B) − 0

P(A⋃B) = P(A) +P(B)


Ejemplo:

La probabilidad de que un día cualquiera, Carlos almuerce pollo frito es de 0,4. La


probabilidad de que almuerce hamburguesa es de 0,3; mientras que la probabilidad de que
almuerce pollo frito y hamburguesa el mismo día es de 0,1. Calcula la probabilidad de que
un día cualquiera, Carlos almuerce pollo frito o hamburguesa.

Solución:

Definimos nuestras probabilidades:

Probabilidad de que Carlos almuerce pollo frito: P(A) = 0,4.

Probabilidad de que Carlos almuerce hamburguesa: P(B) = 0,3.


Probabilidad de que Carlos almuerce pollo frito y hamburguesa el mismo día: P(A ⋂B) =
0,1.
Probabilidad de que Carlos almuerce pollo frito o hamburguesa: P(A⋃B) = ?

Ahora, aplicamos nuestra fórmula:

P(A⋃B) = P(A) + P(B) − P(A⋂B)

P(A⋃B) = 0,4 + 0,3 − 0,1

P(A⋃B) = 0,6

Ejemplo:
La probabilidad de que al tirar un dado, salga 1, es de 1/6. La probabilidad de que salga 3,
es de 1/6. Calcular la probabilidad de que al tirar un dado, salga 1 o 3.
Solución:

Definimos nuestros eventos:

Probabilidad de que salga 1: P(A) = 1/6.

Probabilidad de que salga 3: P(B) = 1/6.


Probabilidad de que salga 1 y 3 al mismo tiempo P(A⋂B) = 0. Este valor es cero, dado que
son eventos mutuamente excluyentes. Si sale 1, ya no puede salir 3.
Probabilidad de que salga 1 o 3: P(A⋃B) = ?

Ahora, aplicamos nuestra fórmula:


2.3. PROBABILIDAD CONDICIONAL

Si tenemos dos eventos, A y B, la probabilidad condicional de que ocurra el evento A, dado


que ha ocurrido el evento B, se representa como P(A|B), y se calcula de la siguiente
manera:

En un diagrama de Venn, veríamos los eventos A y B de la siguiente manera:

La condición, es que se ha realizado en el evento B, por lo tanto, nuestro diagrama de


Venn quedaría reducido a::
Por ello, podemos ver que el universo está representado por la probabilidad de B, y dentro
de ese universo, la probabilidad de que ocurra A, está representada por la probabilidad de
A ∩ B.

En algunos problemas, puede que sea necesario calcular la probabilidad de que ocurra el
evento B, dado que ha ocurrido A. En ese caso, simplemente invertimos el orden de las
variables:.

Ejemplo

Si P(A) = 0,6 ; P(B) = 0,4 y P(A∩B)=0,18. Calcular:

P(A|B)

P(B|A)

Solución:
En este problema, simplemente vamos a reemplazar los
datos en la fórmula.
a) Usamos la fórmula de probabilidad condicional:
b) Usamos la fórmula de fórmula de probabilidad condicional, teniendo en cuenta que
vamos a calcular la probabilidad de que ocurra B, dado que ha ocurrido A.

Ejemplo

Al 25% de tus amigos le gusta la fresa y el chocolate, mientras que al 60% le gusta el
chocolate. ¿Cuál es la probabilidad de que a un amigo que le gusta el chocolate, le
guste la fresa?

Solución:
Vamos a trabajar con 2 eventos: que a un amigo le guste la fresa, y que a un amigo le
guste el chocolate.

Evento A: que a un amigo le gusten los fresa. P(A) = ?

Evento B: que a un amigo le guste el chocolate. P(B) = 60 %.

Evento A y B: que a un amigo le guste la fresa y el chocolate. P(A∩B) =


25 %.

Ahora calculamos la probabilidad de que a un amigo le guste la fresa,


dado que le gusta el chocolate.

La probabilidad de que a un amigo le guste la fresa dado que le gusta el chocolate


es del 41,67 %.
Ejemplo:

El 76 % de los estudiantes de Ingeniería Civil han aprobado resistencia de materiales y el


45 % aprobaron estática. Además, el 30 % aprobaron resistencia de materiales y estática.
Si Camilo aprobó resistencia de materiales, ¿qué probabilidad tiene de haber aprobado
también estática?

Solución:
Vamos a trabajar con 2 eventos: aprobar resistencia de materiales, y aprobar estática.

Evento A: aprobar resistencia de materiales. P(A) = 76 %.

Evento B: aprobar estática. P(B) = 45 %.

Evento A y B: aprobar resistencia de materiales y estática. P(A∩B) = 30 %, y es lo mismo


que: P(B∩A) = 30 %

Ahora calculamos la probabilidad de aprobar estática, dado que se aprobó resistencia de


materiales.

Para Camilo, la probabilidad de aprobar estática, dado que aprobó resistencia de materiales
es de 39,47 %.

2.4. PROBABILIDAD ESTADÍSTICA

Probabilidad es un valor entre 0 y 1, que indica la posibilidad relativa de que ocurra un


evento.

La fórmula de probabilidad es la siguiente:


Mientras más se acerca el valor de la probabilidad a 0, disminuye la posibilidad de que
ocurra el evento. Mientras más se acerca el valor a 1, aumenta la posibilidad de que
ocurra.

La probabilidad de que ocurra un evento es 0, si es imposible que ocurra ese evento. Por
otro lado, la probabilidad de que un ocurra un evento es 1, si es seguro que ocurrirá ese
evento.
Ejemplo:

La moneda de México, tiene 2 caras: águila y sello. ¿Cuál es la


probabilidad de obtener águila al lanzar una moneda?

Solución:

Primero calculamos el número total de casos posibles que se dan al lanzar


la moneda. En este problema, son 2 casos posibles, se obtiene águila o se
obtiene sello.

Ahora, calculamos el número de casos favorables. Si lanzamos la moneda,


tenemos 1 caso de águila. Por lo tanto, la probabilidad de obtener águila
sería:

Podemos colocar como respuesta: 0,5 o 50%.

Ejemplo:

¿Cuál es la probabilidad de obtener un 5 al lanzar un dado?

Solución:

Primero calculamos el número total de casos posibles que se dan al


lanzar un dado. En este problema, son 6 casos posibles, ya que el
dado puede arrojar 1, 2, 3, 4, 5 o 6.

Ahora, calculamos el número de casos favorables. Si lanzamos un


dado, tenemos 1 caso en el que se obtiene 5. Por lo tanto, la
probabilidad de obtener un 5 sería:
La respuesta sería: 0,1667 o 16,67%.

Ejemplo:

Si se lanza una moneda de México al aire dos veces, ¿cuál es la probabilidad de obtener al
menos 1 águila?

Solución:

Primero calculamos el número total de casos posibles. Los casos posibles del primer y
segundo lanzamiento son:

Águila – águila.

Águila – sello.

Sello – águila.

Sello – sello.

En total, tenemos 4 casos posibles.

Ahora calculamos el número de casos en los cuáles se obtiene al menos 1 águila. Los
casos son:

Águila – águila.

Águila – sello.

Sello – águila.

Es decir, tenemos 3 casos favorables. Por lo tanto, la probabilidad de obtener al menos un


águila es:
La respuesta sería: 0,75 o 75%.

2.5. REGLA DE LA MULTIPLICACION DE PROBABILIDADES

La regla de la multiplicación o regla del producto, permite encontrar la probabilidad de que


ocurra el evento A y el evento B al mismo tiempo (probabilidad conjunta). Esta regla
depende de si los eventos son dependientes o independientes

Dos eventos A y B son dependientes, si la ocurrencia de uno de ellos afecta la ocurrencia


del otro. Para eventos dependientes, la regla de la multiplicación establece que:

Ejemplo:

Una caja contiene 2 canicas azules y 3 rojas. Si se extraen dos canicas al azar
sin reposición, ¿cuál es la probabilidad de que las dos sean azules?

Solución:

Dado que las canicas serán extraídas de la misma caja, y que las canicas que
se extraigan, no serán devueltas a la caja (no hay reposición), entonces, se
trata de eventos dependientes.

Evento A: obtener una canica azul en la primera extracción.

Evento B: obtener una canica azul en la segunda extracción.

Por la regla de la multiplicación, sabemos que:


2.5.1. Eventos independientes
Dos eventos A y B son independientes, si la ocurrencia de uno de ellos no afecta la
ocurrencia del otro, es decir, cuando los eventos A y B no están relacionados. Para
eventos independientes, la regla de la multiplicación establece que:

Esto se debe, a que en los eventos independientes, la ocurrencia de un evento, no afecta a


la ocurrencia del otro:

Ejemplo:

En un colegio, la probabilidad de que un alumno seleccionado al azar hable inglés es de


0,20; mientras que la probabilidad de que un alumno juegue fútbol es de 0,80.

El hecho de que un alumno hable inglés, no afecta en nada que juegue fútbol; por lo tanto,
se trata de eventos independientes.

Evento A: que el alumno hable inglés. P(A) = 0,20.

Evento B: que el alumno juegue fútbol. P(B) = 0,80.

Usamos la regla de la multiplicación para eventos independientes:


Ejemplo:
Sabiendo que P(A) = 0,70; P(B) = 0,50; y además, P(A∩B) = 0,40;
determinar si son eventos dependientes o independientes.
Solución:

En los eventos independientes, se cumple que:

En este caso:

P(A∩B) = 0,40.

P(A) × P(B) = 0,70 × 0,50 = 0,35.

Podemos ver que 0,40 es diferente de 0,35; entonces:

Podemos concluir que no son eventos independientes, es decir, son eventos dependientes.

2.6. REGLA DE BAYES

El teorema o regla de Bayes, fue planteado por el matemático y religioso


inglés, Thomas Bayes. Este teorema fue publicado en el año 1763, dos
años después de la muerte de Bayes.

El teorema de Bayes, nos permite calcular la probabilidad de que ocurra


un evento, a partir de valores conocidos de otras probabilidades
relacionadas al evento.

El teorema de Bayes lo encontramos de dos formas diferentes, en su


forma simple y en su forma extendida.

Forma simple del teorema de Bayes:


Donde:

A y B son eventos, y además: P(B) ≠ 0.

P(A|B): es la probabilidad de que ocurra A, dado que ha ocurrido B.

P(B|A): es la probabilidad de que ocurra B, dado que ha ocurrido A.

P(A): es la probabilidad de que ocurra A.

P(B): es la probabilidad de que ocurra B.

El teorema expresa la probabilidad de que ocurra el evento A, dado que ha ocurrido B, en


función de la probabilidad de que ocurra B dado que ha ocurrido A, de la probabilidad de
A y de la probabilidad de B.

En la práctica tiene muchísimas aplicaciones, por ejemplo, conociendo la probabilidad de


que una persona tenga fiebre dado que tiene gripe, nos permite calcular la probabilidad de
que una persona que tiene gripe, dado que tiene fiebre. Tiene, además, aplicaciones
importantísimas en la detección del cáncer y otras enfermedades.

Ejemplo:

En la universidad de la guajira, la probabilidad de que a un alumno seleccionado al azar le


guste el helado es del 60 %, mientras que la probabilidad de que a un alumno le guste la
torta es del 36 %. Además, se sabe que la probabilidad de que a un alumno le guste la
torta dado que le gusta el helado es del 40 %. Calcular la probabilidad de que a un
alumno le guste el helado, dado que le gusta la torta.
Solución:

Primero definimos los 2 eventos con los que vamos a trabajar:

h: que a un alumno le guste el helado.

t: que a un alumno le guste la torta.

Tenemos los siguientes datos:

P(h) = 0,6.
P(t) = 0,36.
P(t|h) = 0,4.

Nos piden calcular P(h|t).

Aplicamos el teorema de Bayes:

Entonces, la probabilidad de que un alumno le guste el helado dado que le gusta la torta es
de 0,6667 o 66,67 %.
UNIDAD 2:
DISTRIBUCIONES
DISCRETAS DE
PROBABILIDAD
1. DISTRIBUCIÓN DE PROBABILIDAD DE VARIANZAS ALEATORIAS DISCRETAS

Una función de probabilidad de una variable aleatoria discreta es una función que asigna
probabilidades a los valores de la variable aleatoria.

La fórmula que usaremos para la función de probabilidad de una variable aleatoria discreta
es la siguiente:

Como suena complicado, mejor lo aprendemos con algunos ejemplos.

Vamos a realizar un experimento muy sencillo que consiste en lanzar un dado. Los
resultados que podemos obtener los colocamos de forma gráfica:

Definimos la variable aleatoria discreta X:

X = resultado de lanzar un dado.

Ahora colocamos en una tablita todos los valores posibles del rango de esta variable
aleatoria discreta X:

Vamos a asociar cada valor con una probabilidad. En un dado, las probabilidades son
bastante sencillas de calcular usando la fórmula de probabilidad:
Ahora colocamos las probabilidades en la tablita:

Y listo, ya tenemos la función de probabilidad de la variable aleatoria X representada en


forma de tabla.

Además, una función de probabilidad también se puede representar de manera gráfica


mediante un diagrama de barras. En el eje horizontal se colocan los valores de la variable
aleatoria y en el eje vertical las probabilidades. En el caso de nuestra función de
probabilidad, la gráfica de barras sería la siguiente:

Una función de probabilidad de una variable aleatoria discreta se puede expresar de manera
fácil como una tabla o lista que empareja los valores de la variable con sus probabilidades o
también mediante una gráfica de barras. Sin embargo, una función de probabilidad de
expresa con mayor frecuencia mediante una fórmula.

Por ejemplo, a partir de la tabla de probabilidades de la variable aleatoria X, vamos a


encontrar la ecuación de la función de probabilidad de la variable aleatoria X en forma de
ecuación:

Como todas las probabilidades son iguales a 1/6, entonces la ecuación de la función de
probabilidad de X sería la siguiente:

Y así ya tenemos nuestra función de probabilidad expresada mediante fórmula. Recordemos


un poco de teoría:

Una función de probabilidad de una variable aleatoria discreta es una función que asigna
probabilidades a los valores de la variable aleatoria. Su fórmula es la siguiente:

Además, la función de probabilidad tiene que cumplir con 2 propiedades:

1) La probabilidad de cada valor de la variable aleatoria debe estar entre 0 y 1.

2) La suma de las probabilidades asignadas a todos los valores de la variable aleatoria debe
ser 1.

Estas propiedades seguro te sonarán conocidas, ya que son propiedades que hemos
estudiado antes en el capítulo de probabilidades.
Es importante indicar que la función de probabilidad en una variable aleatoria discreta
también es llamada función de masa de probabilidad o distribución de probabilidad. En
algunos libros indican que la distribución y la función son cosas diferentes, pero la mayoría
de autores modernos no realizan distinción entre estos 2 conceptos en el caso de variables
aleatorias discretas.

Ejercicio:
Determina si la siguiente función es una función de probabilidad. Si lo es, encuentra la
función de probabilidad en forma de tabla y el diagrama de barras de la función.

Solución:

Para que f(x) sea una función de probabilidad, se tienen que cumplir las 2 propiedades que
mencionamos líneas arriba, vamos a comprobarlo.

Empezamos colocando una tabla con los valores de x:

A continuación, calculamos los valores de f(x), teniendo en cuenta la fórmula del enunciado:

1) Los valores de la función de probabilidad se encuentran entre 0 y 1.

Se cumple la primera propiedad, pues todos los valores de f(x) se encuentran entre 0 y 1.

2) La sumatoria de los valores de f(x) tiene que ser 1:

Veamos si se cumple realizando la sumatoria:


Se cumple la segunda propiedad, ya que la sumatoria de los valores de f(x) es 1.

Como se cumplen las 2 propiedades, entonces podemos concluir que f(x) es una función de
probabilidad.

Ahora vamos a encontrar la función f(x) en forma de tabla, partiendo de la tabla que
realizamos líneas arriba y simplificando las fracciones:

A continuación, colocamos la misma tabla pero ya ordenada y pasaremos las fracciones a


decimales:

Y terminamos con el diagrama de barras de la función:


2. MEDIA Y VARIANZA DE UNA DISTRIBUCIÓN DE PROBABILIDADES

2.1. LA MEDIA O VALOR ESPERADO

La media «µ» o valor esperado «E(X)» es un promedio ponderado de los valores que
asume la variable aleatoria cuando los pesos son las probabilidades. Es una medida de
tendencia central. Cuando trabajamos con una variable aleatoria discreta, la media o valor
esperado se calcula mediante la siguiente fórmula:

Como verás, la media µ de una variable aleatoria discreta X se encuentra al multiplicar


cada posible valor de X por su propia probabilidad y luego sumar todos los productos.

El valor esperado o media no tiene que ser un valor que la variable aleatoria pueda asumir.

2.2. VARIANZA

La varianza, σ2 o V(X), es un promedio ponderado de las desviaciones al cuadrado de una


variable aleatoria de su media. Los pesos son las probabilidades. La varianza σ 2 o V(X) se
calcula con la siguiente fórmula:

Pero es más fácil y rápido usar esta fórmula, equivalente a la anterior:

Debemos recordar que la varianza es una medida de variabilidad o dispersión.

2.3. DESVIACIÓN ESTÁNDAR

La desviación estándar σ es la raíz cuadrada positiva de la varianza:

Recuerda que la varianza se mide en las mismas unidades que la variable aleatoria original.
Ejemplo
Sea X el número de clientes que visitan una tienda por día. Calcular el valor esperado de X a
partir de su función de probabilidad:

Solución:

Recordemos la fórmula de la media o valor esperado:

Entonces reemplazamos los valores:

Y listo, la media o valor esperado es de 0,60. Recuerda que el valor esperado o media no
tiene que ser un valor que la variable aleatoria pueda asumir.

Ejemplo
Encuentra la media, varianza y desviación estándar de la variable aleatoria X:

Solución:
Cuando no solo nos piden calcular la media, si no también la varianza y la desviación
estándar, es mejor emplear una tabla en la cual iremos colocando todo lo que indican las
fórmulas. Empezamos colocando la tabla de la función de manera vertical.

Para calcular la media µ o valor esperado E(X), usamos su fórmula:

Agregamos una columna más a la tabla, para encontrar los productos x·f(x). Luego,
sumamos estos productos.

Listo el valor de la media, obtuvimos que:


Llega el turno de la varianza, usaremos la fórmula rápida:

Entonces, agregamos algunas columnas más a nuestra tabla para encontrar lo que nos pide
la fórmula:

Ya casi terminamos con la varianza:

Y por último, viene el valor de la desviación estándar, que es la raíz cuadrada positiva de la
varianza.
3. DISTRIBUCIÓN BINOMIAL

Una distribución binomial es una distribución de probabilidad discreta que describe el


número de éxitos al realizar n experimentos independientes entre sí, acerca de una
variable aleatoria.

Existen una gran diversidad de experimentos o sucesos que pueden ser caracterizados
bajo esta distribución de probabilidad. Imaginemos el lanzamiento de una moneda en el
que definimos el suceso “sacar cara” como el éxito. Si lanzamos 5 veces la moneda y
contamos los éxitos (sacar cara) que obtenemos, nuestra distribución de probabilidades
se ajustaría a una distribución binomial.

La distribución de probabilidad binomial es una distribución discreta que tiene muchísimas


aplicaciones. Se asocia con un experimento de múltiples pasos que se llama experimento
binomial. La palabra binomial viene de otra palabra que significa “dos nombres” y esto nos
hará recordar que en cada ensayo que veremos en este tema siempre habrá dos
resultados: éxito y fracaso. Si es que respondes una pregunta de alternativas al azar, la
respuesta es correcta o incorrecta. Si es que realizas un control de calidad a un producto,
este será defectuoso o no defectuoso.

Si es que lanzas una moneda, sale cara o sale cruz.

Por lo tanto, la distribución binomial se entiende como una serie de pruebas o ensayos en
la que solo podemos tener 2 resultados (éxito o fracaso), siendo el éxito nuestra variable
aleatoria.
3.1. PROPIEDADES DE LA DISTRIBUCIÓN BINOMIAL

Para que una variable aleatoria se considere que sigue una distribución binomial, tiene
que cumplir las siguientes propiedades:

En cada ensayo, experimento o prueba solo son posibles dos resultados (éxito o fracaso).

La probabilidad del éxito ha de ser constante. Esta se representa mediante la letra p. La


probabilidad de que salga cara al lanzar una moneda es 0,5 y esta es constante dado que
la moneda no cambia en cada experimento y las probabilidades de sacar cara es constate.

La probabilidad de fracaso ha de ser también constate. Esta se representa mediante la


letra q = 1-p. Es importante fijarse que mediante esa ecuación, sabiendo p o sabiendo q,
podemos obtener la que nos falte.

El resultado obtenido en cada experimento es independiente del anterior. Por lo tanto lo


que ocurra en cada experimento no afecta a los siguientes.

Los sucesos son mutuamente excluyentes, es decir, no pueden ocurrir los 2 al mismo
tiempo. No se puede ser hombre y mujer al mismo tiempo o que al lanzar una moneda
salga cara y cruz al mismo tiempo.

Los sucesos son colectivamente exhaustivos, es decir, al menos uno de los 2 ha de ocurrir.
Si no se es hombre, se es mujer y si se lanza una moneda, si no sale cara ha de salir cruz.

La variable aleatoria que sigue una distribución binomial se suele representar como
X~(n,p). n representa el número de ensayos o experimentos y p la probabilidad de éxito.

La fórmula para calcular la distribución normal es:

Donde:

n = número de ensayos/experimentos
x = número de éxitos

p = probabilidad de éxito

q = probabilidad de fracaso (1-p)

Es importante resaltar que la expresión entre corchetes no es una expresión matricial, sino
que es un resultado de una combinatoria sin repetición. Este se obtiene con la siguiente
formula:

El signo de exclamación en la expresión anterior, representa el símbolo de factorial.

Ejemplo de distribución binomial

Imaginemos que un 80% de personas en el mundo han visto el partido de la final del último
mundial de futbol. Tras el evento, 4 amigos se reúnen a conversar, ¿Cuál es la
probabilidad de que 3 de ellos hayan visto?

Definamos las variables del experimento:

n = 4 (es el total de la muestra que tenemos)

x = número de éxitos, que en este caso es igual a 3, dado que buscamos la probabilidad
de que 3 de los 4 amigos lo hayan visto.
p = probabilidad de éxito (0,8)

q = probabilidad de fracaso (0,2). Este resultado se obtiene al restar 1-p.

Tras definir todas nuestras variables, simplemente sustituimos en la formula.


El numerador de la factorial se obtendría de multiplicar 4*3*2*1 = 24

y en el denominador tendríamos 3*2*1*1 = 6.

Por lo tanto el resultado del factorial sería 24/6=4.

Fuera del corchete tenemos dos números.

El primero sería 0,8^3=0,512

y el segundo 0,2 (dado que 4-3 = 1

y cualquier número elevado a 1 es el mismo).

Por tanto nuestro resultado final sería:

4*0,512*0,2 = 0,4096.

Si multiplicamos por 100 tenemos que hay una probabilidad del 40,96% de que 3 de los 4
amigos hayan visto el partido de la final del mundial
4. DISTRIBUCIÓN DE POISSON

La distribución de Poisson fue propuesta por primera vez por Simeón Poisson en libro
publicado en 1837. A medida que pasaron los años, el número de aplicaciones comenzó a
aumentar, sobre todo el siglo XX y con la aparición de las computadoras en el siglo XXI
permitió incrementarlas aún más.

La distribución de Poisson es una distribución de probabilidad discreta, que describe el


número de veces que ocurre un evento durante un intervalo específico; el cual puede ser
de tiempo, distancia, área, volumen, entre otros.

Por ejemplo, son variables de Poisson: el número de llamadas que recibe una central
telefónica en el período de 1 minuto, el número de bacterias en un volumen de 1 litro de
agua o el número de fallas en la superficie de una pieza de cerámica rectangular.

En un experimento de Poisson, la variable aleatoria es el número de veces que ocurre un


evento durante un intervalo definido. El intervalo puede ser tiempo, distancia, área,
volumen o alguna unidad similar.
Además, este experimento cumple las siguientes condiciones:

i) La probabilidad de ocurrencia es la misma para cualesquiera 2


intervalos de igual longitud.

ii) La ocurrencia o no ocurrencia en cualquier intervalo es


independiente de la ocurrencia o no ocurrencia en cualquier otro
intervalo.

Si se cumplen esas condiciones, entonces estamos ante un experimento de Poisson, X


sigue una distribución de Poisson y podemos aplicar la fórmula de la distribución de
Poisson.

Aquí algunos ejemplos típicos de variables aleatorias que siguen una distribución de Poisson:

El número de clientes que ingresan a un supermercado en un día.

El número de accidentes registrados en una fábrica durante una semana.

El número de llamadas que recibe una central telefónica en el período de


un minuto.

El número de bacterias en un volumen de un litro de agua.

El número de vehículos que llegan a una gasolinera en una hora.

El número de fallas en la superficie de una pieza de cerámica rectangular.

El número de toxinas en partes por millón encontradas en un litro de agua


de un río.

Se dice que una variable aleatoria discreta X tiene una distribución de Poisson con parámetro
μ (μ>0) si la función de probabilidad de X es:

Donde:
f(x) = P(X=x) : probabilidad de x ocurrencias en un intervalo.

μ: valor esperado o media de X.

e: base de los logaritmos naturales. Su valor es 2,71828…

Además, en una distribución de Poisson:

La media de X es igual a μ.

La varianza de X es igual a μ.

Ejemplos

La veterinaria de Jorge recibe un promedio de μ = 4 pacientes por día. Sabiendo que el


número de pacientes que llegan en un día sigue una distribución de Poisson, calcular:

a) la probabilidad de que lleguen 3 pacientes en un día.

Primero definimos nuestra variable aleatoria:

X = número de pacientes que llegan en un día.

Además, nos indican que esta variable aleatoria X sigue una distribución de Poisson,
entonces podemos aplicar la fórmula:

Calculamos la probabilidad de que lleguen 3 pacientes en un día, es decir, f(3). Además, el


enunciado nos indica que llegan en promedio 4 pacientes por día, es decir, μ = 4.

La probabilidad de que lleguen 3 pacientes en un día es de 0,1954 o 19,54 %.


b) la probabilidad de que lleguen 5 pacientes en un día.

Calculamos la probabilidad de que lleguen 5 pacientes en un día, es decir, f(5). Además, el


enunciado nos indica que el enunciado que llegan en promedio 4 pacientes por día, es
decir, μ = 4.

La probabilidad de que lleguen 5 pacientes en un día es de 0,1563 o 15,63 %.


UNIDAD 3:
DISTRIBUCIONES
CONTINÚAS DE
PROBABILIDAD
1. DISTRIBUCION NORMAL DE PROBABILIDAD

La distribución normal, distribución de Gauss o distribución gaussiana, es la distribución de


probabilidad individual más importante. La distribución normal nos permite crear modelos de
muchísimas variables y fenómenos, como por ejemplo, la estatura de los habitantes de un
país, la temperatura ambiental de una ciudad, los errores de medición y muchos otros
fenómenos naturales, sociales y hasta psicológicos.

Un parámetro muy importante es la media (µ) y siempre estará al centro de la curva con
forma de campana. Por ejemplo, aquí tenemos la gráfica de una distribución normal con
media igual a 8.

Además de la media, existe otro parámetro muy importante, se trata de la desviación


estándar, representada con la letra griega σ. La desviación estándar es la medida de
variabilidad más utilizada y nos indica que tan dispersos se encuentran los datos. Por
ejemplo, aquí veremos dos curvas normales, una con desviación estándar pequeña, y otra
con desviación estándar grande. Cuando la desviación estándar es pequeña, los datos tienen
una dispersión baja y se agrupan alrededor de la media. En cambio, cuando la desviación
estándar es alta, los datos tienen una dispersión alta y se alejan de la media
Si se grafica esta función, se obtiene como resultado la curva normal:

Además, tiene las siguientes características:

Toma en cuenta la media(µ) y la desviación estándar(σ).


El área bajo la curva es igual a 1.
Es simétrica respecto al centro, o a la media.
50% de los valores son mayores que la media, y 50% de los valores son menores que la
media.
La media es igual a la mediana y a la moda.
Tiene una asíntota en y = 0 (eje x).
Algunos otros ejemplos de variables con distribución normal:

Notas en un examen.
Errores de medida.
Presión sanguínea.
Tamaño de las piezas producidas por una máquina.
Para encontrar las probabilidades o cantidad de datos entre determinados valores de la
variable, se calcula el área bajo la curva normal, que se encuentra en la tabla z o tabla de
áreas bajo la curva normal estandarizada.

1.1. LA DISTRIBUCIÓN NORMAL ESTÁNDAR

La distribución normal estándar, es aquella distribución normal que tiene una media igual a
cero, y una desviación estándar igual a uno. Veamos la función densidad normal
estandarizada, que trabaja con la variable estandarizada z en el eje horizontal:

Por ejemplo, si se desea encontrar la probabilidad de que la variable estandarizada z, tome


un valor entre 0 y 1,50; hay que encontrar el área bajo la curva entre z = 0 y z = 1,50.

https://matemovil.com/distribucion-normal-ejercicios-resueltos/

https://youtu.be/T7_ktqfVseU

https://youtu.be/VES8qjbKnJs
Para calcular el valor de esta área, se utiliza la tabla z y se busca el valor de 1,50:

Como vemos, el valor del área bajo la curva es de 0,4332, y esa sería la probabilidad de que
la variable estandarizada z, tome un valor comprendido entre 0 y 1,50.

1.2. DISTRIBUCIÓN NORMAL NO ES ESTANDARIZADA

En la mayoría de problemas, cuando se analizan diferentes variables x, la distribución normal


no tiene la forma estandarizada, es decir, la media no es cero y la desviación estándar no es
uno. En esos casos, se convierten los valores de la variable (x) a z, es decir, se estandarizan
los valores de la variable (x).

La fórmula de la variable estandarizada «z», la cual indica cuántas desviaciones estándar se


aleja el valor x de la media, es la siguiente:
Y luego, con los valores de z, se utiliza la tabla y se calculan las áreas bajo la curva,
porcentajes o probabilidades. En los videos que vienen líneas abajo, encontrarás muchos
ejemplos.

Por ejemplo, si tenemos una variable aleatoria continua X con una distribución normal no
estandarizada, con media igual a 10 y desviación estándar igual a 1, y el problema pide
calcular la probabilidad de que la variable X tome un valor entre 10 y 11,50, hay que
estandarizar los valores de la variable X aplicando la fórmula de z:

Ahora, veamos la gráfica de esta distribución normal:

Y usando la tabla z, se calcula el área bajo la curva. Cuando z es igual a 1,50, el área bajo la
curva es de 0,4332.
Podemos concluir que la probabilidad de que la variable estandarizada z, tome un valor
comprendido entre 10 y 11,50 es de 0,4332.
UNIDAD 4: MUESTREO Y
DISTRIBUCIONES MUESTRALES
1. INTRODUCCION AL MUESTREO

Uno de los propósitos de la estadística inferencial es estimar las características


poblacionales desconocidas, examinando la información obtenida de una muestra, de una
población. El punto de interés es la muestra, la cual debe ser representativa de la población
objeto de estudio. Se seguirán ciertos procedimientos de selección para asegurar de que las
muestras reflejen observaciones a la población de la que proceden, ya que solo se pueden
hacer observaciones probabilísticas sobre una población cuando se usan muestra s
representativas de la misma.

Una población está forma d a por la totalidad de las observaciones en las cuales se tiene
cierto observado.

Una muestra es un subconjunto de observaciones seleccionadas de una población

El muestreo estadístico es un procedimiento por el que se ingresan los valores verdaderos


de una población a través de la experiencia obtenida con una muestra

El muestreo como herramienta de la investigación científica arroja resultados que se pueden


utilizar para concluir un determinado estudio X de población, al igual las técnicas selectivas
que se requieren para dicho estudio de acuerdo a lo que se va a evaluar.

El muestreo permite una reducción considerable de los costos materiales del estudio, una
mayor rapidez en la obtención de la información y el logro de resultados con máxima calidad.

En estadística un muestreo es la técnica para la selección de una muestra a partir de una


población. En el muestreo, si el tamaño de la muestra es más pequeño que el tamaño de la
población, se puede extraer dos o más muestras de la misma población. Al conjunto de
muestras que se pueden obtener de la población se denomina espacio muestral. La variable
que asocia a cada muestra su probabilidad de extracción

El muestreo: es una herramienta de la investigación científica. Su función básica es


determinar que parte de una realidad en estudio (población o universo) debe examinarse con
la finalidad de hacer inferencias sobre dicha población
El Muestreo es más que el procedimiento empleado para obtener una o más muestras de
una población; el muestreo es una técnica que sirve para obtener una o más muestras de
población.

Este se realiza una vez que se ha establecido un marco muestral representativo de la


población, se procede a la selección de los elementos de la muestra aunque hay muchos
diseños de la muestra.

Al tomar varias muestras de una población, las estadísticas que calculamos para cada
muestra no necesariamente serían iguales, y lo más probable es que variaran de una
muestra a otra.

Muestreo Estadístico: son aquellos que se basan en el principio de equiprobabilidad. Es


decir, aquellos en los que todos los individuos tienen la misma probabilidad de ser elegidos
para formar parte de una muestra y, consiguientemente, todas las posibles muestras de
tamaño n tienen la misma probabilidad de ser elegidas.

1.1. ERRORES EN EL MUESTREO

Errores en el Muestreo Cuando se utilizan valores muéstrales (parámetros), o estadísticos


para estimar valores poblacionales, pueden ocurrir dos tipos generales de errores:

1.1.1. El error muestral


El error muestral se refiere a la variación natural existente entre muestras tomadas de la
misma población. Aún si se ha tenido gran cuidado para asegurar que dos muestras del
mismo tamaño sean representativas de una cierta población, no esperaríamos que las dos
sean idénticas en todos sus detalles. El error muestral es un concepto importante que
ayudará a entender mejor la naturaleza de la estadística inferencial.

1.1.2. El error no muestral


Los errores que surgen al tomar las muestras y que no pueden clasificarse como errores
muéstrales y se denominan errores no muéstrales. El sesgo de las muestras es un tipo de
error no muestral.

El sesgo muestral se refiere a una tendencia sistemática inherente a un método de muestreo


que da estimaciones de un parámetro que son, en promedio, menores (sesgo negativo), o
mayores (sesgo positivo) que el parámetro real.

Ejemplo: la longitud del dedo índice de personas de la misma edad y sexo. El sesgo muestral
puede suprimirse, o minimizarse, usando la aleatorización.

La aleatorización se refiere a cualquier proceso de selección de una n muestra de la


población en el que la selección es imparcial o no está sesgada; una muestra elegida con
procedimientos aleatorios se llama muestra aleatoria.

1.2. TIPOS DE MUESTREO


Existen diferentes criterios de clasificación de los diferentes tipos de muestreo, aunque en
general pueden dividirse en dos grandes grupos: métodos de muestreo probabilísticos y
métodos de muestreo no probabilísticos.

1.2.1. Muestreo probabilístico

Los métodos de muestreo probabilísticos son aquellos que se basan en el principio de


equiprobabilidad. Es decir, aquellos en los que todos los individuos tienen la misma
probabilidad de ser elegidos para formar parte de una muestra y, consiguientemente, todas
las posibles muestras de tamaño n tienen la misma probabilidad de ser seleccionadas. Sólo
estos métodos de muestreo probabilísticos nos aseguran la representatividad de la muestra
extraída y son, por tanto, los más recomendables. Dentro de los métodos de muestreo
probabilísticos encontramos los siguientes tipos:

1.- Muestreo aleatorio simple:


El procedimiento empleado es el siguiente: 1) se asigna un número a cada individuo de la
población y 2) a través de algún medio mecánico (bolas dentro de una bolsa, tablas de
números aleatorios, números aleatorios generadas con una calculadora u ordenador, etc.) se
eligen tantos sujetos como sea necesario para completar el tamaño de muestra requerido.

Este procedimiento, atractivo por su simpleza, tiene poca o nula utilidad práctica cuando la
población que estamos manejando es muy grande.

Ejemplo
Suponga que nos interesa elegir una muestra aleatoria de 5 estudiantes en un grupo de
estadística de 20 alumnos. Las combinaciones se escriben 20C 5 lo que da el número total de
formas de elegir una muestra no ordenada y este resultado es igual a 15.504 maneras
diferentes de tomar la muestra.

Un procedimiento simple para elegir una muestra aleatoria sería escribir cada uno de los 20
nombres en pedazos separados de papel, colocarlos en un recipiente, revolverlos y después
extraer cinco papeles al mismo tiempo.

Otro método para obtener una muestra aleatoria de 5 estudiantes en un grupo de 20 utiliza
una tabla de números aleatorios. Se puede construir la tabla usando una calculadora o una
computadora o con métodos de selección al azar.

Hay muchas situaciones en las cuales el muestreo aleatorio simple es poco práctico,
imposible o no deseado; aunque sería deseable usar muestras aleatorias simples para las
encuestas nacionales de opinión sobre productos o sobre elecciones presidenciales, sería
muy costoso o tardado.

2.- Muestreo aleatorio sistemático:


Este procedimiento exige, como el anterior, numerar todos los elementos de la población,
pero en lugar de extraer n números aleatorios sólo se extrae uno. Se parte de ese número
aleatorio i, que es un número elegido al azar, y los elementos que integran la muestra son los
que ocupa los lugares i, i+k, i+2k, i+3k,...,i+(n-1)k, es decir se toman los individuos de k en k,
siendo k el resultado de dividir el tamaño de la población entre el tamaño de la muestra: k=
N/n. El número i que empleamos como punto de partida será un número al azar entre 1 y k.
El riesgo este tipo de muestreo está en los casos en que se dan periodicidades en la
población ya que al elegir a los miembros de la muestra con una periodicidad constante (k)
podemos introducir una homogeneidad que no se da en la población. Imaginemos que
estamos seleccionando una muestra sobre listas de 10 individuos en los que los 5 primeros
son varones y los 5 últimos mujeres, si empleamos un muestreo aleatorio sistemático con
k=10 siempre seleccionaríamos o sólo hombres o sólo mujeres, no podría haber una
representación de los dos sexos.

Ejemplo
Para obtener una muestra de suscriptores telefónicos en una ciudad grande, puede
obtenerse primero una muestra aleatoria de los números de las páginas del directorio
telefónico; al elegir el vigésimo nombre de cada página obtendríamos un muestreo
sistemático, también podemos escoger un nombre de la primera página del directorio y
después seleccionar cada nombre del lugar número cien a partir del ya seleccionado.

En este caso, podríamos seleccionar un número al azar entre los primeros 100; supongamos
que el elegido es el 40, entonces seleccionamos los nombres del directorio que
corresponden a los números 40, 140, 240, 340 y así sucesivamente.

3.- Muestreo aleatorio estratificado:


Trata de obviar las dificultades que presentan los anteriores ya que simplifican los procesos y
suelen reducir el error muestral para un tamaño dado de la muestra. Consiste en considerar
categorías típicas diferentes entre sí (estratos) que poseen gran homogeneidad respecto a
alguna característica (se puede estratificar, por ejemplo, según la profesión, el municipio de
residencia, el sexo, el estado civil, etc.).

Lo que se pretende con este tipo de muestreo es asegurarse de que todos los estratos de
interés estarán representados adecuadamente en la muestra. Cada estrato funciona
independientemente, pudiendo aplicarse dentro de ellos el muestreo aleatorio simple o el
estratificado para elegir los elementos concretos que formarán parte de la muestra. En
ocasiones las dificultades que plantean son demasiado grandes, pues exige un conocimiento
detallado de la población. (Tamaño geográfico, sexos, edades,...).

La distribución de la muestra en función de los diferentes estratos se denomina afijación, y


puede ser de diferentes tipos:

Afijación Simple: A cada estrato le corresponde igual número de elementos muéstrales.


Afijación Proporcional: La distribución se hace de acuerdo con el peso (tamaño) de la
población en cada estrato.
Afijación Óptima: Se tiene en cuenta la previsible dispersión de los resultados, de modo que
se considera la proporción y la desviación típica. Tiene poca aplicación ya que no se suele
conocer la desviación.

Ejemplo
Suponga que nos interesa obtener una muestra de las opiniones de los profesores de una
gran universidad. Puede ser difícil obtener una muestra con todos los profesores, así que
supongamos que elegimos una muestra aleatoria de cada colegio, o departamento
académico; los estratos vendrían a ser los colegios, o departamentos académicos.
4.- Muestreo aleatorio por conglomerados:
Los métodos presentados hasta ahora están pensados para seleccionar directamente los
elementos de la población, es decir, que las unidades muéstrales son los elementos de la
población.

En el muestreo por conglomerados la unidad muestral es un grupo de elementos de la


población que forman una unidad, a la que llamamos conglomerado. Las unidades
hospitalarias, los departamentos universitarios, una caja de determinado producto, etc., son
conglomerados naturales. En otras ocasiones se pueden utilizar conglomerados no naturales
como, por ejemplo, las urnas electorales. Cuando los conglomerados son áreas geográficas
suele hablarse de "muestreo por áreas".

El muestreo por conglomerados consiste en seleccionar aleatoriamente un cierto número de


conglomerados (el necesario para alcanzar el tamaño muestral establecido) y en investigar
después todos los elementos pertenecientes a los conglomerados elegidos.

Ejemplo
Suponga que una compañía de servicio de televisión por cable está pensando en abrir una
sucursal en una ciudad grande; la compañía planea realizar un estudio para determinar el
porcentaje de familias que utilizarían sus servicios, como no es práctico preguntar en cada
casa, la empresa decide seleccionar una parte de la ciudad al azar, la cual forma un
conglomerado.

En el muestreo por conglomerados, éstos se forman para representar, tan fielmente como
sea posible, a toda la población; entonces se usa una muestra aleatoria simple de
conglomerados para estudiarla. Los estudios de instituciones sociales como iglesias,
hospitales, escuelas y prisiones se realizan, generalmente, con base en el muestreo por
conglomerados

1.2.2. Métodos de muestreo no probabilísticos

A veces, para estudios exploratorios, el muestreo probabilístico resulta excesivamente


costoso y se acude a métodos no probabilísticos, aun siendo conscientes de que no sirven
para realizar generalizaciones (estimaciones inferenciales sobre la población), pues no se
tiene certeza de que la muestra extraída sea representativa, ya que no todos los sujetos de la
población tienen la misma probabilidad de ser elegidos. En general se seleccionan a los
sujetos siguiendo determinados criterios procurando, en la medida de lo posible, que la
muestra sea representativa.

En algunas circunstancias los métodos estadísticos y epidemiológicos permiten resolver los


problemas de representatividad aun en situaciones de muestreo no probabilístico, por
ejemplo los estudios de caso-control, donde los casos no son seleccionados aleatoriamente
de la población.

Entre los métodos de muestreo no probabilísticos más utilizados en investigación


encontramos:

1.- Muestreo por cuotas:


También denominado en ocasiones "accidental". Se asienta generalmente sobre la base de
un buen conocimiento de los estratos de la población y/o de los individuos más
"representativos" o "adecuados" para los fines de la investigación. Mantiene, por tanto,
semejanzas con el muestreo aleatorio estratificado, pero no tiene el carácter de aleatoriedad
de aquél.

En este tipo de muestreo se fijan unas "cuotas" que consisten en un número de individuos
que reúnen unas determinadas condiciones, por ejemplo: 20 individuos de 25 a 40 años, de
sexo femenino y residentes en Gijón. Una vez determinada la cuota se eligen los primeros
que se encuentren que cumplan esas características. Este método se utiliza mucho en las
encuestas de opinión.

2.- Muestreo intencional o de conveniencia:


Este tipo de muestreo se caracteriza por un esfuerzo deliberado de obtener muestras
"representativas" mediante la inclusión en la muestra de grupos supuestamente típicos. Es
muy frecuente su utilización en sondeos preelectorales de zonas que en anteriores
votaciones han marcado tendencias de voto.

También puede ser que el investigador seleccione directa e intencionadamente los individuos
de la población. El caso más frecuente de este procedimiento el utilizar como muestra los
individuos a los que se tiene fácil acceso (los profesores de universidad emplean con mucha
frecuencia a sus propios alumnos).

3.- Bola de nieve:


Se localiza a algunos individuos, los cuales conducen a otros, y estos a otros, y así hasta
conseguir una muestra suficiente. Este tipo se emplea muy frecuentemente cuando se hacen
estudios con poblaciones "marginales", delincuentes, sectas, determinados tipos de
enfermos, etc.

4.- Muestreo Discrecional ·


A criterio del investigador los elementos son elegidos sobre lo que él cree que pueden
aportar al estudio

2. DISTRIBUCIONES MUESTRALES

Las muestras aleatorias obtenidas de una población son, por naturaleza propia,
impredecibles. No se esperaría que dos muestras aleatorias del mismo tamaño y tomadas de
la misma población tenga la misma media muestral o que sean completamente parecidas;
puede esperarse que cualquier estadístico, como la media muestral, calculado a partir de las
medias en una muestra aleatoria, cambie su valor de una muestra a otra, por ello, se quiere
estudiar la distribución de todos los valores posibles de un estadístico. Tales distribuciones
serán muy importantes en el estudio de la estadística inferencial, porque las inferencias
sobre las poblaciones se harán usando estadísticas muéstrales.

Con el análisis de las distribuciones asociadas con los estadísticos muéstrales, podremos
juzgar la confiabilidad de un estadístico muestral como un instrumento para hacer inferencias
sobre un parámetro poblacional desconocido.
Como los valores de un estadístico, tal como la media, varían de una muestra aleatoria a
otra, se le puede considerar como una variable aleatoria con su correspondiente distribución
de frecuencias.

La distribución de frecuencia de un estadístico muestral se denomina distribución muestral.


En general, la distribución muestral de un estadístico es la de todos sus valores posibles
calculados a partir de muestras del mismo tamaño.

2.1. DISTRIBUCION MUESTRAL DE LA MEDIA

Hay que recordar que en la distribución normal, la variable estandarizada permitía calcular la
probabilidad de un evento, dada una variable aleatoria mediante:

Cuando se extraen muestras de tamaño mayor a 30 o bien de cualquier tamaño de una


población normal, la distribución muestral de medias tiene un comportamiento
aproximadamente normal, por lo que se puede utilizar la fórmula de la distribución normal

con , entonces la fórmula para calcular la probabilidad del


comportamiento del estadístico, en este caso la media de la muestra,
Veamos cómo es que resulta el error estándar
y para poblaciones finitas y muestreo con reemplazo

Ejemplo
Una empresa eléctrica fabrica 1000 focos diarios que tienen una duración que se distribuye
aproximadamente en forma normal, con media de 900 horas y desviación estándar de 50
horas. Encuentre la probabilidad de que una muestra aleatoria de 20 focos tenga una vida
promedio de:

a) Menos de 890 horas


b) Más de 920 horas
c) Entre 850 y 950 horas

Solución:

Identificamos los elementos

N= 1000
µ=900
n= 20
σ= 50

Al estandarizar

Por lo tanto:

Que en la tabla de la distribución normal

Con lo que se puede concluir que hay una probabilidad del 19% de que en muestras de
tamaño 20, el promedio de la muestra sea menor de 890 horas. En otras palabras, si se
toman 100 muestras de tamaño 20 en 19 de estas muestras, el promedio será menor de 890
horas

b)

N= 1000
µ=900
n= 20
σ= 50

C)

N= 1000
µ=900
n= 20
σ= 50
Distribucion muestral de la proporcion
3. Distribucion muestral de la varianza

También podría gustarte