Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Curso: 2P
PROBABILIDAD Y
ESTADÍSTICA
Matemáticas para maestros
Índice
1. PROBABILIDAD………………………………………………………………………………………….………2
1.1. HISTORIA………………………………………………………………………………………….……2
1.2. CONCEPTOS DE PROBABILIDAD…………………………………….………………….……3
1.3. TIPOS DE PROBABILIDAD………………………………………………………………….……4
1.4. TIPOS DE SUCESOS………………………………………………………………….…………….5
1.5. LEY DE LAPLACE, SUCESO CONTRARIO……………………………………….………….6
1.6. OPERACIONES CON SUCESOS……………………………………………….……………….6
1.7. CONCEPTO DE PROBABILIDAD CONDICIONADA……………………….……………9
1.8. CRITERIO DE INDEPENDENCIA DE SUCESOS…………………………………………10
1.9. DIAGRAMA DE ÁRBOL………………………………………………………………….………10
1.10. TEOREMA DE BAYES…………………………………………………………………………….12
2. ESTADÍSTICA……………………………………………………………………………………………………13
2.1. INTRODUCCIÓN E HISTORIA…………………………………………………………………13
2.2. TIPOS DE VARIABLES ESTADÍSTICAS…………………………………………………..…14
2.3. OTROS TIPOS DE VARIABLES……………………………………..…………………………16
2.4. CONCEPTOS BÁSICOS…………………………………………………………………………..18
2.5. MEDIDAS DE CENTRALIZACIÓN……………………………………………………………19
2.6. VARIANZA……………………………………………………………………………………………22
2.7. DESVIACIÓN TÍPICA O ESTÁNDAR…………………………………………………………24
1
PROBABILIDAD
HISTORIA
CONCEPTOS DE PROBABILIDAD
La idea de probabilidad es uno de esos conceptos que cualquier ser humano tiene
preaprendido. Todos tenemos conocimiento intuitivo de lo que supone que una cosa sea
muy difícil que ocurra (acertar en la lotería) o de algo que sea más fácil que ocurra (lanzar
una moneda y que salga cara). Otra cosa es la definición matemática. Desde el punto de
vista formal, el concepto de probabilidad se puede abordar desde tres puntos de vista
diferentes.
4.1 Definición de Bernoulli
La probabilidad de un suceso A de un experimento aleatorio se puede definir como el
número al que se aproximan las frecuencias relativas de dicho suceso cuando el
experimento se repite un número indefinido de veces.
3
4.2. Definición de Laplace
Si un espacio muestral consta de un número finito de sucesos simples y todos ellos
tienen la misma posibilidad de suceder (equiprobables). Se define la probabilidad de
cualquier suceso A como:
TIPOS DE PROBABILIDAD
4
• De la unión: Es la probabilidad de que se produzca alguno de los sucesos de dos
espacios muestrales diferentes.
• De la intersección: Se trata de la probabilidad de que se produzca alguno de los
sucesos que tienen en común dos espacios muestrales diferentes.
• Frecuencial: Consiste en dividir el número de resultados favorables entre el
número de veces que se ha realizado un experimento aleatorio.
• Lógica: Se basa en asignar probabilidades en función de la lógica y la evidencia
de que se produzca un determinado suceso.
• Geométrica: Cuantifica la probabilidad de que el resultado de un suceso
aleatorio se encuentre dentro del espacio muestral.
• Hipergeométrica: Es la probabilidad de que suceda un suceso sin reemplazar
ninguno de sus elementos.
• Objetiva: Es la probabilidad que se ha obtenido en base a un experimento que la
acredite.
• Subjetiva: Esta probabilidad tiene mucha relación con la probabilidad lógica
mencionada anteriormente. Extrae el valor de la probabilidad través de
experiencias personales o creencias.
• Poisson: Esta probabilidad se calcula en base al espacio y al tiempo.
• Binomial: Muestra la probabilidad tras estudiar el número de éxitos una
secuencia de ensayos independientes entre sí.
TIPOS DE SUCESOS
5
Suceso imposible
El suceso imposible es aquél que no ocurre nunca. Se expresa con el símbolo Ø. Por
ejemplo, obtener un ocho al tirar un dado cúbico.
Suceso contrario o complementario de otro suceso
Se define el suceso contrario a A como el suceso que acontece cuando no ocurre A. EL
suceso contrario a obtener un número par es obtener uno impar. Suele denotarse
como:
6
de todos los sucesos asociados a cualquier espacio muestral, fundamentalmente dos
operaciones que dotarán a dicho conjunto de una sólida estructura matemática
importante conocida con el nombre de Álgebra de Boole.
Unión de sucesos
Imaginemos que María y Luis celebran su cumpleaños el mismo día. María ha decidido
invitar a sus amigos y Luis a los suyos. Cotejando las respectivas listas de invitados
observaron que alguno de ellos estaba invitado a ambas fiestas. ¿A cuál de ellas
asistirían? Este problema puede resultar embarazoso hasta que a ambos cumpleañeros
se les ocurre la solución mágica. ¿Y si UNIMOS ambas fiestas y la celebramos juntos?
El suceso unión de A y B es el suceso que ocurre cuando ocurre A, ocurre B u ocurren
ambos. Está formado por todos los elementos de A y todos los de B. Lo indicamos así:
Intersección de sucesos
A Juan le gusta el fútbol, el baloncesto, las películas de aventuras, la música clásica y los
documentales de viajes. A su amiga Irene le van las películas románticas, el tenis, la
música disco y los documentales de viajes. ¡Qué pocas cosas tenemos en común!
exclamó Irene. Sin embargo, podríamos quedar para ver algún documental de viajes.
Efectivamente es algo que ambos adoramos. Es nuestra INTERSECCIÓN agregó Juan.
El suceso intersección de A y B, es el suceso que ocurre cuando ocurre A y ocurre B. Está
formado por los resultados comunes a los sucesos A y B. Lo indicamos así:
7
Resta de sucesos
El lunes Manuel salió con sus amigos Miguel, Pablo, María, Laura y Sofía y se le ocurrió
contar una ocurrencia muy graciosa que le paso en su último viaje. Fue muy divertido y
a todos les entusiasmó. El jueves siguiente Manuel volvió a salir con otro grupo de
amigos entre los que también estaban Laura y Sofía. Manuel volvió a contar la misma
anécdota, pero antes se disculpó con Laura y Sofía diciéndoles que por favor no contaran
el final. Por supuesto que al RESTO del grupo les resultó igual de divertida.
En realidad, no se trata de una nueva operación ya que se define a partir de las dos
operaciones anteriores. Sin embargo, dada la gran asiduidad y el carácter
fundamentalmente práctico con el que aparece en muchas situaciones merece la pena
que hablemos de ella en un apartado propio. La diferencia de dos sucesos (A-B) es el
suceso que ocurre cuando ocurren los elementos de A que no están en B.
Representamos la resta de sucesos como:
En relación con las operaciones unión e intersección surgen también dos importantes
tipos de sucesos.
8
Cuando se verifica que la intersección es vacía; (= Ø), se dice que los sucesos A y B son
dos sucesos incompatibles.
Cuando se verifica que la intersección es distinta del vacío; (≠ Ø), se dice que los sucesos
A y B son dos sucesos compatibles.
9
CRITERIO DE INDEPENDENCIA DE SUCESOS
Imagina que vamos a sacar dos cartas de una baraja. Realizamos el experimento sacando
en primer lugar una de las cartas, anotamos su valor, la devolvemos a la baraja,
mezclamos bien y extraemos la segunda carta. ¿Influye lo que ocurrió en la primera
extracción en lo que ocurrirá en la segunda?.
En muchas situaciones en la que la probabilidad aparece ligada a sucesos compuestos,
la ocurrencia de un suceso no influye en nada en la ocurrencia o no del otro. Por así
decirlo, no existe nada adicional que modifique las posibilidades de ocurrencia del
segundo suceso cuando se sabe que ha ocurrido el primero; esto es si el primero no
hubiera ocurrido, las posibilidades del segundo seguirían siendo exactamente las
mismas. En estos casos, se habla de Independencia de los sucesos.
Cuando se cumpla que p(B/A) coincida con p(B) se dice que los sucesos A y B son
independientes. En este caso la probabilidad de la intersección obtenida en el epígrafe
anterior quedaría simplemente como el producto de las probabilidades de cada suceso.
DIAGRAMA DE ÁRBOL
10
Hay que tener en cuenta que la construcción de un árbol no depende de tener el mismo
número de ramas de segunda generación que salen de cada rama de primera generación
y que la suma de probabilidades de las ramas de cada nudo ha de dar 1.
Existe un principio sencillo de los diagramas de árbol que hace que éstos sean mucho
más útiles para los cálculos rápidos de probabilidad: multiplicamos las probabilidades si
se trata de ramas adyacentes (contiguas), el ejemplo de alumna de la primera facultad,
o bien las sumamos si se trata de ramas separadas que emergen de un mismo punto, el
ejemplo de encontrar un alumno.
Ejemplos
Una universidad está formada por tres facultades:
11
¿Probabilidad de encontrar un alumno varón?
TEOREMA DE BAYES
12
probabilidad de forma inversa al teorema de la probabilidad total. El teorema de la
probabilidad total hace inferencia sobre un suceso B, a partir de los resultados de los
sucesos A. Por su parte, Bayes calcula la probabilidad de A condicionado a B.
Donde B es el suceso sobre el que tenemos información previa y A(n) son los distintos
sucesos condicionados. En la parte del numerador tenemos la probabilidad
condicionada, y en la parte de abajo la probabilidad total. En cualquier caso, aunque la
fórmula parezca un poco abstracta, es muy sencilla. Para demostrarlo, utilizaremos un
ejemplo en el que en lugar de A(1), A(2) y A(3), utilizaremos directamente A, B y C.
ESTADÍSTICA
INTRODUCCIÓN E HISTORIA
13
economía, pero eso no las hace ser parte de las matemáticas. Es cierto que tienen una
relación estrecha, pero la estadística y las matemáticas son disciplinas diferentes.
Una de las características fundamentales de la estadística es su transversalidad. Su
metodología es aplicable al estudio de diversas disciplinas tales como: biología, física,
economía, sociología, etc. La estadística ayuda a obtener conclusiones relevantes para
el estudio de todo tipo de agentes como: humanos, animales, plantas, etc.
Generalmente lo hace a través de muestras estadísticas.
La historia de la estadística data desde antes del 3.000 antes de Cristo. Nace con el
objetivo de recolectar información que necesitaba el Estado, por ejemplo, sobre la
agricultura y el comercio.
En la antigua Asiria y en Egipto se tiene evidencia de la recolección de datos estadísticos.
Asimismo, en Roma se recogían datos demográficos de los habitantes del imperio, como
aquellos de natalidad y mortalidad. Esto, con el propósito de tomar mejores decisiones
desde el gobierno.
Posteriormente, durante la Edad Media, la estadística no tuvo grandes avances. Sin
embargo, en la Edad Moderna se elaboraría el primer censo estadístico moderno y la
primera tabla de probabilidades de edades, ambos sucesos en el siglo XVII. Luego, hacia
el siglo XX, se comenzaron a incorporar herramientas matemáticas provenientes de la
teoría de la probabilidad a la estadística. Esto, principalmente por los aportes de
Kolmogorov y Borel.
14
A continuación, se explica cada tipo de variable estadística más detalladamente y se
muestran ejemplos de cada uno.
Variable cualitativa
Una variable cualitativa (o variable categórica) es un tipo de variable cuyos valores son
cualidades, características o categorías y, por lo tanto, no admite valores numéricos.
A la vez, las variables cualitativas se dividen en dos subtipos: las variables cualitativas
ordinales, las cuales se pueden ordenar según algún criterio, y las variables cualitativas
nominales, que no se pueden ordenar jerárquicamente.
Ejemplos de variables cualitativas ordinales:
• Las medallas olímpicas: un atleta ganará la medalla de «oro», «plata o
«bronce» según su clasificación.
• El grupo sanguíneo de una persona: hay cuatro opciones posibles que son
«Grupo A», «Grupo B», «Grupo AB» o «Grupo 0».
15
Variables cuantitativas
Una variable cuantitativa (o variable numérica) es un tipo de variable que solo admite
valores numéricos, es decir, el valor de una variable cuantitativa siempre será un
número.
Existen dos subtipos de variables cuantitativas: las variables cuantitativas discretas, que
son variables que no pueden tomar algunos valores, y las variables cuantitativas
continuas, las cuales pueden tomar cualquier valor numérico.
Ejemplos de variables cuantitativas discretas:
• El peso de un grupo de personas: 74,5 kg, 58,14 kg, 62,39 kg, 83,92 kg…
• La temperatura de una habitación: 25 ºC, 19,50 ºC, 12,83 ºC, 17,52 ºC,
29,4 ºC…
• El tiempo que tarda un atleta en recorrer los 100 m lisos: 9,81 s, 10,02 s,
9,52 s, 9,74 s, 11,25 s…
• La distancia entre dos localidades: 45 km, 0,82 km, 634 km, 35,87 km,
23,548 km…
Normalmente, en estadística las variables se clasifican según los tipos que hemos visto
arriba. Sin embargo, también existen otras maneras de clasificar los diferentes tipos de
variables estadísticas, tal y como veremos a continuación.
16
Según su relación con otras variables
En un estudio estadístico, las variables se pueden clasificar según la relación que tengan
entre sí:
• Variable dependiente: variable cuyo valor depende del valor que tome
otra variable (la variable independiente).
Según su escala
Según cuál sea el cero absoluto de la escala que representa una variable numérica, se
pueden distinguir dos tipos:
17
• Variable dicotómica: la variable puede tomar tres o más valores. Por
ejemplo: la profesión de una persona (camarero/a, doctor/a,
traductor/a…).
CONCEPTOS BÁSICOS
MEDIDAS DE CENTRALIZACIÓN
19
Media aritmética
Es la medida de tendencia central que se utiliza más a menudo. Suele representarse por
y se calcula sumando todas las observaciones de un conjunto de datos y dividiendo
entre el total de las mediciones, esto es:
La media presenta algunos inconvenientes de los cuales, los más relevantes son los que
se comentan a continuación:
• Es muy sensible a los valores extremos de la variable, ya que todas las observaciones
intervienen en el cálculo de la media, la aparición de una observación extrema hará que
la media se desplace en esa dirección. En consecuencia, no es recomendable usar la
media como medida central en las distribuciones muy asimétricas.
• Si consideramos una variable discreta, por ejemplo, el número de hijos en las familias
españolas el valor de la media puede no pertenecer al conjunto de valores de la variable.
Por ejemplo, = 1,2 hijos.
Medias generalizadas
20
Mediana
Si ordenamos de menor a mayor las observaciones de una variable discreta, llamaremos
mediana, y la denotaremos por Me, al primer valor de la variable que deja por debajo
de sí al 50% de las observaciones. La mediana se define como el percentil 50 de un
conjunto de mediciones. Si el número de datos, N, que tiene un conjunto es impar, la
mediana es el valor de la observación que está en medio de la lista ordenada, es decir,
el dato que ocupa la posición
Si N es par, la mediana, normalmente, se toma como el promedio de los dos valores
centrales, es decir, el punto medio de los datos que ocupan las posiciones
En el caso de variables continuas, las clases vienen dadas por intervalos, y aquí la fórmula
de la mediana se complica un poco más. Sea el intervalo donde hemos
encontrado que por debajo están el 50% de las observaciones y que llamaremos
intervalo mediano. Para encontrarlo basta dividir N entre 2 y buscar el primer intervalo
de la tabla cuya frecuencia absoluta acumulada iguale o supere el valor resultante, ese
será el intervalo mediano. Entonces se obtiene la mediana mediante interpolación lineal
según la fórmula:
Esto equivale a decir que la mediana divide al histograma en dos partes de áreas iguales.
Entre las ventajas de la mediana como medida descriptiva se cuentan:
Moda
Es el máximo de la función de distribución. Es decir, es el valor que más se repite, el más
frecuente. Puede no ser única, esto es, podemos tener distribuciones con unimodales
(una moda), bimodales (dos modas), trimodales (tres modas), etcétera. La moda o
modas, caso de no ser única, la denotaremos por Mo. Cuando se trata de datos
agrupados en intervalos, llamaremos intervalo modal al que contenga la mayor cantidad
de datos, es decir al de mayor frecuencia absoluta, y tomaremos su marca de clase como
la moda de la distribución.
21
Relación entre Media, Mediana y Moda
La mejor medida de tendencia central de un conjunto de datos a menudo depende de la
forma en que se distribuyan los valores. Si son simétricos y unimodales (su histograma
sólo tiene un pico), la media, la mediana y la moda deberían tener valores muy
parecidos. Si la distribución es simétrica pero bimodal (dos picos) la media y la mediana
tendrían valores parecidos, pero no tendría por qué ser así con la moda, que podría
registrar dos valores. Cuando los datos no son simétricos, la mediana es a menudo la
mejor medida de tendencia central. Debido a que la media es sensible a las
observaciones extremas, se carga en dirección de los datos alejados del centro y, como
consecuencia, podría obtener un valor excesivamente grande o pequeño. Cuando los
datos están sesgados a la derecha, la media se sitúa a la derecha de la mediana, y si están
sesgados a la izquierda, entonces se localiza a la izquierda de la mediana. Muestras con
la misma media, mediana y moda pueden ser en realidad muy diferentes.
VARIANZA
Del mismo modo que para la media, no siempre será posible encontrar la varianza, y es
un parámetro muy sensible a las puntuaciones extremas. Se puede observar que al estar
la desviación elevada al cuadrado, la varianza no puede tener las mismas unidades que
los datos.
22
Comparando con el mismo tipo de datos, una varianza elevada significa que los datos
están más dispersos. Mientras que un valor de la varianza bajo indica que los valores
están por lo general más próximos a la media.
Un valor de la varianza igual a cero implica que todos los valores son iguales, y por lo
tanto también coinciden con la media aritmética.
Propiedades de la varianza
23
• En la distribución normal, la varianza (su raíz cuadrada, la desviación típica)
es uno de los parámetros. La campana de Gauss tiende a ser más alta y
estrecha a medida que la varianza disminuye.
• En modelos de regresión, hablamos de homocedasticidad cuando la varianza
del error es constante a lo largo de sus observaciones. Por ejemplo, en una
regresión simple, vemos una nube de puntos en la que la dispersión de los
puntos alrededor de la recta o curva estimada se mantiene constante.
• El análisis de la varianza (ANOVA) permite comparar diferentes grupos y ver
los factores que influyen en ellos.
• La desigualdad de Chebyshev nos permite acotar en qué medida es probable
que una variable aleatoria se separe de su esperanza matemática en
proporción a su desviación típica (raíz cuadrada de la varianza).
24
Propiedades de la desviación típica
25
3. Comprender el rendimiento de los anuncios.
Los profesionales del marketing suelen calcular la desviación estándar de los ingresos
obtenidos por cada anuncio para saber qué variación cabe esperar en los ingresos de un
anuncio determinado.
En este ámbito, también se puede calcular la desviación del número de anuncios
utilizados por los competidores para comprender si éstos utilizan más o menos anuncios
de lo normal durante un período determinado.
4. Uso en recursos humanos
Parte del papel del directivo de recursos humanos es calcular la desviación estándar de
los salarios en un campo determinado para saber qué tipo de variación salarial deben
ofrecer a los nuevos empleados.
Ejemplo
Supóngase que toda la población estudiada son ocho alumnos determinados de una
clase en particular. Para un conjunto discreto de datos, la desviación estándar de la
población se determina calculando la raíz cuadrada de la media de las desviaciones de
los valores restados de su valor promedio, elevadas al cuadrado. Las calificaciones de la
clase de ocho estudiantes (es decir, de la población estadística completa) son los
siguientes ocho valores:
2, 4, 4, 4, 5, 5, 7, 9.
Estos ocho datos tienen una media (promedio) de 5:
En primer lugar, se calculan las desviaciones de cada dato respecto a la media, y se eleva
al cuadrado el resultado de cada una:
26
y la desviación estándar de la población es igual a la raíz cuadrada de la varianza:
Esta fórmula es válida solo si los ocho valores con los que se trabaja forman la población
completa. Si los valores, en cambio, fueran una muestra aleatoria extraída de una gran
población de alumnos (por ejemplo, fueron 8 calificaciones elegidas al azar e
independientemente de un censo de 2 millones de alumnos), entonces el resultado se
obtendría dividiendo por 7 (que es N − 1) en lugar de por 8 (que es N) en el
denominador de la última fórmula. En ese caso, el resultado de la fórmula original se
denominaría la desviación estándar de la muestra. Dividir por N - 1 en lugar de por N da
una estimación imparcial de la varianza de una población más grande. Esta modificación
se conoce como corrección de Bessel.
27