Está en la página 1de 211

PROBABILIDAD

COMPLETA Y
FORMULA DE
BAYES
La probabilidad de un evento A que puede ocurrir solo al aparecer uno de
los eventos mutuamente excluyentes B1, B2, B3, ….;Bn tales que su unión
es el espacio muestral esta dado por

P(A)= σ𝑛𝑖=1 𝑃 𝐵𝑖 𝑃(𝐴/𝐵𝑖)

Donde P(B1) + P(B2) +P(B3)+ . . . +(Bn) = 1


Supongamos que el evento A pueda ocurrir a condición de que aparezca uno
de los eventos B1, B2, B3, ….,Bn. Si A ya ocurrió ( condicional ) del evento Bk
es igual a:

Fórmula de Bayes
EJEMPLO
Diagrama de árbol para la deducción de la formula de Bayes
PRUEBAS DE HIPOTESIS
La teoría de las prueba de hipótesis sobre parámetros poblacionales fue
desarrollada en los primeros años del siglo XX y sistematizada por Fisher,
Person y Neyman. Estos últimos lo formalizaron
Supongamos que un investigador desea
investigar que actualmente , el ingreso mensual de los
ecuatorianos es mayor que el ingreso mensual que
tenían 5 años atras. Para verificarlo recolectamos una
los datos mediante una muestra tomada al azar.
El investigador podria desear comprobarla hipótesis de
manera que el aumento del ingreso es mayor que un
cierto valor prefijado. Un intervalo de confianza de la
variación media del ingreso proporcionará menor
información que una prueba de hipótesis sobre la
variación del ingreso.
Las hipótesis, en general, son afirmaciones sobre los
parámetros poblacionales, como la media y la
varianza, así, se pudiera desear probar que el
ingreso medio actual no es diferente de aquel
que los ecuatorianos tenían hace 5 años.
Una hipótesis también puede ser una afirmación
sobre la distribución de una característica de
interés :
Ejemplo que el ingreso mensual sigue una
distribución normal
Decisiones estadísticas

Muy a menudo en la practica nosotros debemos


tomar decisiones sobre población, con base en la
información que nos da la muestra. Tales decisiones
se conoce como decisiones estadísticas
Ejemplo :Podemos querer decider a partir de datos
muestrales si una vacuna nueva es realmente
efectiva, para curar una enfermedad , si un
procedimiento educativo es mejor que otro etc.
Elementos de una prueba de
hipótesis

Hipótesis Nula Ho
Hipótesis alternativa H1
Estadístico de Prueba
Región de rechazo
Decisión
Hipótesis estadística nula Ho
Con el fin de llegar a una decisión es útil hacer
suposiciones o conjeturas sobre las poblaciones
involucradas. Tales suposiciones, que pueden ser
o no ciertas reciben el nombre de hipótesis
estadística, y en general en planteamientos sobre
la distribución de probabilidad de poblaciones. Es
decir “ es cualquier hipótesis que se desea
comprobar”
Su simbología es
Ejemplo: Si vamos a decidir que cierta moneda
está cargada, formulamos la hipótesis que la
moneda es balanceada, es decir p = 0,5, donde p
es la probabilidad de obtener caras. De igual
manera si queremos, decidir si un procedimiento es
mejor que otro, formulamos la hipótesis de que no
hay diferencia entre los procedimientos. Tales
hipótesis se llaman hipótesis nula o simplemente
hipótesis .
Cualquier hipótesis que difiera de la hipótesis nula
dada se llama hipótesis alternativa
Ejemplo: si la hipótesis nula es p= 0.5
La hipótesis alternativa posibles p= 0,7 ,p≠ 0,5 o
p>0,5 y la denotamos como H1
Ho : p=0,5
H1 : p<0,5
p>0,5
p ≠ 0,5
Hipótesis alternativa H1

Es la hipótesis que especifica aquellos valores del


parámetro que representan un cambio
importante del procedimiento normal o de las
especificaciones conocidas a eso lo llamamos
hipótesis alternativa lo simbolizamos como H1
Estadístico de prueba

La cantidad calculada a partir de una muestra,


que permite decidir si la hipótesis nula será o no
será rechazada se la denomina estadístico de
prueba La distribución de probabilidad del
mencionado estadístico debe ser conocida para
poder realizar la prueba
Región de Rechazo

Es el conjunto de valores del estadístico de


prueba que conduce al rechazo de la hipótesis
nula, en favor de la hipótesis alternativa, se llama
región de rechazo o región crítica de la prueba
Decisión

Consiste en rechazar la hipótesis nula en favor de


la alternativa , si el valor del estadístico de prueba
cae en la región de rechazo; caso contrario no se
descarta Ho
Errores de tipo I y de tipo II
Al tomar una decisión se puede cometer dos tipos de
errores; rechazar la hipótesis nula cuando es
verdadera, lo que se llama error de tipo I. La
probabilidad de cometer este error se denota
; o bien, no rechazar la hipótesis nula cuando en
realidad es falsa, lo que se denomina Error de tipo II.
La probabilidad de cometer este error se denota β
DECISIÓN HIPOTESIS NULA

Verdadera Falsa

Rechazar Ho Error tipo I Desición correcta

No Rechazar Ho Desición correcta Error tipo I I


Niveles de significación
La cantidad calculada a partir de una muestra, que
permite decidir si la hipótesis nula será o no será
rechazada se la denomina estadístico de prueba La
distribución de probabilidad del mencionado
estadístico debe ser conocida para poder realizar la
prueba.
Generalmente la pruebas de hipótesis se realizan
con niveles de significancia de 5% o el 1 %
Ejemplos

Podríamos comparar el rendimiento de dos tipos de


llantas y saber entonces por ejemplo si existe
diferencia en los promedios en las distancias de
frenado.
Podríamos comparar los métodos de soldadura y si
se quiere saber que el promedio si el primero o el
segundo en cuanto a la resistencia es distinta.
Podríamos comparar la productividad con dos
tipos de software entre promedios de producción.
Podríamos comparar los métodos de
enseñanza si el desempeño de los estudiantes
en la medición del aprendizaje de alguna
manera es diferente.
Podríamos comparar las condiciones socio
económicas de dos poblaciones distintas

Podríamos comparar la efectividad de un plan de


seguridad ocupacional y compara el antes versus
después si hay menos accidentes que antes o menos
eventos que antes
Una empresa fabrica focos que tienen una vida útil de 800 horas, con
desviación estándar de 40 horas. Al tomar una muestra de 40 focos estos
tienen una duración promedio de 788 horas. Determinar a un nivel de
confianza del 5% si la media poblacional de estos focos es
efectivamente de 800 horas
Planteamiento: se desea probar que la media verdadera es 800 horas

Como en la muestra la media es 788 menor que 800 la hipótesis


alternativa lógica es

En resumen se tiene que las hipótesis son


A este valor lo llamaremos “Z calculada”
Se tiene que n>30 y σconocido, n= 40 y σ= 40 horas por lo que Z calculamos es:
= (788 – 800)/(40 / )= - 1,897
REGLAS BASICAS DE
LA PROBABILIDAD
REGLAS
BASICAS DE LA
PROBABILIDAD

Regla de la Suma o Regla de la


Adición multiplicación

Especial General Especial General


Regla especial de la Suma o Adición
Para poder aplicar esta regla los eventos tiene que ser mutuamente excluyentes.
Si dos eventos A y B son mutuamente excluyentes, la regla especial de la adición
indica que la probabilidad de que ocurra uno u otro de los eventos es igual a la suma
de sus Probabilidades
Pr(AᴜB) = Pr(A o B) = Pr(A) + Pr (B)
Pr(AᴜBᴜC ) = Pr(A o B o C) = Pr(A) + Pr (B) +Pr (C)
Regla General de la Suma o Adición
Para poder aplicar a diferencia de la regla especial, esta se requiere que los eventos no
sean mutuamente excluyentes
PROBABILIDAD CONJUNTA
No es más que la probabilidad que mide la posibilidad de que dos o más eventos
ocurran en forma simultanea (eventos se traslapan)
Pr(AᴜB) = Pr(A) + Pr (B) – Pr (A∩B)
EJEMPLO
• Un inspector de una empresa que produce filetes de carne envasados al vacío en bandejas, debe revisar
con su detector de metales y hacer una inspección meticulosa de cada bandeja antes de entregarla, otra
inspectora se ha dado cuenta que de cada 1000 bandejas que revisa, 10 tienen partículas metálicas de
tamaño mayor a 2 m m, 8 tienen partículas metálicas con tamaño de 1,9 y 1 mm y cinco
bandejas tienen ambos tipos de defectos. En su informe trimestral esta inspectora debe incluir la
probabilidad de que haya defectos en las bandejas con carne ? Cuál es esa Probabilidad?
A= partículas metálicas de tamaño mayor a 2 mm ( 10) Pr(A) = 10/1000
B= partículas metálicas de tamaños a 1,9 y 1 m m (8) Pr( B) = 8/1000
C= 5 bandejas que tienen ambos defectos Pr(A∩ B) = 5/1000
Pr(AᴜB) = Pr(A) + Pr (B) – Pr (A∩B)
Pr(bandejas)= 10/1000 +8/1000 -5/1000 = 13/1000= 0,013
Equivale a 1.3 % de posibilidad que las bandejas se encuentren con estos tipos de defectos
Regla especial de la Multiplicación
A fin de completar la explicación acerca de la probabilidad condicional o de eventos
dependientes, primero nos referiremos a la probabilidad bajo condiciones de
independencia estadística.
Para dos eventos independientes, A y B la probabilidad conjunta se da de acuerdo
a la siguiente formula.
Pr(A∩B) = Pr(A y B) = Pr(A) * Pr (B)
Pr(A ∩ B ∩ C ) = Pr(A y B y C) = Pr(A) * Pr (B) *Pr (C)
Regla General de la Multiplicación
Para poder aplicar esta regla los eventos tienen que ser dependientes es decir que la
presentación de uno de ellos afecte la presentación de cualquier otro evento, es decir
la probabilidad de ocurrencia del segundo evento estará condicionada por lo que
ocurrió con el primero.
PROBABILIDAD CONDICIONAL
Es la probabilidad de que ocurra un evento particular, dado que otro evento ha
ocurrido
Pr(A/B)= Probabilidad de que suceda el evento A dado que
ya se presentó el evento B
Pr(A∩B)= La probabilidad conjunta de que los eventos A y
B se presentan al mismo tiempo
Pr(B)= Probabilidad de que presente el evento B
EJEMPLO
En un estudio Sociológico sobre la fidelidad en la unión libre se obtuvo el siguiente
modelo probabilístico, calificando al hombre y a la mujer como fiel (F) o infiel (I)
Hombres Mujeres

F I
F 0.22 0.24

I 0.31 0.23

A) ¿Cuál es la probabilidad condicional de que el hombre sea fiel, dado que su mujer
es fiel?
B)¿Cuál es la probabilidad de que la mujer sea fiel, dado que el hombre es infiel?
EJERCICIO

Se extrae con reemplazo dos bolas, al azar de una caja que contiene 10 rojas, 30 blancas, 20
azules y 15 naranjas
a) Ambas sean blancas
b) La primera sea roja y la segunda blanca
c) Ninguna sea naranja
d) Las dos sean rojas o blancas o de ambos colores
a)Pr(blanca) ∩ pr(blanca) =( 30/75) * (30/75)=4/25=0.16
16% de posibilidad en las dos sacadas que nos de una de color blanco
Sin reemplazo =(30/75) *(29/74)=0.156
b) Pr(roja) ∩ pr(blanca) = (10/75) *(30/75)= 0.05
5% de posibilidad en las dos sacadas que nos de una de color rojo
c) 10 rojas + 30 blancas + 20 azules =60
Pr(no se naranja) ∩ pr(no sea naranja)= (60/75) *(60/75) = 0.64
64% de posibilidad en las dos sacadas que nos de una de color no sea naranja
d) Pr(roja) ∩ pr(roja)= (10/75) *(10/75) =0.017
Pr(blanca) ∩ pr(blanca) =( 30/75) * (30/75)=4/25=0.16
Pr(roja) ∩ pr(blanca) = (10/75) *(30/75)= 0.05
Pr(blanca) ∩ pr(roja)= 0.05
Pr (rojas o blanca o ambos colores)= 0.017+0.16+0.05+0.05=0.277
27% de posibilidad en las dos sacadas que nos de una de color
REPRESENTACIÓN DE
DATOS
Entre las maneras más fáciles de entender y conocer el
comportamiento de un conjunto de datos es representando
gráficamente, ya que nos permite dar una descripción rápida
y fácil de entender.
Diagrama de punto
Es una forma de resumir datos cuantitativos en la que cada
observación o frecuencia es representada mediante un punto
sobre una recta numérica. En el caso que se disponga de
muchos datos, cada punto representaría un número fijo de
individuos.
En este diagrama podemos apreciar:
• Localización general de las observaciones

• Dispersión de las observaciones

• Presencia de valores inusuales o valores atípicos.

La forma de Construcción
• Primero se tiene que escoger una buena escala para que se a
comprensiva para la observación

• Se lo dibuja los puntos en una línea recta en orden de menor a mayor


• Se lo puede combinar dos o más conjunto de datos sobre un mismo
gráfico (

• Para eso se puede hacer uso de caracteres especiales o figuras o


también puede escoger colores diferentes
En este caso estamos comparando dos conjuntos y
estamos usando colores para identificar el un
conjunto de datos, y el otro conjunto y estamos
usando el punto
Ejemplo:
Para este tipo de representación de datos se aconseja hasta
un máximo de 20 a 25 observaciones individuales, ya que si
tenemos muchos más datos será difícil distinguirse entre
ellos

Ejemplo:
VALOR ATIPICO O VALOR INUSUAL
Estos datos se llaman atípicos o valores inusuales cuando en un conjunto
de datos tiene un dato u observación que se aleja en valor del resto de
datos es decir puede ser un valor inusualmente grande o inusualmente
pequeño
El valor atípico puede ser resultado de un error en una
medición en cuyo caso distorsionaría la interpretación de los
datos e influenciaría sobre el cálculo en los resultados a
partir de la muestra.

Por esta razón todos los valores atípicos deben ser


examinados cuidadosamente antes de realizar un análisis
formal y no se debería eliminar sin una justificación previa
Diagrama de tallo y
hojas
Es una técnica semigráfica que se emplea para ilustrar las
principales características de los datos (localización,
dispersión y simetría). Además tienen la ventaja de
presentar los valores de los datos.
• Por la forma en que se construye, se puede emplear para
un conjunto de datos estimado 150 datos

Como se construye
• Se pueden usar diagramas múltiples para comparar dos
conjuntos de datos para ello se coloca en un tallo común y
las hojas de un conjunto se pones a izquierda del tallo y las
hojas del segundo conjunto a la derecha del tallo,
TABLAS DE
FRECUENCIAS
AGRUPADAS
(muestras grande)
Es el ordenamiento de datos usando intervalos, grupos o
clases de medias cada una de los cuales presenta su
respectiva frecuencia
CARACTERISTICAS DE UNA TABLA AGRUPADA

• Uniformidad: cada clase debería tener la misma amplitud


• Unicidad: dos clases no se traslapan
• Completez: cada uno de los datos debe pertenecer a una clase
TERMINOLOGÍA
GENERAL A USAR
FRECUENCIA ABSOLUTA (f)
Es el número de veces que una medida o categoría aparece en
una colección de datos

RANGO (R)
Valor resultante de la diferencia entre la medida mayor (U) y la
medida menor (L) en un grupo de datos
R= U-L
AMPLITUD DE CLASE (W)
Es la distancia entre el limite superior de la primera clase y el limite
inferior de la segunda clase
W= R/ numero de clases

MARCA DE CLASE(X)
Es el valor promedio de la clase, se lo calcula sumando el limite
superior e inferior de cada una de las clases y dividiendo entre dos
X= (LI + LS)/2
De acuerdo al autor del libro guía
Intervalos Número de clases recomendadas

20-50 6
51-100 7
101-200 8
201-500 9
501-1000 10
Mas de 1000 11-12
FRECUENCIA RELATIVA (fr)
Es la que se encuentra dividiendo la frecuencia absoluta de
dicha medida entre el total de n medidas de cada clase
fr = f/n
FRECUENCIA ACUMULADA (fA)
Es la suma de las frecuencias de esa misma clase y de las
frecuencias de todas las demás clases
TEORIA ELEMENTAL DE LA
PROBABILIDAD
Para muestras agrupadas
TERMINOLOGIA A UTILIZAR
PROBABILIDAD
Es una medida de la posibilidad de que ocurra un evento o suceso
EXPERIMENTO
Es una observación de alguna actividad o la acción de efectuar una medición

RESULTADO
Acontecimiento final de un experimento

EVENTO
Conjunto de uno o mas resultados de un experimento
EVENTOS MUTUAMENTE EXCLUYENTES
La ocurrencia de un evento significa que ningún otro puede ocurrir
al mismo tiempo.
donde E1 y E2 son eventos
Excluyentes como E1∩ E2= ᴓ (conjuntos disjuntos)

lo que significa que al realizar un experimento podríamos obtener


como resultado E1 o E2, pero no los dos al mismo tiempo
Ejemplo
Cuando en una línea de producción seleccionamos un articulo al
azar y evaluamos si esta o no defectuoso;
El artículo seleccionado solo podrá estar defectuoso o en buen
estado, pero no los dos a la vez
LISTA COLECTIVAMENTE EXHAUSTIVA
Esto quiere decir que por lo menos uno de los suceso ocurre
cuando se realiza un experimento
Ejemplo
Si lanzamos un dado, la probabilidad de que salga cualquier
numero en la cara superior es de 1/6 eventos con la misma
probabilidad de ocurrencia
Pr(1)= 1/6
Pr(2)= 1/6
….Pr(6)=1/6
 Pr(1) +Pr(2) + Pr(3) + Pr(4) + Pr(5) + Pr(6) = 1
 1/6 + 1/6 + 1/6 + 1/6 + 1/6 + 1/6 =1
 6/6 =1
 1=1
ESPACIOS MUESTRALES
Es la colección de todos los eventos elementales, notados por

se denomina espacio muestral :
Ω= {todos los eventos elementales}
Ejemplo
Si consideramos el número de puntos que aparecen arriba un
dado, tenemos
Espacio muestral: Ω= {1,2,3,4,5,6}
A= {el número que sale es par}={2,4,6}
DFINICION DE AXIOMAS DE LA
PROBABILIDAD
Una probabilidad provee una descripción cuantitativa de
la posibilidad de ocurrencia de un evento particular y se
puede pensar que es una frecuencia relativa en una serie
larga de repeticiones de una prueba
Tenemos tres axiomas importantes en la probabilidad que
son:
A1: Para todo evento A : 0 ≤ Pr(A) ≤ 1
A2: Pr (Ω ) =1
A3: Si A y B son incompatibles : Pr (A ᴜ B)= Pr(A) + Pr(B)
NOTACION INTERPRETACION EN LA TEORIA DE CONJUNTOS INTERPRETACION EN LA TEORIA DE PROBABILIDADES

w Elemento o punto Ev ento o suceso

Ω Conjunto de puntos Espacio muestral

ᴓ Conjunto v acío Ev ento imposible

A ᴜ B Unión de conjuntos Que por los menos uno de los ev entos A o B ocurre

A ∩ B I ntersección de conjuntos Ambos ev entos A y B ocurren

A B Diferencia de conjuntos A ocurre y B no ocurre

=Ω A Conjunto Complementario No ocurre A

A ∩ B= ᴓ Conjuntos disjuntos A y B se excluyen mutuamente

A B A es subconjunto de B Si A ocurre, también B


TIPOS DE
PROBABILDADES

Probabilidades Probabilidades
Objetivas Subjetivas

Probabilidades Frecuencia
Clásicas o A Relativa o a
priori o marginal posteriori
PROBABILIDAD CLASICA O
A PRIORI O MARGINAL
Se basa en que los resultados de un experimento
son igualmente posibles, eventos mutuamente
excluyentes y que el conjunto de eventos son exhaustivos
en forma colectiva.
Que la probabilidad que suceda un evento se lo calcula
dividiendo el número de casos favorable para el numero
de casos totales
Ejemplo
Se tiene una canasta de 10 esferas , numeradas del 1 al 10.
Rojas van hacer del 1,2,3, 4 y verdes 5,6,7,8,9,10; si se elige
una esfera al azar ?Que probabilidad es que sea roja?.
Pr(roja)= resultados favorables / resultados totales
Ω= {1,2,3,4,5,6,7,8,9,10}
R= {1,2,3,4}
V= {5,6,7,8,9,10} Pr(R)=4/10= 2/5= 0,4
La posibilidad que al azar
pueda sacar una esfera roja es el 40%
FRECUENCIA RELATIVA O
A POSTERIORI
La frecuencia de que un evento ocurra a largo plazo se
determina por un lado observando en que fracción de
tiempo sucedieron eventos semejantes en el pasado, y
por otro, observando la ocurrencia de un evento durante
un gran numero de intentos
Ejemplo
Una organización ambiental se sabe, por la información
obtenida de los datos actuales registrados que de las
empresas petroleras 6 de 10 causan un impacto grave en
la fauna de la zona donde se encuentran sus pozos de
extracción. Utilizando este método, la organización estima
la probabilidad de riesgo de este tipo de impacto
ambiental de esta empresa ?Cual esa Probabilidad de
este Riesgo?
Pr(impacto ambiental) = 6/10 = 0,6
60% de posibilidad de que exista este tipo de impacto
ambiental en estas zonas donde están los pozos de
extracción petrolera
PROBABILIDADES
SUBJETIVAS
Posibilidad de que suceda un evento asignado por una
persona con base en cualquier información de que
disponga.

Esta información o evidencia puede presentarse en forma


de frecuencia relativa de presentación de eventos que se
dieron en el pasado o simplemente de una creencia
mediata
Ejemplo
Un juez debe decidir si permite la construcción de una
planta de energía nuclear en un lugar donde existen
evidencias de que hay una falla geológica.? Cual es la
probabilidad de que ocurra un accidente nuclear grave
en ese sitio? El hecho que no exista una frecuencia relativa
de presentación de evidencias accidentales anteriores en
este sitio, no es suficiente para tomar esta decisión. El juez
debe hacerlo basado en su mejor sentido común para
establecer la probabilidad subjetiva de que suceda un
accidente nuclear
TIPOS DE HIPOTESIS
Se clasifican en unilaterales y bilaterales
PRUEBA DE ESTADISTICA
UNILATERAL
Es aquella en la que la región de rechazo se localiza solamente en un extremo
de la distribución de probabilidad del estadístico de prueba
PRUEBA DE ESTADISTICA
BILATERAL
Es aquella que sitúa la región de rechazo en ambos extremo de la distribución
de probabilidad del estadístico de prueba
PRUEBAS DE HIPÓTESIS CON
UNA SOLA MUESTRA
PRUEBAS DE HIPÓTESIS CON DOS
MUESTRAS
CHI-CUADRADO
Esta prueba fue desarrollada en el año 1900 por Karl Pearson.
La prueba chi-cuadrado es una de las más conocidas y utilizadas para
analizar variables nominales o cualitativas, es decir, para determinar la
existencia o no de independencia entre dos variables.
Definición:
Una prueba de chi-cuadrada es una prueba de hipótesis que
compara la distribución observada de los datos con una
distribución esperada de los datos. ... Prueba de bondad de
ajuste de chi-cuadrada. Utilice este análisis para probar qué tan
bien una muestra de datos categóricos se ajusta a una
distribución teórica.
SIRVE PARA
El estadístico ji-cuadrado (o chi cuadrado), que tiene
distribución de probabilidad del mismo nombre, sirve para
someter a prueba hipótesis referidas a distribuciones de
frecuencias. En términos generales, esta prueba contrasta
frecuencias observadas con las frecuencias esperadas de acuerdo
con la hipótesis nula.
INDEPENDENCIA ENTRE VARIABLES

• Para evaluar la independencia entre las variables, se calculan los valores que
indicarían la independencia absoluta, lo que se denomina “frecuencias
esperadas”, comparándolos con las frecuencias de la muestra.

• Como es habitual, la hipótesis nula (H0) indica que ambas variables son
independientes, mientras que la hipótesis alternativa (H1) indica que las
variables tienen algún grado de asociación o relación.
KARL PEARSON
• Karl Pearson fue historiador, escribió sobre folklore, fue un socialista
convencido, abogado, matemático aplicado, biómetra, estadístico, maestro y
biógrafo. Pero sin duda su contribución más importante es al nacimiento de
la Estadística Aplicada.
EL CHI- CUADRADO DE PEARSON
• La prueba χ² de Pearson se considera una prueba no paramétrica que mide la
discrepancia entre una distribución observada y otra teórica (bondad de
ajuste), indicando en qué medida las diferencias existentes entre ambas, de
haberlas, se deben al azar en el contraste de hipótesis.
CALCULO DE LOS
GRADOS DE LIBERTAD
CONCEPTOS
IMPORTANTES
ESTADÍSTICA

Es el conjunto de métodos científicos usados para


recolectar, representar, condensar y analizar los datos
extraídos de un sistema en estudio.
La estadística nos permite hacer estimaciones y sacar
conclusiones, necesarias para la toma de decisiones
La Estadística es empleadas en estudio de fenómenos naturales,
tanto los generados en los laboratorios por los científicos,
como aquellos mas allá del control humano. En una gran
variedad de disciplinas como economía, política, ciencias de la
salud, en estudios de mercado, urbanismo, etc. Es una
herramienta de uso tan amplio y general que hoy día es difícil
imaginar un lugar donde no pueda emplearse.
CLASES DE
ESTADÍSTICA
ESTADÍSTICA DESCRITIVA: Es la parte de la estadística
que se ocupa de recopilar, representar y condensar los datos
obtenidos del sistema en estudio, mas no, de realizar
generalizaciones acerca de la población

ESTADISTICA INFERENCIAL: Es la parte de la estadística


dedicada a la formulación de supuestos y estimaciones, para
hacer predicciones y poder sacar conclusiones de los datos
obtenidos con el estudio de las muestras y así, poder tomar
decisiones con base científica
POBLACIÓN
Y
MUESTRA
POBLACIÓN: Es el conjunto de todos los datos que se están
estudiando, acerca de los cuales intentamos sacar conclusiones.
Todo valor real que describe alguna característica de una
población se conoce como PARÁMETRO
MUESTRA: Es el conjunto de datos obtenidos de una
población cualquiera, con el método de recopilación elegida.
Se la puede imaginar como un subconjunto del conjunto
población.
Todo valor real que describe alguna característica de una
muestra se conoce como ESTADÍSTICO
QUÉ SON LOS
DATOS
Los datos con colecciones de cualquier cantidad de observaciones
relacionadas.

Constituyen la información de la cual nos servimos para hacer estudios de


interés para la comunidad humana, para lo cual necesitamos que cada
observación tenga un valor numérico o un símbolo que lo represente.

Ejemplo: Peso en libras de un animal, número de productos defectuosos

Color de un fruto, etc.


CLASIFICACIÓN DE
LOS DATOS
DATOS CUANTITATIVOS
Son medibles es decir pueden tomar valores numéricos
Ejemplos: volumen de agua contaminada, peso del huevo de una
tortuga, el número de ferreterías de un sector etc..
A su vez estos datos se clasifican en
Datos Discretos
Datos Continuos
DATOS DISCRETOS: son datos obtenidos de un proceso de
conteo.
Ejemplo: salario de un empleado, número de carros de una
ciudad, número de lubricadoras de un sector etc.
DATOS CONTINUOS: Son los datos obtenidos de un
proceso de medición, donde la característica que se mide puede
tomar cualquier valor numérico en un intervalo.
Ejemplo: El peso en Kg de una persona, estatura en metros,
distancia en Km, tiempo de erupción de un volcán, presión
barométrica etc.
DATOS
CUALITATIVOS O
ATRIBUTOS
Este tipo de datos no es posible hacer mediciones numéricas
Ejemplo: religión, color, sexo, sabor etc.
ESCALAS DE
MEDICIÓN
ESCALA NOMINAL: Es el agrupamiento no ordenado de datos,
se usan con propósito de clasificación e identificación.
Ejemplo: número de las camisetas de un equipo de futbol, número
de teléfonos, etc…
ESCALA ORDINAL: Son datos medidos en escala nominal, pero
ordenados, coloca las medida en categorías cada una de las cuales
indica un nivel distinto respecto a un atributo que se está midiendo.
No es posible determinar la diferencia entre los valores medidos en
este tipo de escala.
Ejemplo: Rangos militares, numeración de las casa en las calles,
grados de escuela, etc…
ESCALA DE INTERVALOS: Datos medidos en escala ordinal
para los cuales pueden calcularse las distancias entre valores, los
datos de intervalo son cuantitativos. No tiene punto cero real, o sea
que indique ausencia de los que se quiere medir.
Ejemplo: Temperatura expresada en grados Celsius, Fechas de
Eventos, etc…
ESCALA DE RAZÓN: Datos medidos en escala de intervalos con
un punto cero real, con esta escala podemos determinar cuantas
veces es mayor una mediada que otra .
Ejemplo: escala para medir Kg, cm, dólares, temperatura expresada
en grados Kelvin etc…
EJEMPLOS
EJEMPLO
FUNDAMENTOS
DEL ANALISIS
COMBINACIONAL
Conceptos principales del análisis combinatorio

• FACTORIAL
En un numero entero, positivo su simbología es: n! y lo calculamos así:
n ! = n x (n - 1) x ….x 2 x 1
0!= 1
• VARIACIÓN

Se denomina variación a cada uno de los arreglos ordenados de k elementos


tomado de otro de n elementos (k≤n) de manera que estos arreglos difieren
entre algún elemento o en el orden de colocación
• COMBINACIÓN

Se denomina combinación a cada uno de los subconjuntos de k elementos,


tomado de otro de n elementos (k≤n) sin tener en cuenta el orden de los
mismos, de manera que no pueden haber dos combinaciones con los
mismos elementos
• PERMUTACIÓN
Es una permutación de n elementos es cada una de las variaciones de los n
elementos distintos

• PERMUTACIÓN REPETITIVA
Es una repetición de k elementos obtenidos a partir de un conjunto de n
elementos; es un arreglo de k elementos ordenados en el que los elementos
pueden repetirse arbitrariamente
EJERCICIO
Encontrar el número de variaciones y de combinaciones de
dos elementos que se pueden obtener a partir de un
conjunto {a, b, c}
Encontrar las permutaciones de n elementos a partir del conjunto {a, b, c}
EJERCICIO
EJERCICIO
FUNDAMENTOS
DEL ANALISIS
COMBINACIONAL
Conceptos principales del análisis combinatorio

• FACTORIAL
En un numero entero, positivo su simbología es: n! y lo calculamos así:
n ! = n x (n - 1) x ….x 2 x 1
0!= 1
• VARIACIÓN

Se denomina variación a cada uno de los arreglos ordenados de k elementos


tomado de otro de n elementos (k≤n) de manera que estos arreglos difieren
entre algún elemento o en el orden de colocación
• COMBINACIÓN

Se denomina combinación a cada uno de los subconjuntos de k elementos,


tomado de otro de n elementos (k≤n) sin tener en cuenta el orden de los
mismos, de manera que no pueden haber dos combinaciones con los
mismos elementos
• PERMUTACIÓN
Es una permutación de n elementos es cada una de las variaciones de los n
elementos distintos

• PERMUTACIÓN REPETITIVA
Es una repetición de k elementos obtenidos a partir de un conjunto de n
elementos; es un arreglo de k elementos ordenados en el que los elementos
pueden repetirse arbitrariamente
EJERCICIO
Encontrar el número de variaciones y de combinaciones de
dos elementos que se pueden obtener a partir de un
conjunto {a, b, c}
Encontrar las permutaciones de n elementos a partir del conjunto {a, b, c}
EJERCICIO
EJERCICIO
MEDIDAS DE DISPERSION
Para muestras agrupadas
Las medidas de dispersión son aquellas que

nos permiten determinar la variabilidad que

existe entre un valor X de un grupo de datos

frente a una medida de tendencia central del

mismo conjunto de datos o media aritmética


Existen varias medidas de dispersión
-El Rango
-El Rango Intercuartiles
-Varianza
-Desviación estándar o desviación típica
-Coeficiente de variación o covarianza
RANGO (R)
Valor resultante de la diferencia entre la
medida mayor (U) y la medida menor (L)
en un grupo de datos
R= U-L

El Rango Intercuartiles (RIQ): La diferencia


entre el cuartil tres y el cuartil uno
RIQ= Q3-Q1
Varianza(: ): es una medida de dispersión que
representa la variabilidad de una serie de datos respecto a
su media

Desviación estándar o desviación


típica (s): El símbolo σ (sigma) se utiliza
frecuentemente para representar la desviación estándar de
una población, mientras que s se utiliza para representar la
desviación estándar de una muestra
S= 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎
Coeficiente de variación o covarianza
(Cv): es muy útil :
-Por ejemplo cuando queremos nosotros comparar
dato en unidades diferentes : Ejemplo dólares y días
de inasistencia
-Cuando se quiere comparar dos datos de la misma
unidad, pero las medidas son muy distintas Ejemplo:
ingreso de empleados calificados y el ingreso de
empleados no calificadas.

nos va dar como resultado en %


MEDIDAS DE
FORMA
Hasta este momento hemos
analizado las medidas de localización
y de dispersión de una distribución
de datos, es necesario conocer mas
acerca del comportamiento de los
datos
Las medidas de forma se las clasifica
en dos
Las medidas de asimetría
Las medidas de curtosis
Medidas de Asimetria
(As)
Dependemos en esta mediad de un coeficiente
de asimetría
Es una variable que mide el grado de asimetría
de la distribución de los datos en torno a su
media
La medida de asimetría de una
distribución de datos la podemos
calcular de la siguiente manera:
Si el coeficiente de asimetría es
As>0 La distribución será asimétrica
a derecha. La cola a la derecha es mas
larga que la cola a izquierda
ASIMETRICA A DERECHA
Si el coeficiente de asimetría es
As=0 La distribución será
simétrica. Ambas colas son igual
de largas
SIMÉTRICA
Si el coeficiente de asimetría es
As<0 La distribución será asimétrica
a izquierda. La cola a la izquierda es
mas larga que la cola a derecha
ASIMETRICA A IZQUIERDA
COLAS
De una variable están constituidas por los
valores alejados de la media (valores extremos).
Una variable es asimétrica si su cola a un lado es
más larga que su cola al otro y simétrica si
ambas colas son igual de largas
Medidas de
Apuntamiento o curtosis
Dependemos en esta mediada de un coeficiente de
apuntamiento
Es una variable que mide el grado de concentración
de los valores que toma en torno a su media
La medida de curtosis o apuntamiento
de una distribución de datos la
podemos calcular su símbolo es Ap o K
Si el coeficiente de curtosis si
Ap>0 es decir, es mas apuntada que la
normal. Los valores que toma la variable
están muy concentrados en torno a su
media y hay pocos valores extremos. En
este caso se llamará Leptocúrtica
Si el coeficiente de curtosis si
Ap=0 es decir, es tan apuntada que la
normal. En ese caso se llamarà
Mesocurtica
Si el coeficiente de curtosis si
Ap<0 es decir, es menos apuntada que
la normal. Hay muchos valores
extremos en las colas de la variable
son muy pesadas. En este caso se
llamará Platicurtica
MEDIDAS DE POSICIÓN
NO CENTRAL
Son conjunto de datos ordenados y se los
puede dividir en un número fijo de partes
iguales esto nos da como resultados
posiciones
Existen varias medidas de posición no central
tenemos:​
Percentiles​
Deciles
Quintiles
Cuartiles
Percentiles ​
Los percentiles son cada uno de los
99 valores que divide a la distribución
de datos en 100 partes iguales
Cuartiles
Son valores que dividen a la
distribución de los datos en cuatro
partes iguales cada una de las cuales
engloban el 25% de los mismos
quintiles
Son valores que dividen a la
distribución de los datos en cinco
partes iguales cada una de las cuales
engloban el 20% de las observaciones
Deciles
Son valores que dividen a la
distribución de los datos en diez
partes iguales cada una de las cuales
engloban el 10% de las observaciones
MEDIDAS DE LOCALIZACIÓN
O TENDENCIA CENTRAL
Para muestras agrupadas
Cuando se disponen de un conjunto de
observaciones es de interés encontrar el valor de
entorno al cual se agrupa la mayoría de ellas o el
centro de las mismas.

Las medidas descriptivas que permiten especificar


estos valores se denominan medidas de localización o
medidas de tendencia central
Existen varias medidas de tendencia
central como son:
La media muestral o promedio
La mediana
La moda
La media Geométrica
La Media Armónica
Media Muestral o Promedio
El promedio notado como de un conjunto, de n mediciones X 1

, X , X , ……X N es igual a la suma de sus valores dividido entre n;


2 3

es decir:

Donde:
X= marca de clase
f= frecuencia absoluta
n= tamaño de la muestra
La Mediana
La Moda
PRINCIPALES
DISTRIBUCIONES DE
PROBABILIDAD
En este caso vamos a presentar algunos tipos, de leyes que
siguen las variables aleatorias y que aparecen frecuentemente en
problemas prácticos y cuyas propiedades deben ser conocidas
1.- Distribución Uniforme Discreta
2.- Distribución Hipergeométrica
3.- Distribución Bernoulli y Binomial
1.- Distribución Uniforme Discreta

Este es una variable aleatoria X que puede tomar un número


finito de valores 1, 2, 3,…..,n cada uno de los cuales tiene la
misma probabilidad de ocurrir, se dice que sigue la ley de
distribución UNIFORME DISRETA

Pr (X=k) = 1/n , k= 1,2,3,….n

La esperanza es igual E(X) = (n+1)/2


La varianza es igual Var(X) =(n2 – 1)/12
La Equiprobabilidad es la forma mas obvia de asignar
probabilidades dentro de un fenómeno aleatorio cuyo
comportamiento es desconocido. Esta ley aparece en los
juegos de azar en la que todos los jugadores tiene la misma
posibilidad; además esta ley es la básica en la simulación de
eventos aleatorios mediante computadoras
2.- Distribución Hipergeométrica

Plantearemos una especie de problema: En una urna se tienen N


bolas, n son rojas y las N- n son negras, de las cuales se extrae al
azar r bolas; investigaremos la probabilidad de que el grupo elegido
contenga bolas rojas: k cualquier entero entre cero y n o r
A una variable aleatoria X que sigue la ley hipergeométrica
de parámetros H( N, n, r)
La esperanza E(X)= r n/ N
x

Y la varianza Var(X)= r(n/N) (1-n/N) (N –k)


Esta distribución de probabilidad surge en el análisis de
muestras en control calidad de lotes de productos en los
cuales hay artículos útiles y defectuosos, en estudios censales
de población animal y al realizar muestreo sin reposición.
3.- Distribución Bernoulli y Binomial

Si realizamos un experimento una vez, solo hay dos resultados


posibles. Se tiene la prueba de Bernoulli, se acostumbra a referirse
uno de los resultados como “éxito” que aparece con la probabilidad
p, y el otro resultado como “fracaso” que sucede como
probabilidad la variable q ; p y q no son negativas entonces
p + q =1
La definición de la variable aleatoria que sigue una Ley de
Bernoulli
X= 1, si es un éxito
0, si es un fracaso
La ley de probabilidad de la Ley de Bernoulli es
Pr(X=1) =p, Pr(X=0)= 1- p =q
La esperanza E(X)= p
Y la varianza Var(X)= pq
La ley de Bernoulli desempeña un papel muy fundamental en el
análisis de fenómenos en los cuales solo se tienen dos resultados
mutuamente excluyentes, como es el caso de muchas preguntas en
todo tipo de encuestas o la determinación de sexo de los recién
nacidos
Ω= {1, 2, 3, 4, 5, 6 }
Se llama Binomial a la ley de distribución de una variable
aleatoria discreta X que describe el número de k de éxitos en una
sucesión de n prueba de Bernoulli Independientes, en cada caso
una de las cuales la probabilidad de éxito es igual a p
A la variable aleatoria X que sigue la ley Binomial de parámetros n
yp

La esperanza E(X)= np
Y la varianza Var(X)=n pq
La distribución Binomial tiene amplia aplicación en la teoría de
muestreo cuando se puede contestar a una pregunta únicamente
con dos opciones SI - NO
PRINCIPALES
DISTRIBUCIONES DE
PROBABILIDAD
En este caso vamos a presentar algunos tipos, de leyes que
siguen las variables aleatorias y que aparecen frecuentemente en
problemas prácticos y cuyas propiedades deben ser conocidas
1.- Distribución Uniforme Discreta
2.- Distribución Hipergeométrica
3.- Distribución Bernoulli y Binomial
1.- Distribución Uniforme Discreta

Este es una variable aleatoria X que puede tomar un número


finito de valores 1, 2, 3,…..,n cada uno de los cuales tiene la
misma probabilidad de ocurrir, se dice que sigue la ley de
distribución UNIFORME DISRETA

Pr (X=k) = 1/n , k= 1,2,3,….n

La esperanza es igual E(X) = (n+1)/2


La varianza es igual Var(X) =(n2 – 1)/12
La Equiprobabilidad es la forma mas obvia de asignar
probabilidades dentro de un fenómeno aleatorio cuyo
comportamiento es desconocido. Esta ley aparece en los
juegos de azar en la que todos los jugadores tiene la misma
posibilidad; además esta ley es la básica en la simulación de
eventos aleatorios mediante computadoras
2.- Distribución Hipergeométrica

Plantearemos una especie de problema: En una urna se tienen N


bolas, n son rojas y las N- n son negras, de las cuales se extrae al
azar r bolas; investigaremos la probabilidad de que el grupo elegido
contenga bolas rojas: k cualquier entero entre cero y n o r
A una variable aleatoria X que sigue la ley hipergeométrica
de parámetros H( N, n, r)
La esperanza E(X)= r n/ N
x

Y la varianza Var(X)= r(n/N) (1-n/N) (N –k)


Esta distribución de probabilidad surge en el análisis de
muestras en control calidad de lotes de productos en los
cuales hay artículos útiles y defectuosos, en estudios censales
de población animal y al realizar muestreo sin reposición.
3.- Distribución Bernoulli y Binomial

Si realizamos un experimento una vez, solo hay dos resultados


posibles. Se tiene la prueba de Bernoulli, se acostumbra a referirse
uno de los resultados como “éxito” que aparece con la probabilidad
p, y el otro resultado como “fracaso” que sucede como
probabilidad la variable q ; p y q no son negativas entonces
p + q =1
La definición de la variable aleatoria que sigue una Ley de
Bernoulli
X= 1, si es un éxito
0, si es un fracaso
La ley de probabilidad de la Ley de Bernoulli es
Pr(X=1) =p, Pr(X=0)= 1- p =q
La esperanza E(X)= p
Y la varianza Var(X)= pq
La ley de Bernoulli desempeña un papel muy fundamental en el
análisis de fenómenos en los cuales solo se tienen dos resultados
mutuamente excluyentes, como es el caso de muchas preguntas en
todo tipo de encuestas o la determinación de sexo de los recién
nacidos
Ω= {1, 2, 3, 4, 5, 6 }
Se llama Binomial a la ley de distribución de una variable
aleatoria discreta X que describe el número de k de éxitos en una
sucesión de n prueba de Bernoulli Independientes, en cada caso
una de las cuales la probabilidad de éxito es igual a p
A la variable aleatoria X que sigue la ley Binomial de parámetros n
yp

La esperanza E(X)= np
Y la varianza Var(X)=n pq
La distribución Binomial tiene amplia aplicación en la teoría de
muestreo cuando se puede contestar a una pregunta únicamente
con dos opciones SI - NO

También podría gustarte