Está en la página 1de 22

Estadística descriptiva

Tipo Nombre Fórmula

Media aritmética 𝑥 ̅= (∑▒ 〖𝑓 _𝑖 𝑥_𝑖 〗 )/𝑛

𝑔= ∏▒𝑥_𝑖^(𝑓_𝑖/𝑛)
Media Geométrica

Medidas de tendencia
cental (Datos no
agrupados)
𝐻= 𝑛/(∑▒𝑓_𝑖/𝑥_𝑖 )
Media armónica

Mediana 〖𝑀𝑑〗 _𝑝𝑜𝑠=(𝑛+1)/2

Moda El dato que más se repite

Media aritmética 𝑥 ̅= (∑▒ 〖𝑓 _𝑖 𝑥_𝑖 〗 )/𝑛

𝑔= ∏▒𝑥_𝑖^(𝑓_𝑖/𝑛)
Media geométrica

𝐻= 𝑛/(∑▒𝑓_𝑖/𝑥_𝑖 )
Media armónica
Medidas de tendencia
cental (Datos
agrupados) 𝑀𝑑=𝐿_𝑘+((𝑛/2−𝑓_(𝑎_(𝑘−1) ))/𝑓_𝑘 )𝑐
Mediana

𝑀𝑜=𝐿_𝑘+(∆_1/(∆_1+ ∆_2 ))𝑐


Moda

Marca de clase 𝑥= ( 〖𝐿𝑅𝑆〗 _𝑘− 〖𝐿𝑅𝐼〗 _𝑘)/2

Ancho de clase 𝑐=𝐿𝑅𝑆−𝐿𝑅𝐼


Datos agrupados
Delta 1* ∆_1=𝑓_𝑚−𝑓_(𝑚−1)
Datos agrupados

Delta 2* ∆_2=𝑓_𝑚−𝑓_(𝑚+1)
𝑄_𝑘𝑝𝑜𝑠= 𝑛𝑘/4
Cuartiles

𝐷_𝑘𝑝𝑜𝑠= 𝑛𝑘/10
Deciles

𝑃_𝑘𝑝𝑜𝑠= 𝑛𝑘/100
Percentiles

Medidas de posición Rango 𝑅𝑎𝑛𝑔𝑜=𝐿𝑆−𝐿𝐼


(Datos no agrupados)
Rango intercuartil 𝑅𝐼= 𝑄_3−𝑄_1

Rango semiintercuartil
𝑅𝑆𝐼= 𝑅𝐼/2

𝑄𝐼= (𝑄_3+𝑄_1)/2
Cuartil intermedio

𝑄_𝐾=𝐿_𝑘+((𝑛𝑘/4−𝑓_(𝑎_(𝑘−1) ))/𝑓_𝑘 )𝑐
Cuartiles

𝐷_𝐾=𝐿_𝑘+((𝑛𝑘/10−𝑓_(𝑎_(𝑘−1) ))/𝑓_𝑘 )𝑐
Medidas de posición Deciles
(Datos agrupados)

𝑃_𝐾=𝐿_𝑘+((𝑛𝑘/100−𝑓_(𝑎_(𝑘−1) ))/𝑓_𝑘 )𝑐
Percentiles

𝑠^2= (∑▒ 〖〖𝑓 _𝑖 𝑥_𝑖 〗 ^2−(∑▒ 〖 ( 〖𝑓 _𝑖 𝑥 〗 _𝑖) 〗 ^2 )/𝑛 〗 )/(𝑛−1)


Varianza muestral

Medidas de 𝑠= √(𝑠^2 )
dispersión Desviación muestral
𝜎^2= (∑▒ 〖 ( 〖𝑓 _𝑖 𝑥 〗 _𝑖) 〗 ^2 )/𝑛− 〖 (𝑥 ̅) 〗 ^2
Varianza poblacional

𝜎= √(𝜎^2 )
Desviación poblacional
𝑆𝑒𝑠𝑔𝑜= (𝑥 ̅−𝑀𝑜)/𝜎
Primer sesgo de Pearson

Medidas de forma
𝜅= ( 1/2 (𝑄_3−𝑄_1 ))/(𝑃_90−𝑃_10 )
Curtosis percentílico
Estadística descriptiva
Datos

x: Dato numérico

f: Frecuencia del dato (veces que se repite)

n: Número total de datos

n: Número total de datos

No aplica

x: Marca de clase

f: Frecuencia del intervalo de clase (veces que se repite)

n: Número total de datos

Lk = Límite inferior de la clase donde está la mediana


) ))/𝑓_𝑘 )𝑐
fa(k-1) = Frecuencia acumulada de la clase anterior
fk: Frecuencia de la clase donde está la mediana
c: Ancho de clase
Lk = Límite inferior de la clase donde está la moda
Δ1: La diferencia entre la frecuencia modal y la frecuencia
anterior a la modal
Δ2: La diferencia entre la frecuencia modal y la frecuencia
posterior a la modal
LRIk: Límite real inferior de la clase k
LRSk: Límite real superior de la clase k
LRI: Límite real inferior
LRS: Límite real superior
fm: Frecuencia modal
fm-1: Frecuencia anteior a la modal
fm: Frecuencia modal
fm+1: Frecuencia posterior a la modal

n: Número total de datos

k: Lugar del cuartil/decil/percentil que se busca

LS: Límite supeior (El dato mayor)


LI: Límite inferior (El dato menor)
Q3: Cuartil tres
Q1: Cuartil uno

RI: Rango intercuartil

Q3: Cuartil tres


Q1: Cuartil uno
1) ))/𝑓_𝑘Lk:)𝑐Límite inferior de la clase del cuartil/decil/percentil

fk: Frecuencia de la clase donde está el


1) ))/𝑓_𝑘cuartil/decil/percentil
)𝑐
fak-1: Frecuencia de la clase anterior de la que está el
cuartil/decil/percentil
−1) ))/𝑓_𝑘 )𝑐
n: Número total de datos
k: El número del cuartil/decil/percentil

x: Dato
𝑥 〗 _𝑖) 〗 ^2 )/𝑛 numérico o marca de clase
〗 )/(𝑛−1)
n: Número total de datos

s^2: Varianza muestral

)/𝑛− 〖 (𝑥 ̅x:)Dato
〗 ^2numérico o marca de clase
n: Número total de datos

σ^2: Varianza poblacional

x con barra: Media aritmética


Mo: Moda
σ: Desviación (Estándar o poblacional)

_90−𝑃_10
Q3: )Cuartil tres
Q1: Cuartil uno
P90: Percentil 90
P10: Percentil 10
Observaciones

Recuerda observar que la suma de las frecuencias debe


coincidir con el número de datos total. La media aritmética
es la misma en datos agrupados y no agrupados

La función pi mayúscula representa al producto de


números, en este caso, nuestro dato elevado a su
frecuencia dividida por el número total de datos. La media
geométrica es la misma en datos agrupados y no agrupados

La media armónica es la división del número total de datos


sobre la suma de la frecuencia de cada dato dividida por el
dato. La media armónica es la misma en datos agrupados y
no agrupados.

La fórmula solo da la posición de la mediana, para


encontrarla debes acomodar tus datos de forma creciente
Solo será el dato que más se repite (con mayor frecuencia),
puede haber más de una moda

La marca de clase es la media aritmética entre los dos


límites reales de una clase. La frecuencia de clase o del
intervalo de clase será el número de veces que aparece un
dato dentro de la clase

Para poder ubicar la mediana solo buscaremos donde se


encontrará el "punto medio" de nuestros datos, una vez
ubicada la clase, utilizamos la fórmula

La clase de la moda será la clase que mayor frecuencia de


clase tenga. Apartir de esta tomamos los datos para
nuestra fórmula.

Cada clase tiene su propia marca de clase

El ancho de clase debe ser el mismo para todas las clases

La frecuencia modal es la mayor frecuencia de las clases


La frecuencia modal es la mayor frecuencia de las clases

Los cuartiles (por si llegas a olvidar la fórmula) recuerda que


suena a "cuarto" (divides entre 4)
Los deciles (por si llegas a olvidar la fórmula) recuerda que
suena a "decimo" (divides entre 10)
Los percentiles (por si llegas a olvidar la fórmula) recuerda
que suena a "porciento" (divides entre 100)
Los límites los obtienes cuando ordenas los datos, y son el
primer y último dato
Por si llegas a olvidar la fórmula, el rango intercuartil será el
rango entre cuartiles (la palabra lo dice)
Por si llegas a olvidar la fórmula, el rango semi intercuartil
será la mitad (semi) del rango intercuartil

Una forma de ver esta fórmula es como el promedio del


primer y tercer cuartil

Los cuartiles/deciles/percentiles serán EXACTAMENTE los


mismos, incluso iguales que la mediana para datos
agrupados. Solo asegurate de ubicar correctamente en qué
clase estará tu cuartil/decil/percentil, la posición la
obtendrás con las otras fórmulas para datos no agrupados
o individuales. La posición la ubicarás de acuerdo con la
frecuencia acumulada

La varianza y desviación muestral solo serán calculados


cuando el número total de datos es menor o igual que 30

La varianza y desviación poblacional solo serán calculados


cuando el número total de datos es mayor que 30

Cuando la media es mayor a la moda, es segada a la


izquierda, cuando la media es menor que la moda es
sesgada a la derecha y cuando son iguales es normal o
simetrica.

Mide el sesgo de una curva, ya sea leptocurtica (con


apuntamiento) cuando k>0.263, mesocúrtica (ni muy
apuntada ni muy plana) cuando k=0.263 y platicúrtica
(plana) cuando k<0.263
Teoría de conjunto
Tipo Nombre Fórmula o notación

Unión 𝐴∪𝐵

Resta 𝐴−𝐵

Intersección 𝐴∩𝐵
Operaciones de
conjuntos

Complemento 𝐴^𝑐 𝑜 𝐴′

Diferencia simétrica 𝐴∆𝐵

𝐴∪𝐴=𝐴
Leyes de idempotencia
𝐴∩𝐴=𝐴
(𝐴∪𝐵)∪𝐶=𝐴∪(𝐵∪𝐶)
Leyes asociativas
(𝐴∩𝐵)∩𝐶=𝐴∩(𝐵∩𝐶)
𝐴∪𝐵=𝐵∪𝐴
Leyes conmutatitvas
𝐴∩𝐵=𝐵∩𝐴
(𝐴∩𝐵)∪𝐶=(𝐴∪𝐶)∩(𝐵∪𝐶)
Leyes distributivas
(𝐴∪𝐵)∩𝐶=(𝐴∩𝐶)∪(𝐵∩𝐶)
Leyes del álgebra de 𝐴∪𝜙=𝐴
conjuntos
Leyes de identidad
Leyes del álgebra de
conjuntos
𝐴∪Ω=Ω
Leyes de identidad
𝐴∩Ω=𝐴
𝐴∩𝜙=𝜙
𝐴∪𝐴^𝐶=Ω
〖 (𝐴^𝐶) 〗 ^𝐶=𝐴
Leyes de complemento
𝐴 〖∩𝐴〗 ^𝐶=𝜙
Ω^𝐶=𝜙; 𝜙^𝐶=Ω
〖 (𝐴∪𝐵) 〗 ^𝐶=𝐴^𝐶 〖∩𝐵〗 ^𝐶
Leyes de De Morgan
〖 (𝐴∩𝐵) 〗 ^𝐶=𝐴^𝐶 〖∪𝐵〗 ^𝐶

Conjunto producto 𝐴×𝐵={(1,𝑎), (1,𝑏),(2,𝑎),(2,𝑏)}


Otras operaciones

Conjunto potencia 𝓅(𝐴)={𝜙, {1}, {2},{1,2}}

Cardinalidad del vacío |𝜙|=0


Cardinalidad del |𝐴^𝐶 |=|Ω|−|𝐴|
complemento
Cardinalidad del conjunto |𝐴×𝐵|= |𝐴|×|𝐵|
producto
Cardinalidad de
conjuntos Cardinalidad del conjunto |𝓅(𝐴)|= 2^𝑛
potencia
|𝐴∪𝐵|= |𝐴|+|𝐵|−|𝐴∩𝐵|
Principios de inclusión- |𝐴∪𝐵∪𝐶|=|𝐴|+|𝐵|+|𝐶|− |𝐴∩𝐵|−|𝐵∩𝐶|
exclusión −|𝐴∩𝐶|+|𝐴∩𝐵∩𝐶|
eoría de conjuntos
Datos Observaciones

A y B: Conjuntos cualesquiera

NO TE APRENDAS EL NOMBRE, no es necesario, con que sepas


A y B: Conjuntos cualesquiera cómo trabajn y en qué consisten es más que suficiente,
muchas de estas salen por lógica o inducción
NO TE APRENDAS EL NOMBRE, no es necesario, con que sepas
A y B: Conjuntos cualesquiera cómo trabajn y en qué consisten es más que suficiente,
muchas de estas salen por lógica o inducción

A = {1,2} El conjunto producto no es conmutativo, es decir, no es lo


mismo AxB que BxA, cambiará el órden de los elementos en el
B = {a,b} paréntesis

El conjunto potencia es el conjunto con todos los subconjuntos


A = {1,2} posibles de un conjunto, su número de elementos será 2^n,
siendo n el número de elementos

Las cardinalidades serán válidas para TODO conjunto,


A, B y C sean conjuntos cualesquiera recordadno que la cardinalidad es el número de elementos en
un conjunto
Técnicas de conteo
Tipo Nombre Fórmula o notación

Pruebas con
repetición 𝑛^𝑘

Principio
multiplicativo
Pruebas sin repetición 𝑛(𝑛−1)(𝑛−2)…=𝑛!

Arreglos ciruclares (𝑛−1)!

Permutaciones 𝑃(𝑛, 𝑘)=𝑃_𝑘^𝑛=𝑛𝑃𝑘=𝑛!/(𝑛−𝑘)!


simples

Permutaciones

Permutaciones con
𝑛!/(𝑛_1 !𝑛_2 !…𝑛_𝑘 !)
repetición

Combinaciones
Combinaciones C(𝑛, 𝑘)=𝐶_𝑘^𝑛=𝑛𝐶𝑘=𝑛!/(𝑛−𝑘)!𝑘!
simples
écnicas de conteo
Datos Observaciones
n: Número de elementos de nuestro Siempre debes de identificar tu conjunto en el que
conjunto trabajes (los dígitos, letras, libros, etc) una vez
k: Número de veces que aparece identificado encuentra su cardinalidad

Para este caso no siempre se aplica el factorial


n: Número de elementos de nuestro completo, debes tener cuidado con cuantos elementos
conjunto vas a trabajar, ejemplo, si haces una contraseña de 4
dígitos, utilizando los números del 0 al 9

n: Número de espacios en nuestro Debes tener cuidado en como se define n y tomar en


arreglo circular cuenta las diferentes situaciones que se presenten

n: Número de elementos de nuestro En las permutaciones n será nuestro número total de


conjunto elementos, y k será el número de elementos que
querrámos tomar de nuestro total, por obvias razones
k: Número de elementos tomados k<n
n: Número de elementos de nuestro
conjunto
nk: Número de veces que se repite Este ejemplo se da en las permutaciones de palabras,
cierto elemento ejemplo con IGUANA, donde se repite la A dos veces
n: Número de elementos de nuestro Las combinaciones se usan exclusivamente para
conjunto procesos de SELECCIÓN, ten cuidado en identificar si es
k: Número de elementos tomados una permutación o combinación
Probabilidad
Tipo Nombre Fórmula o notación

Probabilidad de un 𝑛/𝑡
evento

Probabilidad
clásica
Ventajas de
probabilidad
𝑎:𝑏; 𝑝=𝑎/(𝑎+𝑏)

𝑃(𝐴)≥0
Axiomas principales 𝑃(𝑆)=1
𝑃(𝐴_1∪𝐴_2∪…∪𝐴_𝑛 )=1

Probabilidad del vacío 𝑃(𝜙)=0

Probabilidad de un
Axiomas de evento 0≤𝑃(𝐴)≤1
probabilidad Probabilidad del
complemento
𝑃(𝐴^𝐶 )=1−𝑃(𝐴)
𝑃(𝐴∪𝐵∪𝐶)=𝑃(𝐴)+𝑃(𝐵)+𝑃(𝐶)−𝑃(𝐴∩𝐵)
Probabilidad de la −𝑃(𝐴∩𝐶)−𝑃(𝐵∩𝐶)+𝑃(𝐴∩𝐵∩𝐶)
unión

Probabilidad de la
resta de eventos 𝑃(𝐴−𝐵)=𝑃(𝐴∩𝐵^𝐶 )=𝑃(𝐴)−𝑃(𝐴∩𝐵)

Probabilidad de las P(𝐴^𝐶∩𝐵^𝐶 )=𝑃 〖 (𝐴∪𝐵) 〗 ^𝐶


leyes de De Morgan
P(𝐴^𝐶∪𝐵^𝐶 )=𝑃 〖 (𝐴∩𝐵) 〗 ^𝐶

Probabilidad 𝑃(𝐴│𝐵)=(𝑃(𝐴∩𝐵))/(𝑃(𝐵))=|𝐴∩𝐵|/|𝐵|
Probabilidad
condicional condicional

Eventos 𝑃(𝐴_1∩𝐴_2∩𝐴_𝑛 )=𝑃(𝐴_1) 〖𝑃 (𝐴 〗 _2) 〖…𝑃 (𝐴 〗 _𝑛)


independientes

𝑃(𝐴_1∩𝐴_2∩𝐴_𝑛 )=𝑃(𝐴_1 ) 〖𝑃 (𝐴 〗 _1 |
Teorema de la 𝐴_2) 〖 …𝑃 (𝐴 〗 _𝑛)𝑃(𝐴_1∩𝐴_2∩…
multiplicación ∩𝐴_(𝑛−1))
Teorema de Bayes
Teorema de Bayes

𝑃(𝐴_𝑖│𝐵)=(𝑃(𝐴_𝑖 )𝑃(𝐵 ┤|
Teorema de Bayes 𝐴_𝑖))/(∑24_(𝑖=1)^𝑛▒ 〖𝑃 (𝐴_𝑖
)𝑃(𝐵 ┤| 𝐴_𝑖) 〗 )
Probabilidad
Datos Observaciones

n: Número de posibilidades que te


interesan Este es el enfoque general de las probabilidades
t: Número total de posibilidades

a: Número de veces que sucede lo que te La ventaja se escribe como una razón, donde el
interesa numerador es la cantidad de veces que pasa lo
que te interesa, y b es la cantidad de veces que
pasa lo que NO te interesa. Nota que a + b es el
b: Número de veces que sucede lo que total de posibilidades
NO te interesa

S: Espacio muestral
Estos axiomas son los principales dentro de la
probabilidad, no los usarás para demostrar algo,
pero es importante los tengas en mente

A: Evento dentro del espacio muestral S

φ: Conjunto vacío

Estos axiomas serán muy similares a los


principios de la cardinalidad de conjuntos, es una
forma de que te los aprendas rápido
A, B y C eventos cualesquiera

𝐴∩𝐵|/|𝐵|A y B dos conjuntos cualesquiera Puedes interpretarlo como la probabilidad de


que A y B ocurra sobre la probabilidad de que
ocurra B

…𝑃 (𝐴 〗 _𝑛)

Estas fórmulas no las aplicarás tal cual las


encuentras aquí, la manera más sencilla de
A y B dos conjuntos cualesquiera
abordar estos problemas es mediante un
esquema y el lenguaje coloquial
Estas fórmulas no las aplicarás tal cual las
encuentras aquí, la manera más sencilla de
A y B dos conjuntos cualesquiera
abordar estos problemas es mediante un
esquema y el lenguaje coloquial
Distribuciones de prob
Tipo Nombre Fórmula o notación

𝑓(𝑥_𝑖 )≥0
Función de probabilidad
∑24_(𝑖=1)^𝑛▒ 〖𝑓 (𝑥_𝑖 )=1 〗

(0 −∞<𝑥<𝑥_1@𝑓(𝑥_1 ) 𝑥_1≤𝑥<𝑥_2@𝑓(𝑥_1 )+𝑓(𝑥_2 ) 𝑥_2≤𝑥<𝑥_3@…

Función de distribución
acumulada para una VAD

Distribuciones de
probabilidad de
variable discreta
𝐸(𝑋)= 𝜇_𝑋= ∑24_(𝑖=1)^𝑛▒ 〖𝑓 (𝑥_𝑖)𝑥_𝑖 〗
Esperanza o media de
una VAD

𝑉𝑎𝑟(𝑥)= 〖𝜎 _𝑥 〗 ^2=∑▒ 〖〖𝑥 _𝑖 〗 ^2 𝑓(𝑥_𝑖 )− 〖𝜇 _𝑥 〗 ^2 〗


Varianza para una VAD

𝜎_𝑥=√(∑▒ 〖〖𝑥 _𝑖 〗 ^2 𝑓(𝑥_𝑖 )−


Desviación para una VAD 〖𝜇 _𝑥 〗 ^2 〗 )= √(𝑉𝑎𝑟(𝑥))

𝑓(𝑥_𝑖 )≥0
Función de probabilidad
∫24_(−∞)^∞▒𝑓(𝑥)𝑑𝑥=1

𝐹(𝑋)= {█(0 −∞<𝑥<𝑥_0@∫24_(𝑥_0)^(𝑥_𝑛)▒ 〖𝑓 (𝑥)𝑑𝑥 𝑥_0≤𝑥<𝑥_𝑛 〗 @1


Función de distribución
acumulada para una VAC

Variable aleatoria
continua
Esperanza o media de
𝜇_𝑥=𝐸(𝑋)=∫24_(−∞)^∞▒𝑥𝑓(𝑥)𝑑𝑥
una VAC
Variable aleatoria
continua
Esperanza o media de
𝜇_𝑥=𝐸(𝑋)=∫24_(−∞)^∞▒𝑥𝑓(𝑥)𝑑𝑥
una VAC

𝑉𝑎𝑟(𝑥)= 〖𝜎 _𝑥 〗 ^2=∫24_(−∞)^∞▒ 〖𝑥 ^2 𝑓(𝑥)−


Varianza para una VAC
〖𝜇 _𝑥 〗 ^2 𝑑𝑥 〗

𝜎_𝑥= √(∫_(−∞)^∞▒ 〖𝑥 ^2 𝑓(𝑥)− 〖𝜇 _𝑥 〗 ^2 𝑑𝑥 〗 )=√(𝑉𝑎𝑟(𝑥))


Desviación para una VAC

Probabilidad de una VAD 𝑏(𝑛,𝑝,𝑘)=(𝑛¦𝑘) 𝑝^𝑘 𝑞^(𝑛−𝑘)


(valor exacto)

P(𝑘_0< 〖𝑥 <𝑘 〗 _𝑛 )=∑24_(𝑖=𝑘_0)^(𝑘_𝑛)▒ 〖 (𝑛¦𝑖) 𝑝^𝑖 𝑞^(𝑛−𝑖)


Probabilidad de una VAD
(rango de valores)

Distribución binomial
Media o esperanza en
una distribución binomial 𝐸(𝑋)= 𝜇_𝑋=𝑛𝑝

Varianza en una
distribución binomial 𝑉𝑎𝑟(𝑥)= 〖𝜎 _𝑥 〗 ^2=𝑛𝑝𝑞

Desviación de una
distribución binomial
𝜎_𝑥= √𝑛𝑝𝑞=√(𝑉𝑎𝑟(𝑥))

Valor esperado
𝜆=𝑛𝑝
Probabilidad de una VAD
𝑃(𝜆, 𝑘)= (𝜆^𝑘 𝑒^(−𝜆))/𝑘!
(valor exacto)
Distribución de
Poisson
P(𝑘_0< 〖𝑥 <𝑘 〗 _𝑛 )=∑_(𝑘=𝑘_0)^(𝑘_𝑛)▒(𝜆^𝑘 𝑒^(−𝜆))/𝑘!
Probabilidad de una VAD
(rango de valores)

Estandarización para x
𝑧= (𝑥−𝜇)/𝜎
Distribución normal
Estandarización para x

Distribución normal

𝜇=𝑛𝑝
Valor esperado
ones de probabilidad
Datos Observaciones

f(x): Función de probabilidad


Las funciones de probabilidad deben cumplir dos cosas, que la
suma de todas sus probabilidades sea 1 y que toda probabilidad
x: Variable aleatoria discreta (valores que sea mayor a 0
puede tomar nuestro evento)

2≤𝑥<𝑥_3@… …@1 𝑥_𝑛≤𝑥<∞)┤


La función de distribuci+on aleatoria para VAD en su gráfica será
una gráfica de escalera, para este caso se lee que la probabilidad
xi y f(xi) Son el dato y su respectiva es 0 desde menos infinito hasta antes del primer valor, luego vale
probabiliad la probabilidad del primer valor de x (x1) hasta antes del segundo
valor de x (x2). Y así sucesivamente, sumándose las
probabilidades

n: Número total de datos Para este caso, la media o esperanza será igual a la suma de cada
uno de los datos multiplicados por su probabilidad. Cuando se
x: Variable aleatoria discreta (valores que trata de un juego, si la media es igual a 0, se trata de un juego
puede tomar nuestro evento) justo. En caso contrario, la media nos dirá cuánto perdemos o
ganamos como jugadores
f(x): Función de probabilidad
µx: Media o esperanza
〖𝜇 _𝑥 〗 ^2 〗
x: Variable aleatoria discreta (valores que La varianza será igual a la suma del dato al cuadrado multiplicado
por su probabilidad menos la media al cuadrado. Similar a la
puede tomar nuestro evento)
varianza en estadística descriptiva
f(x): Función de probabilidad

Var(x): Varianza de la distribución de La desviación no será más que sacar raíz a la varianza que se
probabilidad calcula con la fórmula de arriba

f(x): Función de probabilidad


Las funciones de probabilidad para una VAC cumplirán lo mismo
que en una VAD, a excepción de que en lugar de hacer la suma
de valor por valor, se sumarán todos los valores infnitesimales
x: Variable aleatoria continua (valores que (es por ello que integramos en lugar de sumar valor por valor)
puede tomar nuestro evento)

≤𝑥<𝑥_𝑛 〗 @1 𝑥_𝑛≤𝑥<∞)┤
x y f(x) son la variable aleatoria continua y A diferencia de la VAD, en la VAC se hará igual una función a
la función de distribución de trozosz solo que empezará con 0, continuará con la primitiva (o la
probabilidades, respectivamente integral definida) y terminará en 1

n: Número total de datos La media en la VAD será la misma que la VAC, solo que en lugar
de que sumes valor por valor, harás la suma de los infinitesimales
(integrando). Prácticamente NUNCA vas a integrar de menos
infinito a infinito, solo integrarás en los valores que esté definida
la función.
La media en la VAD será la misma que la VAC, solo que en lugar
de que sumes valor por valor, harás la suma de los infinitesimales
x: Variable aleatoria discreta (valores que (integrando). Prácticamente NUNCA vas a integrar de menos
puede tomar nuestro evento) infinito a infinito, solo integrarás en los valores que esté definida
la función.
f(x): Función de probabilidad
µx: Media o esperanza
𝑓(𝑥)− 〖𝜇x:_𝑥Variable 〗
〗 ^2 𝑑𝑥aleatoria discreta (valores que Al igual que en la varianza para una VAD, en lugar de sumar valor
por valor, sumas infinitesimales (integras). De igual forma,
puede tomar nuestro evento)
NUNCA vas a integrar de menos infinito a infinito, solo en los
f(x): Función de probabilidad valores donde tu integral está definida
=√(𝑉𝑎𝑟(𝑥)) Al igual que en la desviación para una VAD, tu desviación solo
Var(x): Varianza de la distribución de
será la raíz cuadrada de la varianza que calculaste con la fórmula
probabilidad
de arriba

n: Número total de experimentos La distribución binomial solo funciona cuando se dan dos casos, o
que suceda o que no suceda. Para la probabiliad se ocupan los
modelos ya descritos, multiplicamos el número total de casos
que se pueden dar por k veces la probabilidad de que ocurran y
por n-k (veces que no ocurre) la probabilidad que no ocurra. En
▒ 〖 (𝑛¦𝑖) 𝑝^𝑖 𝑞^(p:𝑛−Probabilidad
𝑖) 〗 de ocurrencia
un rango de valores se aplica la misma situación pero sumando
las distintas probabilidades de cada caso

La media en una distribución binomial usualmente la encontrarás


k: Número de veces que ocurre p como "el valor esperado". Y no es más que el número de
experimentos totales multiplicado por la probabilidad de
ocurrencia.

Dificilmente ocuparás la varianza o la desviación para una VAD


con distribución binomial, pero si es el caso, la varianza no será
q: Probabilidad de no ocurrencia (1-p) más que la multiplicación de el número total de experimentos,
por por la probabilidad de ocurrencia y la probabilidad de no
ocurrencia

n: Número total de experimentos


p: Probabilidad de ocurrencia

λ: Valor esperado La distribución de Poisson es similar a la binomial, de hecho, se


trata de una aproximación, especialmente cuando n es muy
grande y p es muy pequeña (Un ejemplo es en las fábricas de
piezas y la probabilidad en que salga una pieza mala) o cuando
▒(𝜆^𝑘 𝑒^(−𝜆))/𝑘! solo conocemos el valor esperado, el promedio o la media

k: Número de veces que ocurre p

x: Valor del que obtendremos su


estandarización para la tabla de valores

μ: Media de la distribución
En la distribución normal SIEMPRE se te indicará si ese problema
necesita de la distribución, para obtener los valores se hace
mediante la gráfica con el área bajo la curva, obtenida de la tabla
junto con el valor de x que obtuvimos
En la distribución normal SIEMPRE se te indicará si ese problema
σ: Desviación de la distribución necesita de la distribución, para obtener los valores se hace
mediante la gráfica con el área bajo la curva, obtenida de la tabla
n: Número total de experimentos junto con el valor de x que obtuvimos
p: Probabilidad de ocurrencia, obtenida
con el área bajo la curva de la distriución
normal

También podría gustarte