Está en la página 1de 8

TECNOLÓGICO NACIONAL DE MÉXICO

INSTITUTO TECNOLÓGICO DE TEHUACÁN

CARRERA: CONTADOR PUBLICO

ASIGNATURA: FUNDAMENTOS DE AUDITORIA

PERÍODO: ENERO – JUNIO 2023

NOMBRE DEL ALUMNO: MARTÍNEZ MARTÍNEZ MARTIN ÁNGEL


NÚMERO DE CONTROL: 21360097

CATEDRÁTICO: LIC. CYNTIA GARCÍA ORTEGA

TEHUACÁN, PUE., A 02 DE JUNIO DE 2022.

TIPOS DE DISTRIBUCIÓNES DE PROBABILIDAD


Una distribución de probabilidad es un modelo teórico que trata de explicar el
comportamiento de un fenómeno real. Actúa como una función que asigna a cada
suceso, cuantificado mediante una variable aleatoria, la probabilidad
correspondiente. Los valores de una variable sirven para describir o clasificar
individuos o distinguir entre ellos. La mayoría de nosotros hacemos algo más que
simplemente describir, clasificar o distinguir, porque tenemos ideas respecto a las
frecuencias relativas de los valores de una variable. En estadística decimos que la
variable tiene una función de probabilidad, una función de densidad de
probabilidad o simplemente una función de distribución. Las distribuciones de
probabilidad están relacionadas con la distribución de frecuencias. De hecho,
podemos pensar en la distribución de probabilidad como una distribución de
frecuencias teóricas. Una distribución de frecuencias teórica es una distribución de
probabilidades que describe la forma en que se espera que varíen los resultados.
Debido a que estas distribuciones tratan sobre expectativas de que algo suceda,
resultan ser modelos útiles para hacer inferencias y tomar decisiones de
incertidumbre.
Los objetivos de distribuciones de probabilidad son:
a) Introducir las distribuciones de probabilidad que más se utilizan en la toma
de decisiones.
b) Utilizar el concepto de valor esperado para tomar decisiones.
c) Mostrar qué distribución de probabilidad utilizar, y cómo encontrar sus
valores.
d) Entender las limitaciones de cada una de las distribuciones de probabilidad
que utilice.
VARIABLES ALEATORIAS DISCRETAS
Comenzaremos por definir lo que se entiende por variable aleatoria: una variable
aleatoria X es una función que asocia un número real a cada punto del espacio
muestral. Dado un experimento aleatorio cualquiera cuyos sucesos elementales
posibles pueden identificarse fácilmente mediante un número real, se denomina
Variable Aleatoria X, al conjunto de estos números. Una variable aleatoria discreta
produce como resultado un número finito de valores, por lo que su recorrido es
finito. Así, la variable aleatoria discreta, tiene un conjunto definido de valores
posibles x1, x2, x3, …..xn, con probabilidades respectivas p1, p2, p3, …..pn. Es
decir, sólo puede tomar ciertos valores dentro de un campo de variación dado.
Como X ha de tomar uno de los valores de este conjunto, entonces p1+p2+p3,
+pn=1. En general, una variable aleatoria discreta X representa los resultados de
un espacio muestral en forma tal que por P (X = x) se entenderá la probabilidad de
que X tome el valor de x. De esta forma, al considerar los valores de una variable
aleatoria es posible desarrollar una función matemática que asigne una
probabilidad a cada realización x de la variable aleatoria X. Esta función recibe el
nombre de función de la probabilidad. Dentro de este tipo de variables
encontremos las siguientes distribuciones más significativas:
 Distribución uniforme
 Distribución binomial
 Distribución poisson
DISTRIBUCIÓN UNIFORME
La distribución uniforme discreta describe el comportamiento de una variable
discreta que puede tomar n valores distintos con la misma probabilidad cada uno
de ellos. Un caso particular de esta distribución ocurre cuando los valores son
enteros consecutivos. Esta distribución asigna igual probabilidad a todos los
valores enteros entre el límite inferior y el límite superior que definen el recorrido
de la variable. Si la variable puede tomar valores entre a y b, debe ocurrir que b
sea mayor que a, y la variable toma los valores enteros empezando por a, a+1,
a+2, etc. hasta el valor máximo b. Por ejemplo, cuando se observa el número
obtenido tras el lanzamiento de un dado perfecto, los valores posibles siguen una
distribución uniforme discreta en {1, 2, 3, 4, 5, 6}, y la probabilidad de cada cara es
1/6. Valores:
k: a, a+1, a+2, ..., b, números enteros
Parámetros:
a: mínimo, a entero
b: máximo, b entero con a < b

DISTRIBUCIÓN BINOMIAL
La distribución binomial es una distribución discreta muy importante que surge en
muchas aplicaciones bioestadísticas. Fue obtenida por Jakob Bernoulli (1654-
1705) y publicada en su obra póstuma Ars Conjectandi en 1713. Esta distribución
aparece de forma natural al realizar repeticiones independientes de un
experimento que tenga respuesta binaria, generalmente clasificada como “éxito” o
“fracaso”; este experimento recibe el nombre de experimento de Bernoulli.
Ejemplos de respuesta binaria pueden ser el hábito de fumar (sí/no), si un
paciente hospitalizado desarrolla o no una infección, o si un artículo de un lote es
o no defectuoso. La variable discreta que cuenta el número de éxitos en n pruebas
independientes de ese experimento, cada una de ellas con la misma probabilidad
de “éxito” igual a p, sigue una distribución binomial de parámetros n y p, que se
denota por (Bi (n, p)). Este modelo se aplica a poblaciones finitas de las que se
toman elementos al azar con reemplazo, y también a poblaciones
conceptualmente infinitas, como por ejemplo las piezas que produce una máquina,
siempre que el proceso de producción sea estable (la proporción de piezas
defectuosas se mantiene constante a largo plazo) y sin memoria (el resultado de
cada pieza no depende de las anteriores). Un ejemplo de variable binomial puede
ser el número de pacientes con cáncer de pulmón ingresados en una unidad
hospitalaria. Un caso particular se tiene cuando n=1, que da lugar a la distribución
de Bernoulli.
Las características básicas de una distribución binomial son:
 Cada prueba del experimento aleatorio presenta dos únicas opciones, que
puede designarse como éxito (E) y fracaso (F).
 Se realizan n ensayos del experimento, independientes unos de otros e
idénticos.
 La probabilidad de éxito es constante a lo largo de las n pruebas: PE p () = .
 La probabilidad de fracaso también es constante: PF q p () = = −1
 Una distribución de estas características también recibe el nombre de
pruebas de Bernuilli.
DISTRIBUCIÓN POISSON
La distribución de Poisson debe su nombre al matemático francés Simeón Denis
Poisson (1781-1840), aunque ya había sido introducida en 1718 por Abraham De
Moivre (1667-1754) como una forma límite de la distribución binomial que surge
cuando se observa un evento raro después de un número grande de repeticiones.
En general, la distribución de Poisson de parámetro se puede utilizar como una
aproximación de la binomial, Bin (n, p), si el número de pruebas n es grande, pero
la probabilidad de éxito p es pequeña, siendo = np; podemos considerar que la
aproximación Poisson-binomial es “buena” si n: 20 y p: 0,05 y “muy buena” si n:
100 y p: 0,01. La distribución de Poisson se puede entender como un caso
particular de la Binomial que utilizamos para determinadas distribuciones en las
que el cálculo de la probabilidad es engorroso debido bien a que el número de
pruebas es excesivamente elevado o bien a que la probabilidad de éxito es
excesivamente baja; en ambos casos la media (n*p) es muy pequeña en relación
con el número de pruebas (n). En estos casos se puede demostrar que la
distribución binomial converge, tiende a comportarse, como una distribución de
Poisson. Como regla práctica entenderemos que es aplicable la distribución de
Poisson en aquellas binomiales cuya media tenga un valor inferior a 5 y el número
de pruebas sea superior a 30.
VARIABLES ALEATORIAS CONTINUAS
Una variable aleatoria continua es la que puede tomar un número infinitamente
grande de valores que corresponden a los puntos en un intervalo de una recta.
Las estaturas y los pesos de las personas, el tiempo entre dos eventos o la vida
útil de un equipo de oficina, son ejemplos típicos de variables aleatorias continuas.
El modelo probabilístico para la distribución de frecuencias de una variable
aleatoria continua implica la selección de una curva, generalmente regular o
aislada, a la que se llama distribución de probabilidad o función de densidad de
probabilidad de una variable aleatoria. Si la ecuación de esta distribución de
probabilidad continua es f(x), entonces la probabilidad de que x esté en el intervalo
a < x < b es el área bajo la curva de distribución para f(x) entre los dos puntos a y
b (Figura 1). Esto concuerda con la interacción de un histograma de frecuencias
relativas, donde las áreas sobre un intervalo, bajo el histograma, correspondieron
a la proporción de observación que cae en dicho intervalo. Ya que el número de
valores que puede tomar x es infinitamente grande y no se puede contar, la
probabilidad de que x sea igual a un valor específico, por ejemplo, a, es 0.
Entonces las afirmaciones probabilísticas acerca de las variables aleatorias
continuas siempre corresponden a áreas bajo la distribución de probabilidad sobre
un intervalo, por ejemplo, de a b, y se expresan como P (a < x< b). Nótese que la
probabilidad en a < x <b es igual a la probabilidad de que a < x = b, pues P (x = a)
= P (x = b) = 0. Hay muchas distribuciones de probabilidad continuas y cada una
se representa mediante una ecuación f(x), que se escoge de la manera que el
área total bajo la curva de distribución de probabilidad sea igual a 1. Dentro de
estas variables encontramos las siguientes distribuciones más relevantes.
 Distribución normal
 Distribución T de Student
DISTRIBUCIÓN NORMAL
Es una distribución de probabilidad continúa asociada (teóricamente) a multitud de
fenómenos naturales y cotidianos (cociente intelectual, talla o peso de las
personas; tamaño de los frutos de cualquier tipo de árbol…), que se caracterizan
porque la mayoría de los resultados tienden a agruparse en torno a su media. Una
variable con distribución normal queda totalmente definida por su media µ y por su
desviación típica σ. Se denota como N (µ, σ). Su gráfica es la conocida “campana
de Gauss”.

La importancia de la distribución normal queda totalmente consolidada por ser la


distribución límite de numerosas variables aleatorias, discretas y continuas, como
se demuestra a través de los teoremas centrales del límite. Las consecuencias de
estos teoremas implican la casi universal presencia de la distribución normal en
todos los campos de las ciencias empíricas: biología, medicina, psicología, física,
economía, etc. En particular, muchas medidas de datos continuos en medicina y
en biología (talla, presión arterial, etc.) se aproximan a la distribución normal.
Junto a lo anterior, no es menos importante el interés que supone la simplicidad de
sus características y de que de ella derivan, entre otras, tres distribuciones (ji-
cuadrado, t de Student y F de Snedecor) que se mencionarán más adelante, de
importancia clave en el campo de la contrastación de hipótesis estadísticas. La
distribución normal queda totalmente definida mediante dos parámetros: la media
y la desviación estándar o desviación típica. Su función de densidad es simétrica
respecto a la media y la desviación estándar nos indica el mayor o menor grado de
apertura de la curva que, por su aspecto, se suele llamar campana de Gauss. Esta
distribución se denota por N.
DISTRIBUCIÓN T DE STUDENT
Esta distribución fue propuesta y tabulada por William Sealy Gosset (1876-1937),
más conocido por el seudónimo de Student, como resultado de un estudio sobre la
estimación de la media cuando el tamaño de muestra es pequeño, estos
resultados fueron publicados en 1908 en el artículo The Probable Error of a Mean
[13]. La distribución t de Student queda completamente definida por medio de sus
grados de libertad, n, y se denota por TN. Surge cuando se plantea estudiar el
cociente entre una variable aleatoria con distribución normal estándar y la raíz
cuadrada del cociente entre una variable aleatoria con distribución ji-cuadrado y
sus grados de libertad (n), siendo las dos variables independientes. Esta
distribución desempeña un papel muy importante en la inferencia estadística
asociada a la teoría de muestras pequeñas y es usada habitualmente en el
contraste de hipótesis para la media de una población o para comparar medias de
dos poblaciones. En cuanto a la forma que presenta su función de densidad cabe
destacar las similitudes que mantiene con la función de densidad de la distribución
normal estándar: forma acampanada, simétrica y centrada en el origen; la única
diferencia existente entre ambas distribuciones es que la función de densidad de
la t de Student presenta unas colas más pesadas (mayor dispersión) que la
normal. Cabe destacar que el programa sólo permite realizar el cálculo para una
distribución t de Student con 150 grados de libertad o menos. Esto no supone una
limitación ya que, a medida que aumentan los grados de libertad, esta distribución
se va aproximando a la normal estándar, de forma que a partir de ese valor de n
pueden considerarse prácticamente idénticas. La distribución t de Student con 1
grado de libertad coincide con la distribución de Cauchy estándar.

También podría gustarte