Está en la página 1de 9

Universidad Autónoma de Querétaro 

Facultad de Química
Ingeniería en biotecnología
Abril Montes Hernández
Expediente: 250792

MODELOS DE DISTRIBUCIÓN DE DATOS


MODELOS DISCRETOS
1.- DISTRIBUCIÓN DICOTÓMICA. (Bernoulli).

El campo de variación de la variable es: {0,1}. y la función de cuantía es:

P(X=0) = q = 1-p

P(X=1)= p .

Si una variable aleatoria X sigue o tiene una distribución dicotómica de parámetro p se


expresa como X ~ D(p).

Modeliza situaciones en las que:

· Se realiza una prueba

· Que sólo puede dar dos resultados posibles: A y A

· La probabilidad del resultado A es P(A) = p y la del resultado A es P(A)= q=1-p.

· En estas circunstancias la variable aleatoria X significa "nº de resultados A que se


obtienen.

2.- DISTRIBUCIÓN BINOMIAL.

El campo de variación de la variable es {0,1,2,3,..., n} y la función de cuantía es:

para valores de x= 0,1,2,...n siendo nÎ N , p Î [0,1] y q=1-p

Si una variable aleatoria, X, sigue una distribución binomial de parámetros n y p se expresa


como: X ~ B(n,p).

Situaciones que modeliza:


· Se realiza un número n de pruebas (separadas o separables).

· Cada prueba puede dar dos únicos resultados A y Ã

· La probabilidad de obtener un resultado A es p y la de obtener un resultado à es q, con


q= 1-p, en todas las pruebas. Esto implica que las pruebas se realizan exactamente en las
mismas condiciones. Si se trata de extracciones, (muestreo), las extracciones deberán ser
con devolución (reemplazamiento) (M.A.S).

3.DISTRIBUCIÓN HIPERGEOMÉTRICA

Dada la siguiente situación:

 Una población constituida por N individuos en total.


 De los cuales Np individuos son del tipo A , y Nq individuos son del tipo Ã.

4. DISTRIBUCIÓN DE POISSON

Formalmente: dada una variable aleatoria X con campo de variación

X Î {0,1, 2,..., ¥ }, es decir X Î N cuya función de cuantía sea:

siendo l un parámetro positivo

diremos que X sigue una distribución de Poisson de parámetro l , X ~ P(l ).

Situaciones que modeliza:

 Se observa la ocurrencia de hechos de cierto tipo durante un período de tiempo o


a lo largo de un espacio, considerados unitarios
 El tiempo (o el espacio) pueden considerarse homogéneos, respecto al tipo de
hechos estudiados, al menos durante el período experimental; es decir, que no hay
razones para suponer que en ciertos momentos los hechos sean más probables
que otros.
 En un instante (infinitesimal) sólo puede producirse como mucho un hecho (se
podrá producir o uno o ninguno).
 La probabilidad de que se produzca un hecho en un intervalo infinitesimal es
prácticamente proporcional a la amplitud del intervalo infinitesimal.

5. DISTRIBUCIÓN BINOMIAL NEGATIVA

6. DISTRIBUCIÓN UNIFORME SOBRE N PUNTOS

MODELOS CONTINUOS
1.DISTRIBUCIÓN UNIFORME (DE V. CONTINUA)
Dada una variable aleatoria continua, X, definida en el intervalo [a,b] de la recta real,
diremos que X tiene una distribución uniforme en el intervalo [a,b] cuando su función
de densidad sea: X ~ U([a,b])

f(x)= 1/(b-a) para x Î [a,b].

De manera que la función de distribución resultará:

0 para x < a

1 para x ³ b
Es fácil comprobar que m =(b+a)/2 y que s2 = (b-a)2/12

2. DISTRIBUCIÓN EXPONENCIAL

Dada una variable aleatoria continua, X , definida para valores reales positivos.

diremos que X tiene una distribución exponencial de parámetro a cuando su función de


densidad sea: f(x) = a e-a x para x ³ 0 ( siendo el parámetro a positivo)

La función de distribución será

=0 para x < 0

F(x) = {

F.G.M.
Si derivamos la F.G.M. en el punto t=0 obtendremos que m = 1/a

Y derivando por segunda vez en t= 0 obtendremos el momento ordinario de segundo


orden, y a partir de él la varianza: s 2= 1 /a2

la moda es 0 y la mediana ln2/a

3.DISTRIBUCIÓN NORMAL (ir a distribución normal)

La distribución normal es la más importante de todas las distribuciones de probabilidad.Es


una distribución de variable continua con campo de variación [-¥ ,¥ ], que queda
especificada a través de dos parámetros ( que acaban siendo la media y la desviación
típica de la distribución).

Una variable aleatoria continua, X, definida en [-¥ ,¥ ] seguirá una distribución normal de
parámetros m y s , ( X ~ N(m ; s ) ) , si su función de densidad es :

 para x Î [-¥ ,¥ ]

cuya representación gráfica es:


Importancia de la distribución Normal.

a) Enorme número de fenómenos que puede modelizar: Casi todas las características
cuantitativas de las poblaciones muy grades tienden a aproximar su distribución a una
distribución normal.

b) Muchas de las demás distribuciones de uso frecuente, tienden a distribuirse según una
Normal, bajo ciertas condiciones.

c) (En virtud del teorema central del límite).Todas aquellas variables que pueden
considerarse causadas por un gran número de pequeños efectos (como pueden ser los
errores de medida) tienden a distribuirse según una distribución normal.

La probabilidad de cualquier intervalo se calcularía integrando la función de densidad a


lo largo de ese de intervalo, pero no es necesario nunca resolver la integral pues existen
tablas que nos evitan este problema.

F.G.M.: puede probarse que la función generatriz de momentos de una distribución


N(m ; s ) es:

f (t) = E(etx) = e(m t + ½ s2t2)

A partir de ella es fácil comprobar como efectivamente la media de la distribución es el


parámetro m y, cómo su varianza es el parámetro s .

Igualmente puede comprobarse que la distribución es simétrica y que su curtósis es nula.

Propiedad importante: "CUALQUIER TRANSFORMACIÓN LINEAL DE UNA VARIABLE


ALEATORIA NORMAL TIENE TAMBIÉN UNA DISTRIBUCIÓN NORMAL DONDE LA MEDIA DE
LA NUEVA VARIABLE ES LA MISMA TRANSFORMACIÓN LINEAL DE LA MEDIA DE LA
ANTIGUA Y DONDE LA DESVIACIÓN TÍPICA ES LA DESVIACIÓN TÍPICA ANTIGUA
MULTIPLICADA POR EL COEFICIENTE ANGULAR DE LA TRANSFORMACIÓN":

Dada una variable X ~ N(m ; s ) si la nueva variable Y es Y = a+bX

Y~ N(a+bm ; bs ) :

en efecto: la F.G.M de la distribución de X será:

E(etx) = e(m t + ½ s2t2)

y la F.G.M. de la distribución de Y será:

fy(t)= eat.fx(bt) = eat .e(m bt + ½ s2b2t2) = e((a+bm )t + (bs )2t2)


que es la F.G.M de una distribución N (a+bm ; bs ) //*q.e.d.*//

Consecuencia importante de esto es que si se tipifica una variable X / X ~ N(m ; s ) la nueva


variable Z = tendrá una distribución N(0,1).

La distribución N(0,1) se conoce con el nombre de Normal tipificada o reducida y tiene una
importancia teórica y práctica fundamental. Su Función de distribución está tabulada y
ello nos permite calcular directamente cualquier probabilidad de cualquier intervalo de
cualquier distribución normal ( X ~ N(m ; s )), sin necesidad de integrar.

En efecto: si X ~ N(m ; s ) y queremos calcular P(XΠ[a,b])==P(a£ X £ b) =

donde F es la F. de distribución de una Normal tipificada, que puede evaluarse a través de


las tablas.

Bibliografía
http://www4.ujaen.es/~mjolmo/EstadI/LADE_DCHO/Distribuciones.pdf

https://www.uv.es/ceaces/base/modelos%20de
%20probabilidad/MODEPR1.htm#:~:text=Los%20modelos%20discretos%2C%20son
%20modelos,1.&text=Si%20una%20variable%20aleatoria%20X,X%20~%20D(p).
DISEÑOS EXPERIMENTALES
Los modelos de diseño de experimentos son modelos estadísticos clásicos cuyo objetivo es
averiguar si unos determinados factores influyen en una variable de interés y, si existe
influencia de algún factor, cuantificar dicha influencia.

La metodología del diseño de experimentos se basa en la experimentación. El objetivo del


diseño de experimentos es estudiar si cuando se utiliza un determinado tratamiento se
produce una mejora en el proceso o no. Para ello se debe experimentar aplicando el
tratamiento y no aplicándolo. Si la variabilidad experimental es grande, sólo se detectará
la influencia del uso del tratamiento cuando éste produzca grandes cambios en relación
con el error de observación.

La metodología del diseño de experimentos estudia cómo variar las condiciones


habituales de realización de un proceso empírico para aumentar la probabilidad de
detectar cambios significativos en la respuesta; de esta forma se obtiene un mayor
conocimiento del comportamiento del proceso de interés. Para que la metodología de
diseño de experimentos sea eficaz es fundamental que el experimento esté bien diseñado.

Principios básicos en el diseño de experimentos

Al planificar un experimento hay tres principios básicos que se deben tener siempre en

cuenta:

— El principio de aleatorización.

— El bloqueo.

— La factorización del diseño.

Los dos primeros (aleatorizar y bloquear) son estrategias eficientes para asignar los
tratamientos a las unidades experimentales sin preocuparse de qué tratamientos
considerar. Por el contrario, la factorización del diseño define una estrategia eficiente para
elegir los tratamientos sin

considerar en absoluto como asignarlos después a las unidades experimentales.

Aleatorizar: “Aleatorizar todos los factores no controlados por el experimentador en el


diseño experimental y que pueden influir en los resultados serán asignados al azar a las
unidades experimentales”.

Ventajas de aleatorizar los factores no controlados:


— Transforma la variabilidad sistemática no planificada en variabilidad no planificada o
ruido aleatorio. Dicho de otra forma, aleatorizar previene contra la introducción de sesgos
en el experimento.

— Evita la dependencia entre observaciones al aleatorizar los instantes de recogida


muestral.

— Valida muchos de los procedimientos estadísticos más comunes.

Bloquear: “Se deben dividir o particionar las unidades experimentales en grupos llamados
bloques de modo que las observaciones realizadas en cada bloque se realicen bajo
condiciones experimentales lo más parecidas posibles”.

A diferencia de lo que ocurre con los factores tratamiento, el experimentador no está


interesado en investigar las posibles diferencias de la respuesta entre los niveles de los
factores bloque.

Bloquear es una buena estrategia siempre y cuando sea posible dividir las unidades
experimentales en grupos de unidades similares.

La ventaja de bloquear un factor que se supone que tienen una clara influencia en la
respuesta, pero en el que no se está interesado, es la siguiente: Convierte la variabilidad
sistemática no planificada en variabilidad sistemática planificada.

Diseños experimentales clásicos

Diseño completamente aleatorizado

Diseño en bloques o con un factor bloque

Diseños con dos o más factores bloque

Diseños con dos o más factores

Diseños factoriales a dos niveles

Bibliografía

http://www.est.uc3m.es/esp/nueva_docencia/getafe/ciencias_estadisticas/diseno_experi
mentos/materialest/IntroDE.pdf

También podría gustarte