P. 1
Fenómeno aleatorio PROCESOS ESTOCASTICOS

Fenómeno aleatorio PROCESOS ESTOCASTICOS

|Views: 12|Likes:
Publicado porkillroy72

More info:

Published by: killroy72 on Feb 19, 2014
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOCX, PDF, TXT or read online from Scribd
See more
See less

12/07/2014

pdf

text

original

Fenómeno aleatorio En estadística, un experimento aleatorio es aquel que bajo el mismo conjunto aparente de condiciones iniciales, puede presentar

resultados diferentes, es decir, no se puede predecir el resultado exacto de cada experiencia particular. (Ej: Lanzamiento de un dado). Este tipo de fenómeno es opuesto al fenómeno determinista, en el que conocer todos los factores de un experimento nos hace predecir exactamente el resultado del mismo. Por ejemplo, conociendo la altura desde la que se arroja un móvil es posible saber exactamente el tiempo que tardará en llegar al suelo en condiciones de vacío. Propiedades Un experimento se dice aleatorio si verifica las siguientes condiciones:  Si los resultados se pueden contar se le llama experimento aleatorio numerable; y si no se pueden contar, se le llama experimento aleatorio no numerable. Si es posible conocer previamente todos los posibles resultados (el espacio muestral, constituido por diferentes sucesos) o por lo menos nombrar al último resultado se le llama experimento aleatorio finito; y si no se puede nombrar al último resultado, se le llama experimento aleatorio infinito. Es imposible predecir el resultado exacto del mismo antes de realizarlo. A cada realización de un experimento se le llama experiencia o prueba.

 

Distribución de probabilidad

La distribución Normal suele conocerse como la "campana de gauss". En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable aleatoria es una función que asigna a cada suceso definido sobre la variable aleatoria la probabilidad de que dicho suceso ocurra. La distribución de probabilidad está definida sobre el conjunto de todos los eventos rango de valores de la variable aleatoria.

Cuando la variable aleatoria toma valores en el conjunto de los números reales, la distribución de probabilidad está completamente especificada por la función de distribución, cuyo valor en cada real x es la probabilidad de que la variable aleatoria sea menor o igual que x.

Definición de función de distribución Dada una variable aleatoria todos son puntos distribución, , es , su función de

Por simplicidad, cuando no hay lugar a confusión, suele omitirse el subíndice y se escribe, simplemente, . Propiedades Como consecuencia casi inmediata de la definición, la función de distribución:   Es una función continua por la derecha. Es una función monótona no decreciente.

Además, cumple

y

Para dos números reales cualesquiera a y b tal que (a < b), los sucesos y suceso son mutuamente excluyentes y su unión es el , por lo que tenemos entonces que:

y finalmente

Por lo tanto una vez conocida la función de distribución F(x) para todos los valores de la variable aleatoria x conoceremos completamente la distribución de probabilidad de la variable.

y sin embargo para ver una representación gráfica de la probabilidad es más práctico el uso de la función de densidad. Se denomina distribución de variable discreta a aquella cuya función de probabilidad sólo toma valores positivos en un conjunto de valores de X finito o infinito numerable. En este caso la distribución de probabilidad es el sumatorio de la función de masa. Distribuciones de variable discreta Distribución binomial. esta expresión representa la suma de todas las probabilidades desde hasta el valor x. tal como corresponde a la definición de distribución de probabilidad. por lo que tenemos entonces que: Y. que toma el valor 1 con probabilidad 1 / 2 y el valor -1 con probabilidad 1 / 2. Distribuciones de variable discreta más importantes Las distribuciones de variable discreta más importantes son las siguientes:         Distribución binomial Distribución binomial negativa Distribución Poisson Distribución geométrica Distribución hipergeométrica Distribución de Bernoulli Distribución Rademacher. . donde todos los elementos de un conjunto finito son equiprobables.Para realizar cálculos es más cómodo conocer la distribución de probabilidad. Distribución uniforme discreta. A dicha función se le llama función de masa de probabilidad.

S. cruz)}. cara). y se podría construir un espacio de muestreo que describiese cada carta individual como el producto cartesiano de los dos espacios de muestreo descritos. cruz)}. (cara. Una descripción completa de los resultados. por lo que tenemos entonces que: Espacio muestral En la teoría de probabilidades. tréboles. cruz)}. Por ejemplo. una posibilidad del espacio de muestreo podría ser el número (del as al rey). Un evento o suceso es cualquier subconjunto del espacio muestral. En el ejemplo. estaría formado por los sucesos elementales {(cara. cara)} y {(cara. mientras que otra posibilidad sería el palo (diamantes. cuando se toma una carta de un mazo normal de 52 cartas. pero son también importantes . cara) y (cruz. el suceso "sacar cara en el primer lanzamiento". Por ejemplo. el espacio muestral o espacio de muestreo (denotado E. o {(cara. sin embargo. cara). el espacio de muestreo es el conjunto {(cara.Distribuciones de variable continua Distribución normal. Se denomina variable continua a aquella que puede tomar cualquiera de los infinitos valores existentes dentro de un intervalo. corazones y picas). Ω o U) consiste en el conjunto de todos los posibles resultados individuales de un experimento aleatorio. (cruz. Los espacios de muestreo aparecen de forma natural en una aproximación elemental a la probabilidad. llamándose a los sucesos que contengan un único elemento sucesos elementales. cruz). Para algunos tipos de experimento puede haber dos o más espacios de muestreo posibles. si el experimento consiste en lanzar dos monedas. número y palo. En el caso de variable continua la distribución de probabilidad es la integral de la función de densidad. especificaría ambos valores. (cara.

Se representan con diagrama de árbol. Ejemplo Imaginemos que se lanzan una moneda y un dado . Tipos de espacio muestral Podemos diferenciar entre dos tipos de espacios muestrales: discretos y continuos. Espacio Probabilístico discreto Es aquel cuyo espacio muestral es discreto. Procesos Estocasticos Finitos Y Diagramas de Árbol Un proceso estocástico es una sucesión finita de experimentos aleatorios.en espacios de probabilidad. F. cada uno de ellos con un nº finito de resultados posibles. Discretos Son aquellos espacios donde el número de sucesos elementales es finito o infinito numerable. Un espacio de probabilidad (Ω. la σ-álgebra F. Hay al menos 2 sucesos elementales que cumplen.Podemos diferenciar varios tipos de espacio probabilístico discreto: Espacio Probabilistico Discreto Equiprobable   Su espacio muestral es finito de tamaño n. La probabilidad de cualquier suceso elemental E es . por la cuál se define la medida de probabilidad P. Ω. pero define un conjunto de sucesos de interés. de aquí se deduce que para todo suceso A la probabilidad es Espacio Probabilistico Finito   Su espacio muestral es discreto finito. P) incorpora un espacio de muestreo de resultados.

Tiene sentido hablar de intervalos observados. se asignana intervalos. Por tanto la función P está definida sobre intervalos -----> P(Ki < Exp > Ke)   -Habitualmente cuando trabajamos con magnitudes físicas.No es posible asignar probabilidad a un punto concreto. La probabilidad de sacar una cara y un tres será ---->   La probabilidad de un suceso cualquiera es la suma de las probabilidades de los caminos La probabilidad de sacar impar será ---->  Espacio Probabilistico Infinito Contable Aquel cuyo espacio muestral es discreto infinito contable. La probabilidad de un camino es la multiplicacion de sus probabilidades. Por ejemplo   La probabilidad de que salga cara en la primera tirada ----> La probabilidad de que salga cara en la segunda tirada ---->  La probabilidad de que salga cara en la tercera tirada ----> Continuos Son aquellos espacios donde el número de sucesos elementales es infinito incontable. . Espacio probabilístico contínuo  Espacio muestral infinito no numerable. . -No es posible observar puntos concretos del espacio.

del que se conocen todos los resultados posibles. bajo condiciones suficientemente estables. Por otra parte.Particiones Es posible definir particiones sobre el espacio muestral. Formalmente hablando. por lo que el valor de p cae entre 0 y 1. que dos no pueden ocurrir al mismo tiempo. . la probabilidad de que un evento "no ocurra" equivale a 1 menos el valor de p y se denota con la letra q: Los tres métodos para calcular las probabilidades son la regla de la adición. como la teoría DempsterShafer y la teoría de la relatividad numérica. la física. Regla de la adición La regla de la adición o regla de la suma establece que la probabilidad de ocurrencia de cualquier evento en particular es igual a la suma de las probabilidades individuales. Teoría La probabilidad constituye un importante parámetro en la determinación de las diversas casualidades obtenidas tras una serie de eventos esperados dentro de un rango estadístico. [cita requerida] La probabilidad de un evento se denota con la letra p y se expresa en términos de una fracción y no en porcentajes. la ciencia y la filosofía para sacar conclusiones sobre la probabilidad de sucesos potenciales y la mecánica subyacente de sistemas complejos. una partición sobre Ω se define como un conjunto numerable: tal que: 1. la matemática. Probabilidad La probabilidad mide la frecuencia con la que se obtiene un resultado (o conjunto de resultados) al llevar a cabo un experimento aleatorio. es decir. Existen diversas formas como método abstracto. La teoría de la probabilidad se usa extensamente en áreas como la estadística. la regla de la multiplicación y la distribución binomial.esta última con un alto grado de aceptación si se toma en cuenta que disminuye considerablemente las posibilidades hasta un nivel mínimo ya que somete a todas las antiguas reglas a una simple ley de relatividad. 2. si es que los eventos son mutuamente excluyentes.

simplemente.Regla de la multiplicación La regla de la multiplicación establece que la probabilidad de ocurrencia de dos o más eventos estadisticamente independientes es igual al producto de sus probabilidades individuales. . tales como masculino/femenino o si/no. que es aquella donde hay solo dos posibilidades. función de densidad. Distribución binomial La probabilidad de ocurrencia de una combinación específica de eventos independientes y mutuamente excluyentes se determina con la distribución binomial. usualmente denominada f(x) que describe la densidad de la probabilidad en cada punto del espacio de tal manera que la probabilidad de que la variable aleatoria tome un valor dentro de un determinado conjunto sea la integral de la función de densidad sobre dicho conjunto. la función de densidad de probabilidad. o. La probabilidad de que una variable aleatoria continua X esté ubicada entre los valores a y b está dada por el intervalo de la FDP. La mayoría de las funciones de densidad de probabilidad requieren uno o más parámetros para especificarlas totalmente. Función de densidad de probabilidad Función de densidad de probabilidad para la distribución normal. f(x). y se define como la probabilidad de que X tome un valor entre x y x+dx. Es una función f(x) que especifica la posibilidad relativa de que una variable aleatoria continua X tome un valor cercano a x. Definición Una función de densidad de probabilidad (FDP) es una función matemática que caracteriza el comportamiento probable de una población. En teoría de la probabilidad. densidad de una variable aleatoria continua es una función. dividido por dx cuando dx es un número infinitesimalmente pequeño.

la FDP utilizada se elige entre un número relativamente pequeño de FDP comunes. y la labor estadística principal consiste en estimar sus parámetros. la función de densidad es una función tal que De modo que si F es la función de distribución de X. Además.comprendido en el rango entre a y b. Por lo tanto. ≤ < = ∫ a b Pr(a x b) f (x)dx La FDP es la derivada (cuando existe) de la función de distribución: f x dF x dx ( ) = ( ) En situaciones prácticas. X es una variable aleatoria real y μ es la medida de Lebesgue. Hay que advertir que la función de densidad no es propiamente única: dos funciones distintas pueden representar la misma distribución de probabilidad si son distintas únicamente en un conjunto de medida nula. a los efectos de los inventarios. como ocurre normalmente en las aplicaciones. La definición formal de la función de densidad requiere de conceptos de la teoría de la medida. concentran su probabilidad en conjuntos de medida nula. Cuando. así sucede con la distribución de Cantor cuando se toma la de Lebesgue como medida de referencia. entonces y . ƒ es una función con la propiedad de que para cada conjunto medible A. es necesario saber qué FDP se ha utilizado e indicarlo en la documentación de evaluación de la incertidumbre. Si una variable aleatoria X sigue una función de probabilidad X*P su densidad con respecto a una medida de referencia μ es la derivada de Radon–Nikodym Es decir. sin ser discretas. que puede haber distribuciones de probabilidad que carezcan de función de densidad: sucede cuando.

x + dx]. la esperanza es igual a la suma de la probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por ejemplo. La gráfica f(x) se conoce a veces como curva de densidad. media poblacional o media) de una variable aleatoria X. como la de la En estadística la esperanza matemática (también llamada esperanza. se puede pensar que ƒ(x) dx es la probabilidad de que X asuma valores en el intervalo infinitesimal [x.el valor de la esperanza puede ser improbable o incluso imposible.5. Propiedades De las propiedades de la función de distribución se siguen las siguientes propiedades de la fdp (a veces visto como pdf del inglés):   para toda x.b] es el área bajo la curva de la función de densidad en ese intervalo o lo que es lo mismo. el valor esperado cuando tiramos un dado equilibrado de 6 caras es 3. valor esperado. Esperanza matemática a .Intuitivamente. representa la cantidad media que se "espera" como resultado de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado número de veces. El área total encerrada bajo la curva es igual a 1:  La probabilidad de que X tome un valor en el intervalo [a. Podemos hacer el cálculo . es el número aleatorio. la integral definida en dicho intervalo. Cabe decir que el valor que toma la esperanza matemática en algunos casos puede no ser "esperado" en el sentido más general de la palabra . Por lo tanto. que formaliza la idea de valor medio de un fenómeno Cuando la variable aleatoria es discreta. Algunas FDP están declaradas en rangos de distribución normal.

por eso es negativo el valor. La ganancia para acertar una apuesta a un solo número paga de 35 a 1 (es decir. Nota: El primer paréntesis es la "esperanza" de perder tu apuesta de $1. considerando los 38 posibles resultados. En este caso. cobramos 35 veces lo que hemos apostado y recuperamos la apuesta. Una aplicación común de la esperanza matemática es en las apuestas o los juegos de azar. La esperanza matemática del beneficio es el valor esperado a ganar menos el valor esperado a perder.5 no es un valor posible al rodar el dado. Por lo tanto uno esperaría. un juego donde el beneficio esperado es cero (no ganamos ni perdemos) se llama un "juego justo". en el que todos los sucesos son de igual probabilidad. Definición Para una variable aleatoria discreta con valores posibles y sus probabilidades representadas por la función de probabilidad p(xi) la esperanza se calcula como: Para una variable aleatoria continua la esperanza se calcula mediante la integral de todos los valores y la función de densidad : . El segundo paréntesis es la esperanza matemática de ganar los $35. así que recibimos 36 veces lo que hemos apostado). en media.9474 euros. la esperanza matemática del beneficio para apostar a un solo número es: que es -0. perder unos 5 céntimos por cada euro que apuesta.y cabe destacar que 3. En el mundo de las apuestas. la ruleta americana tiene 38 casillas equiprobables. Por ejemplo. la esperanza es igual a la media aritmética.0526 aproximadamente. y el valor esperado para apostar 1 euro son 0. Por tanto.

Por ejemplo. ya que: Combinando estas propiedades. Más importantes son los momentos centrados No todas las variables aleatorias tienen un valor esperado. como toda la teoría de la probabilidad.La definición general de esperanza se basa. Propiedades La esperanza es un operador lineal. la distribución de Cauchy no lo tiene. podemos ver que - donde e son variables aleatorias y cualesquiera. Definición Para una variable aleatoria discreta con valores posibles y sus posibilidades representadas por la función de masa p(xi) la esperanza se calcula con Para una variable aleatoria continua la esperanza se calcula mediante la integral de todos valores y la función de densidad f(x): . Si todos los sucesos son de igual probabilidad la esperanza es la media aritmética. en el marco de la teoría de la medida y se define como la siguiente integral: La esperanza también se suele simbolizar con Las esperanzas para se llaman momentos de orden . Por ejemplo en un juego de azar el valor esperado es el beneficio medio. . Valor Esperado y y son tres constantes (Redirigido desde Esperanza matemática) En estadística el valor esperado o esperanza matemática (o simplemente esperanza) de una variable aleatoria es la suma de la probabilidad de cada suceso multiplicado por su valor.

No todas las variables aleatorias tienen un valor esperado (por ejemplo la distribución de Cauchy). se obtiene la siguiente definición alternativa (y equivalente): . La desviación estándar. la varianza se expresa en metros al cuadrado. es una medida de dispersión alternativa expresada en las mismas unidades. se define su varianza. El valor esperado es una función lineal. Por eso E[aX + b] = aE[X] + b Varianza En teoría de probabilidad. si la variable mide una distancia en metros. Por ejemplo. En tales casos se recomienda el uso de otras medidas de dispersión más robustas. como Desarrollando la definición anterior. simplemente σ2).  Definición Dada una variable aleatoria X con media μ = E(X). El término varianza fue acuñado por Ronald Fisher en un artículo de 1918 titulado The Correlation Between Relatives on the Supposition of Mendelian Inheritance.1. Más importantes son los momentos centrados E[(X − E[X])k]. Hay que tener en cuenta que la varianza puede verse muy influida por los valores atípicos y se desaconseja su uso cuando las distribuciones de las variables aleatorias tienen colas pesadas. Está medida en unidades distintas de las de la variable. Var(X) (también representada como o.Las esperanzas E[Xk] para k = 0.2… se llaman momentos de orden k. la varianza(que suele representarse como σ2) de una variable aleatoria es una medida de su dispersión definida como la esperanza del cuadrado de la desviación de dicha variable respecto a su media. la raíz cuadrada de la varianza(note que la varianza nunca puede ser negativa).

Si una distribución no tiene esperanza. Existen otras distribuciones que. aun teniendo esperanza. tampoco tiene varianza. como ocurre con la de Cauchy. carecen de varianza. Distribución binomial Distribución binomial Función de probabilidad Función de distribución de probabilidad Parámetros número de ensayos (entero) probabilidad de éxito (real) Dominio . Un ejemplo de ellas es la de Pareto cuando su índice k satisface 1 < k ≤ 2.

A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro.p. Un experimento de Bernoulli se caracteriza por ser dicotómico. sólo son posibles dos resultados. fracaso. con una probabilidad q = 1 . en una distribución de Bernoulli. la binomial se convierte. la distribución binomial es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos independientes de Bernoulli con una probabilidad fija p de ocurrencia del éxito entre los ensayos. de forma independiente. Para n = 1. En la distribución binomial el anterior experimento se repite n veces. esto es. . y se trata de calcular la probabilidad de un determinado número de éxitos.Función de probabilidad (fp) Función de distribución (cdf) Media Mediana Moda Varianza Coeficiente de simetría Uno de 1 Curtosis Entropía Función generadora de momentos (mgf) Función característica En estadística. de hecho.

Cuando se dan estas circunstancias. Ejemplos Las siguientes situaciones son ejemplos de experimentos que pueden modelizarse por esta distribución:    Se lanza un dado diez veces y se cuenta el número X de tres obtenidos: entonces X ~ B(10. 1/2) Una partícula se mueve unidimensionalmente con probabilidad q de moverse de aqui para allá y 1-q de moverse de allá para acá Experimento Binomial Existen muchas situaciones en las que se presenta una experiencia binomial.p). 1/6) Se lanza una moneda dos veces y se cuenta el número X de caras obtenidas: entonces X ~ B(2. Características analíticas Su función de probabilidad es donde . Se designa por X a la variable que mide el número de éxitos que se han producido en los n experimentos. y se denota B(n. se dice que la variable X sigue una distribución de probabilidad binomial.Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p. El resultado de cada experimento ha de admitir sólo dos categorías (a las que se denomina éxito y fracaso). Las probabilidades de ambas posibilidades han de ser constantes en todos los experimentos (se denotan como p y q o p y 1-p). se escribe: La distribución binomial es la base del test binomial de significación estadística. Cada uno de los experimentos es independiente de los restantes (la probabilidad del resultado de un experimento no depende del resultado del resto).

y p. 1/6) y la probabilidad sería P(X=20): Propiedades características Relaciones con otras variables aleatorias Si n tiende a infinito y p es tal que producto entre ambos parámetros tiende a ..siendo tomados de Ejemplo las combinaciones de en ) en ( elementos Supongamos que se lanza un dado 50 veces y queremos la probabilidad de que el número 3 salga 20 veces.... es decir. su suma es también una variable binomial. Distribución de Poisson Distribucion De Poisson Función de probabilidad . de parámetros n1+. + nn. n) y p. de parámetros ni (i = 1. Por último. En este caso tenemos una X ~ B(50. entonces la distribución de la variable aleatoria binomial tiende a una distribución de Poisson de parámetro λ. se cumple que cuando n es muy grande (usualmente se exige que ) la distribución binomial puede aproximarse mediante la distribución normal. Propiedades reproductivas Dadas n variables binomiales independientes...

Parámetros Dominio Función de probabilidad (fp) Función de distribución (cdf) (dónde Γ(x. Las líneas que conectan los puntos son solo guías para el ojo y no indican continuidad. Función de distribución de probabilidad El eje horizontal es el índice k.El eje horizontal es el índice k. La función solamente está definida en valores enteros de k.y) es la Función gamma incompleta) .

que la dio a conocer en 1838 en su trabajo Recherches sur la probabilité des jugements en matières criminelles et matière civile (Investigación sobre la probabilidad de los juicios en materias criminales y civiles). a partir de una frecuencia de ocurrencia media.Media Mediana Moda Varianza Coeficiente de simetría Curtosis Entropía Función generadora de momentos (mgf) Función característica En teoría de probabilidad y estadística. Propiedades La función de masa de la distribución de Poisson es donde . la distribución de Poisson es una distribución de probabilidad discreta que expresa. Fue descubierta por Siméon-Denis Poisson. la probabilidad que ocurra un determinado número de eventos durante cierto periodo de tiempo.

La moda de una variable aleatoria de distribución de Poisson con un λ no entero es igual a .71828 . si .. e es la base de los logaritmos naturales (e = 2. entonces según la fórmula de Dobinski. k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de que el evento suceda precisamente k veces). usaremos un modelo de distribución de Poisson con λ = 10×4 = 40. Por ejemplo. La divergencia Kullback-Leibler desde una variable aleatoria de Poisson de parámetro λ0 a otra de parámetro λ es Relación con otras distribuciones Sumas de variables aleatorias de Poisson La suma de variables aleatorias de Poisson independientes es otra variable aleatoria de Poisson cuyo parámetro es la suma de los parámetros de las originales. las modas son λ y λ − 1. Los momentos de orden superior son polinomios de Touchard en λ cuyos coeficientes tienen una interpretación combinatorio. cuando el valor esperado de la distribución de Poisson es 1. Cuando λ es un entero positivo.)   Tanto el valor esperado como la varianza de una variable aleatoria con distribución de Poisson son iguales a λ. De hecho.. La función generadora de momentos de la distribución de Poisson con valor esperado λ es Las variables aleatorias de Poisson tienen la propiedad de ser infinitamente divisibles. el mayor de los enteros menores que λ (los símbolos representan la función parte entera). λ es un parámetro positivo que representa el número de veces que se espera que ocurra el fenómeno durante un intervalo dado. Dicho de otra manera. el nésimo momento iguala al número de particiones de tamaño n. si el suceso estudiado tiene lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos.

los tiempos discurridos entre dos sucesos sucesivos sigue la distribución exponencial.. Distribución binomial La distribución de Poisson es el caso límite de la distribución binomial. el número de sucesos de cierto fenómeno aleatorio sigue una distribución de Poisson de parámetro λt. De hecho. aquellos fenómenos que ocurren 0. Entonces. entonces . que representa el tiempo. 1. El número de llamadas telefónicas en una central telefónica por minuto. para valores grandes de λ.. Procesos de Poisson La distribución de Poisson se aplica a varios fenómenos discretos de la naturaleza (esto es. la distribución límite obtenida es de Poisson. veces durante un periodo definido de tiempo o en un área determinada) cuando la probabilidad de ocurrencia del fenómeno es constante en el tiempo o el espacio.. Ejemplos de estos eventos que pueden ser modelados por la distribución de Poisson incluyen:  El número de autos que pasan a través de un cierto punto en una ruta (suficientemente distantes de los semáforos) durante un periodo definido de tiempo.son N variables aleatorias de Poisson independientes. Distribución exponencial Supóngase que para cada valor t > 0. Aproximación normal Como consecuencia del teorema central del límite. El número de errores de ortografía que uno comete al escribir una única página. una variable aleatoria de Poisson X puede aproximarse por otra normal dado que el cociente converge a una distribución normal de media nula y varianza 1.   . 3. si los parámetros n y θ de una distribución binomial tienden a infinito y a cero de manera que se mantenga constante. 2.

La distribución de receptores visuales en la retina del ojo humano. El número de animales muertos encontrados por unidad de longitud de ruta. El número de mutaciones de determinada cadena de ADN después de cierta cantidad de radiación. El número de estrellas en un determinado volumen de espacio.       El número de servidores web accedidos por minuto. por lo tanto el tiempo total del intervalo usado en el modelo debe ser significativamente menor que la vida media de la sustancia. Distribución normal Distribución normal Función de densidad de probabilidad La línea verde corresponde a la distribución normal estandar Función de distribución de probabilidad . La inventiva de un inventor a lo largo de su carrera. La radiactividad de la sustancia se debilitará con el tiempo. El número de núcleos atómicos inestables que decayeron en un determinado período en una porción de sustancia radiactiva.

Parámetros σ>0 Dominio Función de densidad (pdf) Función de distribución (cdf) Media Mediana Moda Varianza Coeficiente de simetría Curtosis Entropía Función generadora de momentos (mgf) Función característica 0 0 .

La distribución normal también aparece en muchas áreas de la propia estadística. Para la explicación causal es preciso el diseño experimental. Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal son:        caracteres morfológicos de individuos como la estatura.En estadística y probabilidad se llama distribución normal. caracteres sociológicos como el consumo de cierto producto por un mismo grupo de individuos. la distribución muestral de las medias muestrales es aproximadamente normal. la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas. La distribución normal también es importante por su relación con la estimación por mínimos cuadrados. De hecho. distribución de Gauss o distribución gaussiana. caracteres psicológicos como el cociente intelectual. por la enorme cantidad de variables incontrolables que en ellos intervienen. La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos. de ahí que al uso de la estadística en psicología y sociología sea conocido como método correlacional. La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro. Esta curva se conoce como campana de Gauss. a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece en fenómenos reales. sociales y psicológicos. caracteres fisiológicos como el efecto de un fármaco. cuando la distribución de la población de la cual se extrae la muestra no es normal. sin explicación alguna. nivel de ruido en telecomunicaciones. . la estadística es un modelo matemático que sólo permite describir un fenómeno. uno de los métodos de estimación más simples y antiguos. etc.1 Además. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una supuesta "normalidad". el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes. lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. errores cometidos al medir ciertas magnitudes. Por ejemplo.

Para valores la aquella es Γ(k) = (k − 1)! (el factorial de k − 1). Distribución beta Beta Función de densidad de probabilidad . En este caso .por ejemplo para describir un proceso de Poisson . Eso es la suma de k variables aleatorias independientes de distribución exponencial con parámetro λ. El valor esperado y la varianza de una variable aleatoria X de distribución gamma son E[X] = k / λ = kθ V[X] = k / λ2 = kθ2 Relaciones El tiempo hasta que el suceso número k ocurre en un Proceso de Poisson de intensidad λ es una variable aleatoria con distribución gamma.En probabilidad. En estadística la distribución gamma es una distribución de probabilidad continua con dos parámetros k y λ cuya función de densidad para valores x > 0 es Aquí e es el número e y Γ es la función gamma. la distribución normal aparece como el límite de varias distribuciones de probabilidad continuas y discretas Distribución gamma Distribución gamma.se llaman la distribición distribución Erlang con un parámetro θ = 1 / λ.

Función de distribución de probabilidad Parámetros α > 0 forma (real) β > 0 forma (real) Dominio Función de densidad (pdf) Función de distribución (cdf) Media Mediana Moda para α > 1.β > 1 .

Varianza Coeficiente de simetría Curtosis Entropía Función generadora de momentos (mgf) Función característica En estadística la distribución beta es una distribución de probabilidad continua con dos parámetros a y b cuya función de densidad para valores 0 < x < 1 es Aquí Γ es la función gamma. 1]. . Un caso especial de la distribución beta con a = 1 y b = 1 es la distribución uniforme en el intervalo [0. Para relacionar con la muestra se iguala E[X] a la media y V[X] a la varianza y de despejan a y b. El valor esperado y la varianza de una variable aleatoria X con distribución beta son .

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->