Está en la página 1de 3

12-Independencia de ventos

Dos o más eventos son independientes cuando la ocurrencia o no-ocurrencia de un evento


no tiene efecto sobre la probabilidad de ocurrencia del otro evento (o eventos). Un caso
típico de eventos independiente es el muestreo con reposición, es decir, una vez tomada la
muestra se regresa de nuevo a la población donde se obtuvo.

Dos sucesos son independientes entre sí, si la ocurrencia de uno de ellos no afecta para


nada a la ocurrencia del otro: 

Ejemplo: el suceso estatura de los alumnos de una clase y el color del pelo son
independientes: el que un alumno sea más o menos alto no va a influir en el color de su
cabello, ni viceversa. 
Para que dos sucesos sean independientes tienen que verificar al menos una de las
siguientes condiciones: 

P (B/A) = P (B) es decir, que la probabilidad de que se de el suceso B, condicionada a que


previamente se haya dado el suceso A, es exactamente igual a la probabilidad de B.

13-dependencia de eventos

Para encontrar la probabilidad de eventos dependientes, podemos usar la Principio


Fundamental de Conteo o las fórmulas factoriales de las permutaciones y las combinaciones
para encontrar los tamaños de los espacios de eventos y muestral.

Dos o más eventos serán dependientes cuando la ocurrencia o no-ocurrencia de uno de ellos
afecta la probabilidad de ocurrencia del otro (o otros). Cuando tenemos este caso,
empleamos entonces, el concepto de probabilidad condicional para denominar la
probabilidad del evento relacionado. La expresión P(A|B) indica la probabilidad de
ocurrencia del evento A sí el evento B ya ocurrió.

14-variables aleatorias

Cómo podemos comprobar la frase se compone básicamente de dos conceptos: función


matemática y experimento aleatorio. De manera que por aquí es por dónde debemos
empezar. Es decir, por entender primero qué es una función matemática y, más tarde, por
definir qué entendemos por experimento aleatorio.

 Función matemática: Dicho de manera sencilla, es una ecuación que asigna valores a una
variable (variable dependiente) en función de otras variables (variables independientes).
 Experimento aleatorio: Es un fenómeno de la vida real cuyos resultados se deben
completamente al azar. Es decir, bajo las mismas condiciones iniciales arroja resultados
diferentes.

En otras palabras, es una ecuación que describe o intenta describir los resultados (con un
número) de un evento cuyos resultados se deben al azar.
La relación entre variable aleatoria y distribución de probabilidad es muy estrecha. De
hecho, una distribución de probabilidad es en realidad la función de una variable aleatoria.
Es decir, es función de una función. Así pues tenemos dos conceptos relacionados pero
diferentes:

 Variable aleatoria: Es una función de un experimento aleatorio.


 Distribución de probabilidad: Es una función que establece cómo se distribuye la
probabilidad de una variable aleatoria.

15-funcion de probabilidad o densidad

La función de densidad de probabilidad muestra la distribución de valores de destino. En


destinos continuos, permite determinar la probabilidad de que el destino esté dentro de una
región concreta. En destinos categóricos (destinos con un nivel de medición del nominal u
ordinal), se genera un gráfico de barras que muestra en porcentaje de casos que entran
dentro de cada categoría del destino. Existen otras opciones para los destinos categóricos de
modelos PMML disponibles con los valores de Categoría para los ajustes de informes que
se describen a continuación.

16-funcion de distribución

En la teoría de la probabilidad y en estadística, la función de distribución


acumulada (FDA, designada también a veces simplemente como función de
distribución o FD) o función de probabilidad acumulada asociada a una variable
aleatoria real x sujeta a cierta ley de distribución de probabilidad, es una función
matemática de la variable real x que describe la probabilidad de que X tenga un
valor menor o igual que x.

Intuitivamente, asumiendo la función f como la ley de distribución de probabilidad, la FDA


sería la función con la recta real como dominio, con imagen del área hasta aquí de la
función F, siendo aquí el valor x para la variable aleatoria real X.

17-esperanza matematica y variantes

Es la generalización de la media aritmética a toda la población, es decir, es la media de


la variable aleatoria. También se llama valor medio, valor esperado o esperanza
matemática, y se representa por la letra griega μ.μ.
Si XX es una variable aleatoria discreta (representada, de manera general, por una tabla
de valores xixi y probabilidades pi=P(X=xi)),
la esperanza se calcula como la media aritmética de los valores, es decir la suma de los
valores por sus probabilidades (las probabilidades serían las frecuencias relativas).
μ=E(X)=k∑i=1xi⋅pi.μ=E(X)=∑i=1kxi⋅pi.

Recordemos que la media aritmética de una variable estadística se definió como


¯¯¯x=x1+x2+...+xnn,x¯=x1+x2+...+xnn,

que, obviamente, sería equivalente a escribir


¯¯¯x=1nn∑i=1xi=n∑i=1xi⋅1n,x¯=1n∑i=1nxi=∑i=1nxi⋅1n,

es decir, sería la esperanza de una variable cuyos valores aparecen todos con la misma
probabilidad pi=1/n.pi=1/n.

Si a una variable estadística la representamos por sus valores  xi,xi, y sus frecuencias
relativas son fi=ni/n,fi=ni/n, entonces la media aritmética se puede escribir como
¯¯¯x=n∑i=1xi⋅fi,x¯=∑i=1nxi⋅fi,

esto es, suma de valores por frecuencias. En el caso de una variable aleatoria, las
frecuencias se transforman en probabilidades (de ocurrencia). Por eso la esperanza es
un valor medio esperado.

Si XX es una variable aleatoria continua, la variable toma infinitos valores. El


equivalente continuo de la suma es la integral. La fórmula matemática incluye en este
caso a la función de densidad:
μ=E(X)=∫∞−∞x⋅f(x)dx.

También podría gustarte