Está en la página 1de 13

1. Esperanza Matemática de Variables Aleatorias Discretas.

Recordemos que una variable aleatoria X es discreta, si existe una sucesión ( x n) n ≥ 1 de números
reales tales que

∑ P( X=x n )=1
n =1
Comenzaremos por definir la noción de valor esperado para variables aleatorias discretas.

Definición: Sea X una variable aleatoria discreta con la notación anterior, y llamemos
pn=P( X=x n ), n=1 ,2 , … Diremos que existe el valor esperado, la media o la esperanza matemática de X
si la serie

∑| xn| pn
n =1

Es convergente. En ese caso, el valor esperado se denota E(X) y se define mediante la serie

E ( X ) =∑ x n pn
n=1
Ejemplo
Sea X el resultado de lanzar un dado, entonces X toma valores { 1,2,3,4,5,6 } con probabilidad uniforme en este
conjunto. Por lo tanto
6
1 21
E ( X ) =∑ i = =3.5
i=1 6 6
Observamos que en este caso el valor esperado no es un valor posible de la variable aleatoria.
Propiedades
La esperanza matemática de una variable discreta tiene las siguientes propiedades.
1. Propiedad: Si X ≥ 0y existe E( X) , entonces E( X)≥ 0.
Es obvio que si X ≥ 0, los valores x n que figuran en la suma (6.1) son no-negativos, y si dicha serie es
convergente, la suma también será no-negativa.
2. Propiedad: Si X es una variable aleatoria acotada entonces existe E( X) .
Decir que la variable aleatoria X es acotada es decir que existe una constante C tal que
¿ x n∨≤ C Para toda n,
y, por lo tanto,
N N

∑|xn| pn ≤C ∑ p n ≤ C
n =1 n=1

Es decir que las sumas parciales de la serie (6.1) resultan estar acotadas por la constante C. Ahora bien,
recordemos que para una serie de términos no-negativos – es el caso de la serie (6.1) – es necesario y suficiente
para que converja que sus sumas parciales estén acotadas. Como las de (6.1) lo están, esta serie es convergente
y el valor esperado de X existe.

Observación Una primera observación es que si una variable aleatoria toma solamente un número finito de
valores, entonces su esperanza matemática está bien definida, ya que (6.1) se reduce a una suma finita.
Por otra parte, no siempre existe el valor esperado de una variable aleatoria. Por ejemplo, consideremos la
variable aleatoria X tal que

1
x n=2n y p n=P ( X=2 n )= ,n
2n

Es claro que

∑ p n=1
n =1

Se tiene que x n p n=1, para toda n y por lo tanto, la serie (6.1) es divergente, de modo que esta variable
aleatoria no tiene esperanza matemática.
En algunos textos el lector encontrar a que, en casos como el de este ejemplo, en el cual la variable
aleatoria X es no-negativa y la serie (6.1) diverge, se conviene en definir E(X) = + ∞en lugar de hacer como
hemos optado, esto es, decir que no existe la esperanza.
Se debe hacer especial atención, sin embargo, en que si la variable no es no-negativa (o, en general, de signo
constante), no hay esa opción convencional. Por ejemplo, si modificamos el ejemplo considerado y tomamos la
variable aleatoria Y tal que

1 1
P ( Y =2n ) = n+1
P ( Y =−2 n) = n≥1
2 2n+1

Entonces, nuevamente (6.1) diverge y no existe E (Y ).

3. Propiedad: Sea A un evento y 1A la variable aleatoria definida por:

1 A ( w )= 1 si w ∈ A
{
0 si w∄ A
Entonces
E(1 A )=P( A ).
Es claro que 1A es discreta, ya que toma solamente dos valores y
E(1 A )=1× P (1 A=1)+0 × P(1 A =0)=P (A ).
4. Propiedad: Sea g : R → R una función y consideremos la nueva variable aleatoria (discreta)
Y =g (X ).
Entonces, si existe la esperanza matemática de Y , ´esta es

E ( Y ) = ∑ g ( x n) p n
n=1
Demostración. Llamemos { y m} a los valores de Y, entonces

E ( Y )=∑ y m P(Y = y m )
n=1

Por otra parte el evento {Y = y m} es igual a


{ X=x n para algú n x n tal que g ( x n ) = y m }
Puesto que decir que Y toma el valor y m equivale a decir que X toma un valor cuya imagen por la función g
es y m. Por lo tanto
P ( Y = y m )=∑ ¿
¿¿

Donde el conjunto de los valores de n sobre los que se suma es el conjunto de los valores tales que
G (xn) = y m.
E ( Y ) =∑ y m
m

Y ahora, un instante de reflexión mostrar a al lector que la suma doble que aparece en la última igualdad es,
simplemente, la suma sobre todos los valores de n, ya que cada n aparece una y solo una vez allí. En resumen

E ( Y ) = ∑ g ( x n) p n
n

Como afirmamos en el enunciado de la propiedad 4.


Observación: La ventaja que tiene la formula (6.3), es que nos permite calcular E(Y )sin necesidad de
calcular previamente la función de probabilidad de la variable aleatoria Y , bastándonos con la función
de probabilidad de X .
5. Propiedad: Si existe E( X) entonces ¿ E( X)∨≤ E ¿ .
Demostración. De acuerdo a la propiedad 4 ¿, se tiene
E (| X|)=∑ |x n| pn ≥
n |∑ x p |=|E( X )|
n
n n

Observe que la desigualdad entre las sumas de las series, se deduce simplemente de que
N N

∑|xn| pn ≥ ∑ x n pn
n =1
| n=1
|
En virtud de la desigualdad triangular entre números reales. Pasando al límite cuando N → ∞, se
obtiene la desigualdad análoga entre las sumas de las series.

Propiedad: Si λ es una constante y E( X) existe, entonces también existe E( λX) y


6.
E( λX)= λ E(X ).

La demostración es sencilla y queda a cargo del lector.


7. Propiedad: Si X e Y son variables aleatorias que tienen valor esperado, entonces también existe el
valor esperado de X +Y y se tiene
E( X +Y )=E( X)+ E (Y ) .

Demostración. Para demostrar esta propiedad utilizamos la notación anteriormente introducida:


r nm=P ( X=x n ,Y = y m ) , p n=P ( X =x n) , q m=P(Y = y m )

Para n , m=1 , 2, . . .( { r nm } ) es la función de probabilidad conjunta de X e Y y { pn } , { q m } las respectivas


funciones de probabilidad marginales).
Sea Z=X +Y y { z k } el conjunto de valores posibles de Z. Para ver que la variable aleatoria Z
Tiene valor esperado, tenemos que probar que
∑|z k|P(Z=z k )< ∞
k

Procediendo de manera parecida a lo que hicimos para demostrar la propiedad 4

∑|z k|P ( Z=z k )=∑|z k| P ( X +Y =z k )


k k

¿ ∑|z k| ∑ r nm
k {( n ,m ) : xn + y m= zk }

Donde en la última suma hay que entender que la suma interior se efectúa sobre todas las parejas de
´índices (n , m) tales que x n + y m=z k . La última expresión es:

∑|z k| ∑ |x n + y m|r nm=∑| xn + y m|r nm ≤ ∑ (|x n|+| y m|)r nm


k { ( n , m) : x n+ y m =zk } n ,m n, m

¿ ∑ |x n|∑ r nm + ∑ | y m|∑ r nm
n m m n

¿ ∑ |x n| pn + ∑ | y m|q m <∞ ,
n m

Ya que, por un lado,

∑ r nm= pn , n=1 , 2, … ; ∑ r nm=q m , m=1 , 2 ,…


m n

Y por otro, las dos series


∑|xn| pn ; ∑| y m|q m
n m

Son convergentes, dado que existen E( X) y E(Y ).


Esto prueba que existe E( Z) . Si ahora repetimos el cálculo anterior sin los valores absolutos, resulta

E ( Z ) =∑ z k P ( Z=z k )=∑ x n p n +∑ y m p m=E ( X )+ E (Y )


k n n
Que es la propiedad que queríamos probar.
8. Propiedad: Si X ≤ Y y existen E( X) y E(Y ), entonces E( X) ≤ E(Y ).
Demostración. Para probar esta propiedad, recurrimos a las propiedades 1, 6 y 7. Tenemos
E ( Y )−E ( X )=E ( Y − X ) ≥ 0 , ya que Y −X ≥0 .

9. Propiedad: Si X e Y son variables aleatorias independientes con valor esperado, entonces existe
E( XY ) y
E( XY )= E( X )E (Y )

Demostración. Procedemos de manera análoga, nuevamente, a lo que hicimos para la propiedad 7,


teniendo en cuenta además que la independencia de X e Y implica que

r nm=P ( X=x n ,Y = y m ) =P ¿

Y por lo tanto, si llamamos ahora {wk } a los valores de XY

∑|w k| P ( XY =w k) =∑ ∑ |w k|r nm
k k { ( n ,m ) : x n y m=w k }

¿∑ ∑ | xn y m| pn qm
k { ( n ,m ) : x n ym =w k }

¿ ∑ |x n|| y m| pn qm =∑ |x n| pn ∑ | y m|q m
n ,m n m

Lo cual muestra que existe E ( XY ) .El mismo calculo, quitando los valores absolutos, permite obtener la
relación.

Momentos de Orden Superior. Momentos Centrados.


Sea X una variable aleatoria discreta,
P ( X =xn ) = pn , ∑ p n=1
n
Y m un número positivo.
∑|xn|m pn < ∞,
n
Se define el momento de orden m de X mediante
E ( X m )=∑ x mn pn .
n

(Ver la propiedad 4, con g( x )=xm¿ .


Se define también el momento centrado de orden m de X para m ≥ 2 mediante

μm =E ¿

(Ver la propiedad 4, con g( x )=(xE ( X ))m . En la definición se sobrentiende que existe la esperanza de la
variable aleatoria X).
Se acostumbra denominar varianza (Var ( X)) al momento centrado de orden 2 – cuando existe – es decir
Var ( X )=E ¿ 2)

Y desviación típica o estándar de X a (Var (X ))1/2.


También se define la covarianza de dos variables aleatorias mediante

Cov ( X , Y )=E[( X −E( X))(Y −E (Y ))],

Siempre que la esperanza que figura en el segundo miembro esté bien definida, y el coeficiente de correlación
De X e Y por
Cov ( X , Y )
ρ ( X , Y )=
√Var ( X ) Var (Y )
Siempre que el segundo miembro tenga sentido.
Finalmente, se dice que X e Y no están correlacionadas, son no-correlacionadas o incorreladas si
Cov ( X , Y )=0
Propiedades
Veamos a continuación algunas propiedades de estos momentos.
1. Propiedad: Si a es una constante y X una variable aleatoria que tiene varianza, entonces
Var ( X )=Var ( X + a )
Var ( aX )=a2 Var ( X)

La demostración resulta de aplicar la definición y queda como ejercicio para el lector.


2. Propiedad: Var ( X )=E ( X 2)−( E (X ))2.
Demostración. Observar simplemente que
Var ( X )=E [(X −E( X)) 2]=E [X 2−2 E (X ) X+(E( X )) 2]
¿ E( X 2)−2 E( X) E( X)+(E( X))2
¿ E( X 2)−(E( X))2 .
3. Propiedad: (Desigualdad de Cauchy-Schwarz)

|Cov (X , Y )|≤ √ Var ( X ) Var (Y )


Demostración. Para demostrar esta desigualdad, consideremos la función f : R → R definida por
f (x)= E[(U −xV )2],

Donde U =X−E (X ) y V =Y −E(Y ) . Usando las propiedades de la esperanza matemática


f (x)= E[U 2−2 xU V + x 2V 2]=E(U 2)−2 x E(U V )+ x 2 E(V 2)

De modo que f es un polinomio de segundo grado, y como

f (x) ≥ 0 para todo x ∈ R


Porque(U −xV )2 ≥ 0 para todo x ∈ R, se deduce que el discriminante de este polinomio es menor o igual que
cero (ya que, de no ser así, habría valores de x ∈ R donde f (x) sería negativa). Es decir que
(−2 E(U V ))2−4 E(V 2 ) E (U 2 )≤ 0 ⇒(E (UV ))2 ≤ E (U 2) E(V 2) .

Tomando en cuenta quienes son U y V y las definiciones de varianza y covarianza, resulta la desigualdad
que queríamos probar.

4. Propiedad: Sean X e Y dos variables aleatorias tales que están definido el coeficiente de correlación.
Entonces
−1 ≤ ρ( X ,Y )≤1
Demostración. Es una consecuencia sencilla de la propiedad anterior.
5. Propiedad: Si Var(X) = 0 entonces existe una constante c tal que

P( X =c )=1.

(Esta propiedad de que P( X =c )=1 se enuncia a veces diciendo que X es una variable aleatoria “casi
seguramente” igual a la constante c ).
Demostración. Para probar esta propiedad, recordemos que X es una variable aleatoria discreta. (El
resultado también será cierto en general, como ocurre con casi todas las propiedades que hemos
estudiado, pero eso lo veremos más adelante).
Entonces la variable aleatoria Y =( X −E( X))2 también es discreta y toma valores mayores o iguales a
cero, digamos { y m}. Nuestra hipótesis es que
E(Y )=0 .
Sea q m=P ¿). Si hubiera algún y m >0 tal que pm >0 , se tendría que
0 0

E ( Y ) = ∑ y m pm ≥ y m p m > 0
0 0
m
Contradiciendo la hipótesis. Por lo tanto no hay un tal y m , y si y m >0 necesariamente pm =0. En
0

consecuencia
P ( Y >O )= ∑ p m=0
{ m : y m >0 }

De donde se deduce que

P(Y =0)=P(Y ≥ 0)−P(Y >0)=1−0=1.


Pero {Y =0 }es el mismo evento que { X=E( X )}, de modo que
P( X =E( X))=1 ,
Y la propiedad se cumple, tomando c=E ( X ) .

Observación Es obvio que el reciproco de esta propiedad es cierto, ya que si

P ( X=c )=1 entonces E ( X )=c


Y

Var ( X )=E ( ( X−C )2 )=0

Puesto que
P ( X−c=0 ) =P ( X =C )=1
6. Propiedad: Sean X 1 , X 2 , .. . , X n variables aleatorias independientes, cada una de las cuales tiene
varianza, entonces la suma también tiene varianza y
Var ( X 1+ X 2+ ·· ·+ Xn )=Var ( X 1 ) +Var ( X 2 )+· · ·+ Var ( Xn ) .

Demostración. Basta probar la igualdad para n=2. Para n>2 se sigue por inducción completa, y queda como
ejercicio.
Sea entonces n = 2 y pongamos Y1 = X1 E(X1), Y2 = X2 E(X2). Como X1, X2 son variables aleatorias
Independientes, también lo son Y1, Y2 y, en consecuencia, por la propiedad 9 de la sección

Se deduce que
Var ( X 1 + X 2 ) =E ¿

¿ E [ Y 21 +Y 22 +2Y 1 Y 2 ]=E ( Y 21 ) + E ( Y 22 ) + 2 E(Y 1 Y 2 )

¿ E ( Y 21 ) + E ( Y 22 )=E [ (X 1 −E ( X 1 ) )2 ] + E [(Y 2−E ( Y 2 ) )2 ]

¿ Var ( X 1 ) +Var ( X 2)
Que es lo que queríamos probar.

7. Propiedad: Sea X una variable aleatoria y supongamos que existe su momento de orden m. Entonces
también existe su momento de orden k , para cualquier k , que satisfaga 0 ≤ k <m .
Demostración. Para probar que existe el momento de orden k hay que ver que

∑|xn|k pn < ∞, donde pn =P ( X=x n ) , ∑ p n=1


n n

Pero tenemos la desigualdad, valida para todo número x ∈ R,

|x|k ≤1+| x|m


En efecto, si ¿ x∨≤ 1 la desigualdad es cierta ya que, en este caso, el primer miembro es menor o igual que
1 y el segundo es mayor o igual que 1. Por otra parte, si ¿ x∨¿ 1 ,es claro que

¿ x∨k < ¿ x ∨m<1+ ¿ x∨m

Y también se verifica (6.11). En resumen,


k m m
∑|xn| pn ≤ ∑ ( 1+|x n| ) p n=1+¿ ∑|x n| pn <∞ ¿
n n n

8. Propiedad: Sean X e Y variables aleatorias con covarianza Cov ( X , Y ), entonces

Var ( X + Y )=Var ( X )+ Var (Y )+2 Cov ( X , Y ).

9. Propiedad: Sean X e Y variables aleatorias con covarianza Cov ( X , Y ), entonces

Cov ( X +Y )=E( XY )−E(X ) E(Y ).

Las demostraciones quedan como ejercicio.

Ejemplos y Aplicaciones.

Distribución Binomial. Recordemos que la distribución binomial es la distribución de la variable Sn


que representa el número de veces que ocurre un cierto evento A en n observaciones independientes del
mismo. Por ejemplo, el número de veces que extraemos un objeto defectuoso de una cierta población de
objetos fabricados en una línea de producción, cuando la extracción se hace al azar y con reposición.
Definimos las variables aleatorias

X i = 1 si en la i−esima obser v aci on o curre A ,


{
0 si en la i−esima obser v aci on n o o curre A

que admitimos que son independientes en nuestro modelo. Entonces


Sn= X 1 + X 2 +…+ X n .
Si denotamos p=P ( A ) , entonces

P ( X i=1 )= p i=1,2 ,…

E ( X i ) =1 x P ( X i=1 ) + 0 x P ( X i=0 )= p

Se deduce que

E ( Sn ) =E ¿

Además, en virtud de que X 1 , X 2 , … , X n son variables aleatorias independientes

n n
Var ( S n )=Var (∑ ) ∑
i=1
Xi =
i=1
Var ( X i)

Y
2
Var ( X i ) =E ( X 2i ) −( E ( X i ) ) = p− p2= p(1−p)

Ya que X 2i =X i puesto que X i =0 o 1. Reemplazando en la igualdad anterior, resulta

Var ( S n)=np (1− p)


Tambi´en podemos calcular E(S n) y V ar ( S n) directamente, ya que conocemos la funci´on de
probabilidad de Sn, que es binomial b (n , p), es decir que
P ( S n=k )= n p k (1− p)n−k , k=0,1,2 , … , n
k ()
Por lo tanto, aplicando la definici´on de esperanza matem´atica en forma directa,
n n

( Sn ) =∑ kP (S n=k)=∑ k n p (1− p)
k n−k

k=0 k=0
(k )
n
( n−1)!
¿ np ∑ pk−1 (1− p)n−k
k=1 (n−k ) !( k−1)!

n−1
¿ np ∑ n−1 p j ( 1− p )
n−1− j

j=0 j ( )
Observamos que la última suma es igual a 1 ya que no es otra cosa que la suma de todas las
probabilidades ( j=0 , 1, . . ., n−1) correspondientes a una distribución binomial con (n−1) observaciones. O,
también, es el desarrollo de Newton del binomio ( p+1− p)n−1=1.
Con un cálculo parecido también reencontramos el resultado que hemos obtenido para Var(Sn);
observemos primero que
Var ( S n )=E ( S 2n ) −¿

Y entonces
n
E ( Sn ( Sn −1 ) )=∑ k ( k −1 ) P ( Sn=k )
k=0

n
¿ ∑ k (k −1) n pk (1− p)n−k
k=2 k ()
n
2 (n−2)!
¿ n( n−1) p ∑ (n−k )! (k −2)! p k−2 (1− p)n−k
k=2

n−2
n ( n−1 ) p 2
∑ ( n−2
j ) p j (1− p )
n−2− j
=n(n−1) p2
j=0
La última suma nuevamente vale 1, por un argumento análogo al ya empleado. Reemplazando en la
igualdad anterior
Var ( Sn )=n (n−1) p 2+ np−(np)2=np (1− p).
Distribución de Poisson. Recordemos que la variable aleatoria X tiene distribución de Poisson con
parámetro λ> 0 si

λ k −λ
P ( X=k )= e k=0,1,2 , …
k!
∞ ∞
λk −λ
Entonces E ( X ) =∑ kP ( X =k ) =∑ k e
k=0 k=0 k!
∞ ∞
λk−1 λj
¿ λ e− λ ∑ k =λ e− λ ∑
k=0 (k−1)! j=0 j!
−λ λ
¿ λ e e =λ

λ λj
Donde hemos empleado el desarrollo de Taylor de la funci´on exponencial e =∑ . Por lo tanto
j=0 j!
E ( X ) =λ

Además
∞ ∞
λ k − λ 2 −λ λ k−2
E ( X ( X −1 ) )=∑ k (k −1)! e =λ e ∑
k =0 K! k=2 (k−2)!


2 −λ λj
¿λ e ∑ =¿ λ2 ¿
j=0 j!

Y en consecuencia

Var ( X )=E ( X 2 )−¿

¿ λ2 + λ−λ 2=λ

Es decir

Var ( X )= λ

2. Varianza de una variable aleatoria


Se representa σ 2=Var (X ), y la desviación típica σ  es la raíz cuadrada (con signo positivo) de la
varianza.

Igual que en el caso de variables estadísticas, mide la dispersión de la variable, y se calcula como la
media de las desviaciones (elevadas al cuadrado) de los valores a su media:

σ 2=Var ( X )=E [( X −μ)2 ].

También puede calcularse como

σ 2=E[ X 2 ]−μ 2

Si X  es una variable discreta, la forma de hacer los cálculos será
k
σ =∑ ( x i−μ)2 p i=¿
2

i=1

Si X  es una variable continua



σ =∫ ( x−u )2 f ( x ) dx ,
2

−∞
y que también puede calcularse como

σ 2=( ∫ x 2 f ( x ) dx)−μ 2
−∞

Ejemplo de dos variables discretas con prácticamente la misma media y diferente varianza
(dispersión).
Consideremos la variable aleatoria que representa el número que puede salir en una ruleta:

La ruleta francesa: números del 1 al 36, y además el cero.

La ley de probabilidad de esta variable es la de la tabla siguiente:


P(X=xi
X
)
0 1/37
1 1/37
: :

36 1/37
Mediante la fórmula,
k 36 36
1 1 1
E( X)=∑ x i pi=∑ i. = ∑ ¿ ⋅666=18 ,
i=1 i =0 37 37 i=0 37
Lo que quiere decir que, si jugásemos a la ruleta infinitas veces, y fuésemos anotando el número que
sale, la media aritmética de esos infinitos números daría 18.
Por medio de una simulación, podemos comprobarlo: vamos a ver qué sucede si jugamos en la ruleta y
anotamos los números durante un gran número de jugadas. Esto juego lo “simulamos” en R generando
números aleatorios que tomen valores enteros entre 0 y 36, lo cual se hace con el comando runif, del
siguiente modo:

x=runif (1000, 0,36) # 1000 números

x=round(x) # les quitamos los decimales


Mean(x)

Si, en vez de hacerlo 1000 veces, lo hacemos, por ejemplo, 10.000 veces:
x=runif (10000, 0, 36)

x=round(x)

Mean(x)

## [1] 17.94

Observamos que, en efecto, la media de los números obtenidos se aproxima al valor medio o
esperado que es 18.

Vamos a considerar ahora la variable X =ganancia al apostar a un número concreto . Las reglas de la ruleta
francesa (la que tiene un cero) son: cuando apostamos una cantidad a un número concreto entre 1 y
36 (al cero no podemos apostar) y no acertamos, perdemos la cantidad apostada; si acertamos,
recibimos 35 veces la cantidad apostada.

De esta forma, si llamamos cc a la cantidad apostada, vemos que la variable  X  toma sólo dos
valores: −c si perdemos (sale cualquier número, incluido el cero, excepto el que hemos apostado),
y c ⋅35 si ganamos (sale el número apostado).

La variable X  tiene la siguiente ley de probabilidad:


X P(X =x i)
−c 36 /37
35 ⋅c 1/37
Esto es, de cada 37 jugadas, teóricamente 1 vez ganamos y el resto perdemos, y la variable X  mide la
cantidad que recibimos.

La esperanza o valor esperado de esta variable es:


36 1 1
E( X)=−c ⋅ +35 ⋅c ⋅ =−c ⋅ ,
37 37 37
Vemos, para un jugador, la media o valor esperado siempre es negativo. ¿Qué significa este valor?
Que, si se juega a la ruleta infinitas veces, el valor medio que se espera ganar es negativo (para el
jugador; para la banca es positivo). En la práctica, si N es un número muy grande de jugadas, el total
1
de dinero que ganará el jugador va a ser N ⋅ E(X ) ¿−N ⋅ c ⋅
37
Si consideramos un juego tan simple como lanzar una moneda, apostar 1, ganar 1 si sale cara y
perder 1 si sale cruz, la variable aleatoria es

X P( X =x i)
−1 1/2
1 1/2

La esperanza es
E( X)=1⋅ 0.5−1 ⋅ 0.5=0
Esto se llama juego de suma nula, que significa que, en teoría, si juegan 2 jugadores, los dos pierden
tantas veces como ganan. Vemos que no es lo que ocurre en el caso de la ruleta. La ruleta está
pensada para que, a la larga, gane el casino.
Vamos a jugar a la ruleta 100 veces y ver cuánto dinero podríamos ganar:
X=round (runif (100, 0,36))

# Vamos a suponer que siempre apostamos 1 euro al número 12

Premio=false(X=12, 35, -1)

Sum (premio) # contamos la cantidad que ganamos (o perdemos)

## [1] 44

Si, en vez de jugar 100 veces, jugamos 100.000 veces, veamos qué podría ocurrir.
X=round (runif(10000,0,36))

# Vamos a suponer que siempre apostamos 1 euro al número 12

Premio=ifelse(X=12, 35, -1)

sum (premio)

## [1] 152

Estos dos ejemplos son simulaciones. En algunos casos ganaremos y otras perderemos, pero nunca
van a ser cantidades desorbitadas, y habrá que jugar muchas horas para llegar a 100.000 apuestas

5.5.1 La falacia del jugador


En el siguiente trozo de programación construimos una variable X  que va desde 10 al
valor tope (número que elijamos). Para cada valor de X  tiramos una moneda y contamos el número de
caras y de cruces y los vamos anotando. Es decir, si  X =12 , lanzamos la moneda 12 veces. Si  X =23 ,
lanzamos la moneda 23 veces, y así sucesivamente…
Una vez realizados los lanzamientos, en la tabla de resultados guardamos los resultados obtenidos:
número de lanzamientos de la moneda, número de caras, número de cruces, diferencia entre número
de caras y número de cruces y proporción entra ambos números.

Empezamos lanzando la moneda 10 veces porque así nos “aseguramos” de que el número de cruces
no sea cero (evidentemente puede ocurrir, pero sería raro), y así la proporción no nos dé infinito al
dividir por cero.

También podría gustarte