Está en la página 1de 10

 

   
 

 
CURSO  ACTUALIZACIÓN  EN  ESTADÍSTICAS  Y        
PROBABILIDADES  EN  EL  AULA  

 
UNIDAD  3  
¿Cuáles  son  las  probabilidades?  
 

Como  vimos  al  final  del  módulo  anterior,  es  importante  saber  algo  de  probabilidades  para  
entender  la  inferencia  estadística.  

Modelo  de  Laplace  

Consideremos  en  primer  lugar  el  problema  de  lanzar  una  moneda  un  cierto  número  de  veces.    
En  un  experimento  virtual  (realizado  en  un  computador),  anotamos  la  proporción  de  caras  
obtenidas  al  lanzar  n  monedas.    El  resultado  de  los  experimentos  para  n  entre  1  y  1.000  se  
representa  gráficamente  a  continuación.  

 
figura1  

Notemos  que  para  cada  valor  de  n  se  trata  de  un  nuevo  experimento  y  no  de  una  continuación  
del  anterior.  
     
 
Se  puede  observar  cómo,  a  medida  que  lanzamos  más  veces  la  moneda,  la  proporción  de  caras  
parece  “acercarse”  a  0,5,  sin  embargo  no  es  exactamente  0,5  y  sigue  variando  alrededor  de  
ese  valor,  aún  después  de  muchos  lanzamientos.      

Esta  es  la  interpretación  en  términos  de  frecuencia  relativa  de  lo  que  se  conoce  como  modelo  
de  Laplace  de  probabilidades.    Decimos  entonces  que  la  probabilidad  de  obtener  una  cara  al  
lanzar  la  moneda  es  0,5.  Hay  dos  casos  equiprobables  (suponemos  una  moneda  que  no  está  
cargada)  y  si  consideramos  como  favorable  uno  de  ellos,  la  probabilidad  de  que  ocurra  es  ½,  es  
decir  (número  de  casos  favorables)  dividido  por  (número  de  casos  totales).  

Si  lanzamos  la  moneda  1.000  veces  esperamos  obtener  cerca  de  500  caras,  pero  no  
exactamente  500.    

Veamos  el  caso  de  1.000  lanzamientos  de  otra  forma.    Repetimos  el  mismo  experimento  
muchas  veces  y  anotamos  cuántas  veces  obtenemos  un  cierto  número  de  caras.    El  resultado  
que  esperamos  obtener  con  más  frecuencia  es  500,  pero  también  499  o  501  debieran  tener  
frecuencias  altas.    Repetimos  el  experimento  10.000  veces  (es  decir  hemos  simulado  el  
lanzamiento  de  10  millones  de  monedas)  y  obtuvimos  

 
figura2  

En  este  gráfico  mostramos  el  número  de  veces  o  frecuencia  (eje  y)  que  obtuvimos  n  caras  (eje  
x).  

Observemos  que  de  las  10.000  veces  que  repetimos  el  experimento,  en  aproximadamente  250  
de  ellas  obtuvimos  500  caras  y  en  la  gran  mayoría  de  ellas  obtuvimos  algún  número  entre  450  
     
 
y  550  caras.    Haríamos  bien  en  apostar  que  el  número  de  caras  obtenidas  al  lanzar  la  moneda  
1.000  veces  estará  entre  450  y  550,  pero  no  debiéramos  apostar  a  que  obtendremos  
exactamente  500  caras.  Parece  que  la  probabilidad  de  esto  último  está  cerca  de  0,025.    

Si  calculamos  el  promedio  del  número  de  caras  obtenidas  en  los  10.000  lanzamientos,  este  es  
500,1483.  La  desviación  estándar  de  este  conjunto  de  datos  es  15,993.    

Para  leer  más  sobre  el  modelo  de  Laplace,  vea  el  libro  “Datos  y  azar”  páginas  53  –  70.  

Antes  de  tratar  de  entender  el  modelo  teórico  tras  la  figura2,  veamos  una  situación  
simplificada.  Lanzaremos  una  moneda  3  veces  y  queremos  conocer  la  probabilidad  de  obtener  
un  cierto  número  de  caras.  Para  poder  aplicar  el  modelo  de  Laplace,  debemos  conocer  todos  
los  resultados  posibles  para  luego  identificar  los  favorables.    Anotemos  los  sellos  sy  las  caras  c.  
Para  obtener  un  listado  de  casos  equiprobables,  resulta  importante  distinguir  el  orden  en  que  
son  lanzadas  las  monedas,  es  decir  ssces  un  resultado  diferente  de  scs.  El  conjunto  completo  
de  resultados  posibles  es  {sss,  css,  scs,  ssc,ccs,  csc,  scc,  ccc}.  Para  calcular  la  probabilidad  de  
obtener  2  caras,  los  casos  favorables  son  3,  de  manera  que  la  probabilidad  es  3/8=0,375.  

Este  método  puede  haber  resultado  conveniente  para  3  lanzamientos,  sin  embargo  no  
podemos  aplicarlo  cuándo  lanzamos  1.000  veces  la  moneda.    Para  determinar  la  probabilidad  
de  obtener  500  caras  al  lanzar  1.000  veces  la  moneda,  debemos  “contar”  el  número  de  casos  
posibles  y  el  número  de  casos  favorables.    Por  el  principio  multiplicativo,  sabemos  que  el  
número  de  casos  posibles  es  21.000  o  aproximadamente  1,07x10301.    El  número  de  casos  
favorables  corresponde  con  el  número  de  maneras  en  que  podemos  ordenar  500  s  y  500  c.    Si  
pensamos  en  posicionar  primero  las  c,  en  500  de  1.000  casillas  disponibles,  el  principio  
multiplicativo  nos  dice  que  podemos  hacerlo  de  1.000x999x…x501=1000!/500!  maneras  si  
distinguimos  el  orden  en  el  que  colocamos  las  c  en  los  casilleros.    Como  ese  orden  no  nos  
importa,  debemos  dividir  por  el  número  de  maneras  de  ordenar  las  500  c,  es  decir  por  500!  

Finalmente  la  probabilidad  de  obtener  exactamente  500  caras  al  lanzar  1.000  veces  la  moneda  
es:  

𝟏. 𝟎𝟎𝟎
𝟓𝟎𝟎 = 𝟏. 𝟎𝟎𝟎! ∙ 𝟏 ≈ 𝟎, 𝟎𝟐𝟓𝟐𝟐  
𝟐𝟏.𝟎𝟎𝟎 𝟓𝟎𝟎! 𝟓𝟎𝟎! 𝟐𝟏.𝟎𝟎𝟎
Esto  es  bastante  parecido  al  resultado  experimental  obtenido  antes.  

Para  una  explicación  detallada  del  método  para  contar  y  una  definición  del  símbolo  
𝑛
combinatorio   ,  veahttp://www.disfrutalasmatematicas.com/combinatoria/combinaciones-­‐
𝑘
permutaciones.html.  

Otro  ejemplo  clásico  donde  se  utiliza  el  modelo  de  Laplace  para  calcular  probabilidades,  es  el  
lanzamiento  de  un  dado.  El  espacio  muestral,  es  decir  el  conjunto  de  los  resultados  posibles  es  
     
 
!
{1,  2,  3,  4,  5,  6}.    Como  los  consideramos  equiprobables,  la  probabilidad  de  sacar  un  2  es   .    
!
! !
También  podemos  calcular  la  probabilidad  de  obtener  un  número  par  como   = .  
! !

Modelo  probabilístico  más  general.  

En  general  los  eventos  posibles  no  son  equiprobables  y  debemos  generalizar  nuestra  idea  de  
probabilidad.    Siguiendo  las  ideas  de  Kolmogorov,  lo  que  rescatamos  como  esencial  en  un  
modelo  probabilístico  es  un  espacio  muestral  Ω  (eventos  posibles)  y  una  medida  (probabilidad)  
definida  como  función  con  valores  reales  para  subconjuntos  de  Ω  (eventos)  que  satisface  
ciertas    propiedades  (vea  Wikipedia  para  una  definición  precisa  en  general).      

En  el  caso  de  que  el  conjunto  de  eventos  posibles  sea  finito,  estos  axiomas  se  traducen  en  que  
cada  evento  tiene  una  probabilidad  mayor  o  igual  a  cero  y  la  suma  de  todas  las  probabilidades  
es  exactamente  uno.  

Probabilidad  condicional  

La  probabilidad  condicional  se  refiere  a  la  probabilidad  de  ocurrencia  de  un  evento  dada  
información  parcial  sobre  el  resultado.    Se  escribe  P(A|B),  se  lee  “probabilidad  de  A  dado  B”  y  
se  calcula  

𝑃(𝐴 ∩ 𝐵)
𝑃 𝐴𝐵 =  
𝑃(𝐵)

Podríamos  por  ejemplo  lanzar  un  dado  y  preguntar  sobre  la  probabilidad  de  que  muestre  un  
número  par,  si  alguien  nos  informó  que  muestra  un  valor  mayor  a  3.    En  este  caso  el  evento  A  
es  {2,  4,  6}  y  el  evento  B  es  {4,  5,  6}.    Como  𝐴 ∩ 𝐵 = {4, 6},  tenemos    
!
! 2
𝑃 𝐴𝐵 = ! =  
3
!

Y  también  podría  haberse  calculado  usando  directamente  el  modelo  de  Laplace,  restringido  al  
espacio  B.  

Inferencia  Bayesiana  

El  método  de  inferencia  Bayesiana  (vea  Wikipedia)  se  utiliza  para  calcular  la  probabilidad  de  un  
evento  dada  una  probabilidad  base  (a  priori)  y  un  resultado  experimental.    Lo  que  obtenemos  
se  llama  probabilidad  actualizada  (a  posteriori).    Para  facilitar  la  comprensión  del  método,  
analizaremos  tres  casos  diferentes  de  una  persona  que  se  realiza  un  cierto  análisis  para  
determinar  si  padece  de  cáncer  a  la  próstata.    Como  antecedente  general,  el  laboratorio  nos  
indica  que  la  probabilidad  de  que  el  test  salga  positivo  si  la  persona  tiene  cáncer  es  0,99  
(sensibilidad)  y  la  probabilidad  de  que  salga  negativo  si  no  padece  cáncer  es  0,98  
(especificidad).      
     
 
1. Sujeto  A  es  un  hombre  que  decide  realizarse  el  test  pues  acaba  de  cumplir  50  años.    
No  tiene  malestares,  pero  se  dice  que  siempre  es  preferible  prevenir.    El  test  resulta  
positivo,  ¿cuál  es  la  probabilidad  de  que  A  padezca  de  cáncer  a  la  próstata?  Si  
consideramos  que  la  probabilidad  a  priori  de  que  un  hombre  de  50  años  tenga  cáncer  
a  la  próstata  es  0,05%,  podemos  usar  el  método  de  inferencia  bayesiana  para  calcular  
la  nueva  probabilidad.    A  priori  nuestro  árbol  de  probabilidades  es:  
 
0,99   Test  positivo   0,000495  
0,0005   Tiene  
cáncer  
0,01   Test  negativo   0,000005  

0,02   Test  positivo   0,01999  


0,9995   No  tiene  
cáncer   0,98   Test  negativo   0,97951  
 

Como  ahora  sabemos  que  el  test  resultó  positivo,  podemos  calcular  la  probabilidad  
condicional  apropiada,  es  decir:  
!,!!!"#$
P(tiene  cáncer|test  positivo)  =   ≈ 0,024  
!,!"###!!,!!!"#$

Lo  que  quiere  decir  que  la  probabilidad  de  que  padezca  de  cáncer,  conocido  el  
resultado  del  test,  es  aproximadamente  2,4%.  

2. Sujeto  Bes  un  hombre  cuyos  síntomas  lo  hacen  visitar  un  médico  quién  estima  que  la  
probabilidad  de  que  tenga  cáncer  es  de  50%  y  le  recomienda  realizarse  el  test.  El  test  
resulta  de  positivo,  ¿cuál  es  la  probabilidad  de  que  B  tenga  cáncer  a  la  próstata?    
Repitamos  el  análisis  anterior:  
 
0,99   Test  positivo   0,495  
Tiene  
cáncer  
0,5  
0,01   Test  negativo   0,005  

0,02   Test  positivo   0,01  


0,5   No  tiene  
cáncer   Test  negativo  
0,98   0,49  
 
!,!"#
P(tiene  cáncer|test  positivo)  =   ≈ 0,98  
!,!"#!!,!"
Lo  que  quiere  decir  que  la  probabilidad  de  que  padezca  de  cáncer,  conocido  el  
resultado  del  test,  es  aproximadamente  98%  
3. Sujeto  C  es  una  mujer  cuyo  examen  de  sangre  accidentalmente  fue  sometido  al  test  de  
cáncer  prostático.    El  test  resulta  positivo,  ¿cuál  es  la  probabilidad  de  que  C  padezca  
     
 
cáncer  a  la  próstata?  Claramente  la  probabilidad  a  priori  es  0  y  si  hacemos  el  análisis  
bayesiano,    la  probabilidad  a  posteriori  sigue  siendo  0,  como  deberíamos  suponer.  

Modelo  Normal  o  Gaussiano  

El  modelo  Normal  es  una  distribución  de  probabilidad  de  variable  continua  también  conocida  
como  “campana  de  Gauss”.    La  expresión  analítica  de  la  función  de  densidad  es  relativamente  
complicada  y  depende  de  dos  parámetros,  la  media  µ  y  la  desviación  estándar  σ.  

1 ! !!! !
!!
𝑓 𝑥 = 𝑒 !  
𝜎 2𝜋

Su  gráfica  en  el  intervalo  [-­‐4,  4],  para  µ=0  y  σ=1  es:  

Es  probable  que  le  llame  la  atención  la  similitud  entre  esta  gráfica  y  la  figura2.  Para  ilustrar  aún  
mejor  esta  similitud,  hagamos  un  gráfico  superpuesto  de  la  frecuencia  relativa  
correspondiente  a  la  figura2  y  una  distribución  normal  de  media  500  y  desviación  estándar  
250 ≈ 15,81  (es  la  que  corresponde  al  modelo  teórico  de  lanzar  1.000  monedas).  
     
 

En  realidad  el  modelo  binomial  que  corresponde  a  lanzar  1.000  monedas  es  muy  parecido  al  
modelo  Normal  y  esa  similitud  es  una  de  las  razones  por  las  que  el  modelo  Normal  es  tan  
usado.    Vea  más  sobre  el  modelo  normal  en  Wikipedia.  

Estimación  de  parámetros  

Volviendo  a  la  interpretación  de  datos,  supongamos  que  hemos  seleccionado  una  muestra  de  
la  población  que  nos  interesa  estudiar  y  que  tenemos  los  datos  de  esa  muestra.    Nos  interesa  
por  ejemplo  estimar  el  valor  medio  de  la  variable  para  toda  la  población.    Podríamos  comenzar  
por  calcular  la  media  de  los  datos  muestrales,  pero,  ¿qué  tan  cerca  de  la  media  de  la  población  
estará  este  valor?  y  ¿qué  tan  confiable  es  la  estimación?  

Para  responder  a  estas  preguntas  haremos  uso  de  un  resultado  teórico  importante  que  dice  
que  si  tenemos  una  población  con  media  µ  y  desviación  estándar  σ    y  tomamos  muestras  de  
tamaño  𝑛,  con  𝑛  suficientemente  grande,  entonces    las  medias  de  estas  muestras  se  
!
distribuyen  de  forma  aproximadamente  normal  con  media  µ  y  desviación  estándar   .    
!

En  la  práctica  tenemos  una  sola  muestra  de  tamaño  𝑛,  con  media  𝑥  y  desviación  estándar  𝑠  y  
queremos  determinar  un  intervalo  en  el  cual  se  encuentre  la  media  de  µ  de  la  población  con  
cierto  nivel  de  confianza.    El  tamaño  del  intervalo  que  propongamos  depende  del  grado  de  
confianza  que  queramos  tener,  mientras  más  grande  el  intervalo,  mayor  será  la  confianza,  
pero  menor  la  precisión  de  la  estimación.    Es  usual  considerar  intervalos  de  radio  s,  2s  o  3s  
alrededor  de  la  media  muestral𝑥,  correspondientes  a  niveles  de  confianza  de  68%,  95%  y  
99,7%  respectivamente.    Estos  valores  provienen  de  calcular  el  área  bajo  la  curva  normal  en  el  
intervalo  propuesto  y  pueden  obtenerse  de  una  tabla.    Ver  Wikipedia  para  otra  exposición  
sobre  intervalos  de  confianza  y  un  ejemplo  detallado.  
     
 
Ejemplo  

Volvamos  una  vez  más  a  los  datos  meteorológicos.      Queremos  determinar  la  temperatura  
promedio  a  partir  de  una  muestra  extraída  al  azar.  Empecemos  considerando  muestras  de  20  
datos  elegidos  al  azar  (con  reposición)  entre  los  801  datos  de  la  población.  La  teoría  predice  
que  estas  muestras  se  distribuirán  de  manera  normal  con  media  igual  a  la  media  de  la  
!
población  y  con  desviación  estándar  igual  a   ≈0,84.    
!"

Los  datos  correspondientes  a  una  muestra  fueron  {6.8,  10.0,  3.9,  3.8,  17.0,  0.20,  2.7,  4.0,  12.0,  
2.2,  9.8,  5.0,  8.0,  4.3,8.0,  8.9,  10.0,  12.,  8.1,  8.2}  cuya  media  es  7,21°C.    Si  queremos  
determinar  un  intervalo  con  un  95%  de  confianza,  debemos  tomar  un  radio  de  1,68  (dos  veces  
la  desviación  estándar),  es  decir  [5,53  ,  8,89].    Efectivamente  la  media  del  conjunto  completo  
de  los  datos  (8,27°C)  está  en  el  intervalo,  pero  esto  solo  lo  sabemos  pues  conocemos  todos  los  
datos.  

Para  ilustrar  la  situación,  hemos  simulado  la  selección  de  1.000  muestras,  de  20  datos  cada  
una,  y  mostramos  a  continuación  una  tabla  conlas  medias  obtenidas.    El  ancho  elegido  para  los  
intervalos  es  0,84.  

Media   Frecuencia  
[4.91,  5.75[   2  
[5.75,  6.59[     23  
[6.59,  7.43[   129  
[7.43,  8.27[   337  
[8.27,  9.11[   344  
[9.11,  9.95[   145  
[9.95,  10.79[     20  
[10.79,  11.63]   0  
 

Notemos  que  el  intervalo  de  radio  1,68  centrado  en  una  media  muestral  incluye  la  media  de  la  
población  si  y  solo  si  la  media  muestral  está  en  el  intervalo  de  radio  1,68  centrado  en  la  media  
de  la  población.  De  las  1.000  medias  obtenidas,  esto  se  cumple  para  955,  es  decir  un  95,5%  de  
las  veces  lo  que  corresponde  cercanamente  con  la  confianza  estimada  originalmente  (95%).  

Si  deseamos  una  mayor  precisión  (intervalo  más  pequeño)  manteniendo  el  nivel  de  confianza,  
debemos  aumentar  el  tamaño  de  la  muestra.  Una  muestra  de  80  valores  permite  disminuir  a  la  
mitad  el  largo  del  intervalo.  

¿Qué  es  un  empate  técnico?  

El  término  empate  técnico  se  usa  mucho  al  anunciar  los  resultados  de  una  encuesta  que  no  es  
capaz  de  predecir  al  ganador  de  una  elección.    En  estricto  rigor  no  se  trata  de  un  empate,  que  
prácticamente  nunca  se  produce  en  una  votación,  sino  que  de  una  limitación  de  la  encuesta  
debido  a  que  el  error  estimado  es  mayor  a  la  diferencia  entre  los  resultados  de  los  candidatos.    
Esto  puede  deberse  a  que  efectivamente  los  resultados  esperados  sean  muy  estrechos  o,  a  
que,  por  el  diseño  de  la  encuesta,  su  margen  de  error  sea  demasiado  grande.    
     
 
A  modo  de  ejemplo,  utilicemos  un  modelo  binomial  para  analizar  el  resultado  de  una  encuesta  
ficticia.    Elegimos  al  azar  una  muestra  de  400  personas  y  resulta  que  53%  se  manifiestan  en  
favor  del  candidato  A  mientras  que  47%  lo  hacen  en  favor  de  B.    Hay  muchos  factores  de  error  
en  una  encuesta,  no  sabemos  si  los  encuestados  votarán  efectivamente  o  si  nos  han  mentido,  
pero  en  este  ejemplo  solo  consideraremos  el  error  debido  al  muestreo.    Supongamos  además  
que  nos  interesa  conocer  el  margen  de  error  que  nos  dé  un  nivel  de  confianza  del  95%.  

El  proceso  de  elegir  la  muestra  y  obtener  las  respuestas  se  puede  interpretar  como  el  
lanzamiento  de  una  moneda  100  veces.    Lo  que  nos  interesa  saber,  es  si  esta  “moneda”  está  
cargada  a  favor  de  A.  Como  aproximadamente  la  mitad  de  la  población  favorece  a  cada  
candidato,  podemos  estimar  p=0,5  para  simplificar  el  cálculo  de  la  desviación  estándar.    La  
varianza  en  el  modelo  binomial  es  V=p(1-­‐p)/n,  en  este  caso  V=0,25/400=0,000625  de  manera  
que  la  desviación  estándar  es  σ  =   0,000625  =  0,025.    Para  un  nivel  de  confianza  de  95%,  el  
margen  de  error  es  aproximadamente  2σ,  en  este  caso  5%.  Concluimos  que  el  53%  realmente  
solo  nos  permite  asegurar  que  el  porcentaje  de  votos  a  favor  de  A  estará  entre  48%  y  58%  y  no  
podemos  decir  que  sea  mayor  al  de  B  que  se  encontrará  entre  42%  y  52%.    Ante  esta  situación,  
el  resultado  de  la  encuesta  se  puede  declarar  un  “empate  técnico”.  

¿Qué  significa  que  un  resultado  sea  estadísticamente  significativo?  

Esta  expresión  se  utiliza  en  muchos  estudios  que  buscan  demostrar  que  un  resultado  no  se  
debe  al  azar.    Podría  ser  que  se  quiera  demostrar  la  efectividad  de  un  tratamiento  o  la  
superioridad  de  los  resultados  de  un  colegio  por  sobre  otro.    En  cualquier  caso  se  determina  a  
priori  el  nivel  de  significación  deseado  (probabilidad  de  que  el  resultado  se  deba  al  azar)  y  se  
compara  con  el  valor  P  obtenido  a  partir  de  los  datos  que  supone  tienen  una  distribución  
conocida.    Si  el  valor  P  es  menor  al  nivel  de  significación,  se  rechaza  la  hipótesis  nula  (de  que  el  
efecto  se  debe  al  azar)  y  se  valida  como  estadísticamente  significativo  el  resultado.  

Esto  no  quiere  decir  que  el  resultado  sea  significativo  en  el  sentido  usual  de  la  palabra,  pues  
puede  que  en  términos  absolutos  sea  muy  pequeño.    Podríamos  estar  reduciendo  el  dolor  en  
un  2%  o  los  puntajes  en  la  PSU  de  un  colegio  podrían  promediar  3  puntos  más  que  en  otro.  

Un  ejemplo  concreto:  

¿Cómo  comprobar  si  una  moneda  está  cargada?  

Miremos  nuevamente  el  gráfico  de  la  figura2,  que  representa  los  datos  recogidos  de  repetir  
10.000  veces  el  experimento  de  lanzar  una  moneda  justa  (no  cargada).    Ahora  disponemos  de  
una  moneda  que  podría  estar  cargada  y  la  lanzamos  1.000  veces.    Si  el  resultado  obtenido  es  
“improbable”  de  acuerdo  a  la  distribución  obtenida  para  la  moneda  normal,  diremos  que  es  
“probable”  que  la  moneda  nueva  esté  cargada.      

Por  ejemplo,  si  obtenemos  menos  de  450  caras,  la  probabilidad  de  que  esto  ocurra  con  una  
moneda  normal  es  menor  a  0,0002  por  lo  que  podemos  decir  que  la  moneda  está  cargada  a  
favor  de  sello  con  un  nivel  de  significación  estadística  menor  a  p=0,0002.  Si  en  cambio  
obtenemos  490  caras,  no  podemos  concluir  ni  que  la  moneda  está  cargada  ni  que  no  lo  está  
     
 
pues  el  nivel  de  significación  sería  demasiado  alto(malo).    Recordemos  que  por  lo  general  el  
resultado  de  un  test  nos  puede  permitir  rechazar  una  hipótesis  (moneda  justa),  pero  no  nos  
puede  permitir  verificar  la  hipótesis.    Para  más  información  sobre  test  de  hipótesis,  vea  
Wikipedia.    

Ejercicio:  

¿Es  Santiago  más  o  menos  frío  que  Concepción  en  el  mes  de  Julio?  ¿Puede  afirmarlo  tomando  
una  muestra  de  50  temperaturas  en  cada  uno  de  los  lugares?  

También podría gustarte