Está en la página 1de 28

Elsa Blanquet Moltó

Curso: 2P

PROBABILIDAD Y
ESTADÍSTICA
Matemáticas para maestros
Índice
1. PROBABILIDAD………………………………………………………………………………………….………2
1.1. HISTORIA………………………………………………………………………………………….……2
1.2. CONCEPTOS DE PROBABILIDAD…………………………………….………………….……3
1.3. TIPOS DE PROBABILIDAD………………………………………………………………….……4
1.4. TIPOS DE SUCESOS………………………………………………………………….…………….5
1.5. LEY DE LAPLACE, SUCESO CONTRARIO……………………………………….………….6
1.6. OPERACIONES CON SUCESOS……………………………………………….……………….6
1.7. CONCEPTO DE PROBABILIDAD CONDICIONADA……………………….……………9
1.8. CRITERIO DE INDEPENDENCIA DE SUCESOS…………………………………………10
1.9. DIAGRAMA DE ÁRBOL………………………………………………………………….………10
1.10. TEOREMA DE BAYES…………………………………………………………………………….12
2. ESTADÍSTICA……………………………………………………………………………………………………13
2.1. INTRODUCCIÓN E HISTORIA…………………………………………………………………13
2.2. TIPOS DE VARIABLES ESTADÍSTICAS…………………………………………………..…14
2.3. OTROS TIPOS DE VARIABLES……………………………………..…………………………16
2.4. CONCEPTOS BÁSICOS…………………………………………………………………………..18
2.5. MEDIDAS DE CENTRALIZACIÓN……………………………………………………………19
2.6. VARIANZA……………………………………………………………………………………………22
2.7. DESVIACIÓN TÍPICA O ESTÁNDAR…………………………………………………………24

1
PROBABILIDAD

HISTORIA

En cuanto al concepto en sí, la probabilidad y el azar siempre ha estado en la mente del


ser humano. Por ejemplo:
Sumerios y Asirios utilizaban un hueso extraído del talón de animales como ovejas,
ciervos o caballos, denominado astrágalo o talus, que tallaban para que pudieran caer
en cuatro posiciones distintas, por lo que son considerados como los precursores de los
dados.
En el caso de la civilización egipcia, algunas pinturas encontradas en las tumbas de los
faraones muestran tanto astrágalos como tableros para el registro de los resultados.
Por su parte, los juegos con dados se practicaron ininterrumpidamente desde los
tiempos del Imperio Romano hasta el Renacimiento, aunque no se conoce apenas las
reglas con las que jugaban. Uno de estos juegos, denominado "hazard", palabra que en
inglés y francés significa riesgo o peligro, fue introducido en Europa con la Tercera
Cruzada. Las raíces etimológicas del término provienen de la palabra árabe "al-azar", que
significa "dado". Posteriormente, en el "Purgatorio" de Dante el término aparece ya
como "azar".
En la actualidad, ruletas, máquinas tragaperras, loterías, quinielas..., nos indican que
dicha fascinación del hombre por el juego continúa.
La historia de la probabilidad comienza en el siglo XVII cuando Pierre Fermat y Blaise
Pascal tratan de resolver algunos problemas relacionados con los juegos de azar. Aunque
algunos marcan sus inicios cuando Cardano (jugador donde los haya) escribió sobre
1520 El Libro de los Juegos de Azar (aunque no fué publicado hasta más de un siglo
después, sobre 1660) no es hasta dicha fecha que comienza a elaborarse una teoría
aceptable sobre los juegos.
Christian Huygens conoció la correspondencia entre Blaise Pascal y Pierre Fermat
suscitada por el caballero De Méré, se planteó el debate de determinar la probabilidad
de ganar una partida, y publicó (en 1657) el primer libro sobre probabilidad: De
Ratiociniis in Ludo Aleae, (Calculating in Games of Chance), un tratado sobre juegos de
azar. Se aceptaba como intuitivo el concepto de equiprobabilidad, se admitía que la
probabilidad de conseguir un acontecimiento fuese igual al cociente entre
Durante el siglo XVIII, debido muy particularmente a la popularidad de los juegos de azar,
el cálculo de probabilidades tuvo un notable desarrollo sobre la base de la anterior
2
definición de probabilidad. Destacan en 1713 el teorema de Bernoulli y la distribución
binomial, y en 1738 el primer caso particular estudiado por De Moivre, del teorema
central del límite. En 1809 Gauss inició el estudio de la teoría de errores y en
1810 Laplace, que había considerado anteriormente el tema, completó el desarrollo de
esta teoría. En 1812 Pierre Laplace publicó Théorie analytique des probabilités en el que
expone un análisis matemático sobre los juegos de azar.
A mediados del siglo XIX, un fraile agustino austríaco, Gregor Mendel, inició el estudio
de la herencia, la genética, con sus interesantes experimentos sobre el cruce de plantas
de diferentes características. Su obra, La matemática de la Herencia, fue una de las
primeras aplicaciones importantes de la teoría de probabilidad a las ciencias naturales
Desde los orígenes la principal dificultad para poder considerar la probabilidad como una
rama de la matemática fue la elaboración de una teoría suficientemente precisa como
para que fuese aceptada como una forma de matemática. A principios del siglo XX el
matemático ruso Andrei Kolmogorov la definió de forma axiomática y estableció las
bases para la moderna teoría de la probabilidad que en la actualidad es parte de una
teoría más amplia como es la teoría de la medida.

CONCEPTOS DE PROBABILIDAD

La idea de probabilidad es uno de esos conceptos que cualquier ser humano tiene
preaprendido. Todos tenemos conocimiento intuitivo de lo que supone que una cosa sea
muy difícil que ocurra (acertar en la lotería) o de algo que sea más fácil que ocurra (lanzar
una moneda y que salga cara). Otra cosa es la definición matemática. Desde el punto de
vista formal, el concepto de probabilidad se puede abordar desde tres puntos de vista
diferentes.
4.1 Definición de Bernoulli
La probabilidad de un suceso A de un experimento aleatorio se puede definir como el
número al que se aproximan las frecuencias relativas de dicho suceso cuando el
experimento se repite un número indefinido de veces.

3
4.2. Definición de Laplace
Si un espacio muestral consta de un número finito de sucesos simples y todos ellos
tienen la misma posibilidad de suceder (equiprobables). Se define la probabilidad de
cualquier suceso A como:

4.3. Definición de Kolmogorov


Si un espacio muestral consta de un número finito de sucesos simples y todos ellos
tienen la misma posibilidad de suceder (equiprobables). Se define la probabilidad de
cualquier suceso A como:

TIPOS DE PROBABILIDAD

A continuación, explicamos cada uno de los tipos de probabilidad que existen:

• Simple: La probabilidad simple es el número de veces que puede ocurrir un


determinado suceso en función del número de elementos pueden dar lugar a
dicho suceso.
• Compuesta: Se trata de la probabilidad que existe de que se produzcan de forma
simultánea dos sucesos.
• Condicionada: Es la probabilidad que existe de que ocurra un suceso si ya se ha
producido otro suceso previamente.
• Clásica: Es de las probabilidades más utilizadas. Consiste en dividir el número de
resultados favorables entre los resultados posibles.
• De espacio muestral: Es el conjunto de posibilidades de cada uno de los sucesos
que forman parte del espacio muestral.

4
• De la unión: Es la probabilidad de que se produzca alguno de los sucesos de dos
espacios muestrales diferentes.
• De la intersección: Se trata de la probabilidad de que se produzca alguno de los
sucesos que tienen en común dos espacios muestrales diferentes.
• Frecuencial: Consiste en dividir el número de resultados favorables entre el
número de veces que se ha realizado un experimento aleatorio.
• Lógica: Se basa en asignar probabilidades en función de la lógica y la evidencia
de que se produzca un determinado suceso.
• Geométrica: Cuantifica la probabilidad de que el resultado de un suceso
aleatorio se encuentre dentro del espacio muestral.
• Hipergeométrica: Es la probabilidad de que suceda un suceso sin reemplazar
ninguno de sus elementos.
• Objetiva: Es la probabilidad que se ha obtenido en base a un experimento que la
acredite.
• Subjetiva: Esta probabilidad tiene mucha relación con la probabilidad lógica
mencionada anteriormente. Extrae el valor de la probabilidad través de
experiencias personales o creencias.
• Poisson: Esta probabilidad se calcula en base al espacio y al tiempo.
• Binomial: Muestra la probabilidad tras estudiar el número de éxitos una
secuencia de ensayos independientes entre sí.

TIPOS DE SUCESOS

En el contexto probabilístico, denominamos suceso a cualquier subconjunto de un


espacio muestral; esto es, a cualquier posible resultado de un experimento aleatorio.
Suceso elemental
Un suceso se dice que es un suceso elemental si está formado por un único elemento
del espacio muestral. Por ejemplo, al tirar un dado el suceso consistente en obtener un
cinco.
Suceso compuesto
Un suceso se dice que es un suceso compuesto si está formado por más de un
elemento del espacio muestral. En el mismo ejemplo anterior obtener un número par,
es decir, que salga un 2 o un 4 o un 6.

Entre los diferentes sucesos destacaremos los siguientes:


Suceso seguro
El suceso seguro es aquél que está formado por todos los resultados posibles del
espacio muestral (E), es decir aquél que se cumple siempre. Por ejemplo, al tirar un
dado cúbico obtener un número del uno al seis.

5
Suceso imposible
El suceso imposible es aquél que no ocurre nunca. Se expresa con el símbolo Ø. Por
ejemplo, obtener un ocho al tirar un dado cúbico.
Suceso contrario o complementario de otro suceso
Se define el suceso contrario a A como el suceso que acontece cuando no ocurre A. EL
suceso contrario a obtener un número par es obtener uno impar. Suele denotarse
como:

LEY DE LAPLACE, SUCESO CONTRARIO

OPERACIONES CON SUCESOS

Desde el punto de vista matemático es importantísimo definir en este conjunto de todos


los sucesos asociados a un experimento aleatorio, operaciones matemáticas que
permitan la manipulación e interacción entre ellos. Así se pueden definir en el conjunto

6
de todos los sucesos asociados a cualquier espacio muestral, fundamentalmente dos
operaciones que dotarán a dicho conjunto de una sólida estructura matemática
importante conocida con el nombre de Álgebra de Boole.
Unión de sucesos
Imaginemos que María y Luis celebran su cumpleaños el mismo día. María ha decidido
invitar a sus amigos y Luis a los suyos. Cotejando las respectivas listas de invitados
observaron que alguno de ellos estaba invitado a ambas fiestas. ¿A cuál de ellas
asistirían? Este problema puede resultar embarazoso hasta que a ambos cumpleañeros
se les ocurre la solución mágica. ¿Y si UNIMOS ambas fiestas y la celebramos juntos?
El suceso unión de A y B es el suceso que ocurre cuando ocurre A, ocurre B u ocurren
ambos. Está formado por todos los elementos de A y todos los de B. Lo indicamos así:

Intersección de sucesos
A Juan le gusta el fútbol, el baloncesto, las películas de aventuras, la música clásica y los
documentales de viajes. A su amiga Irene le van las películas románticas, el tenis, la
música disco y los documentales de viajes. ¡Qué pocas cosas tenemos en común!
exclamó Irene. Sin embargo, podríamos quedar para ver algún documental de viajes.
Efectivamente es algo que ambos adoramos. Es nuestra INTERSECCIÓN agregó Juan.
El suceso intersección de A y B, es el suceso que ocurre cuando ocurre A y ocurre B. Está
formado por los resultados comunes a los sucesos A y B. Lo indicamos así:

7
Resta de sucesos
El lunes Manuel salió con sus amigos Miguel, Pablo, María, Laura y Sofía y se le ocurrió
contar una ocurrencia muy graciosa que le paso en su último viaje. Fue muy divertido y
a todos les entusiasmó. El jueves siguiente Manuel volvió a salir con otro grupo de
amigos entre los que también estaban Laura y Sofía. Manuel volvió a contar la misma
anécdota, pero antes se disculpó con Laura y Sofía diciéndoles que por favor no contaran
el final. Por supuesto que al RESTO del grupo les resultó igual de divertida.
En realidad, no se trata de una nueva operación ya que se define a partir de las dos
operaciones anteriores. Sin embargo, dada la gran asiduidad y el carácter
fundamentalmente práctico con el que aparece en muchas situaciones merece la pena
que hablemos de ella en un apartado propio. La diferencia de dos sucesos (A-B) es el
suceso que ocurre cuando ocurren los elementos de A que no están en B.
Representamos la resta de sucesos como:

En relación con las operaciones unión e intersección surgen también dos importantes
tipos de sucesos.

8
Cuando se verifica que la intersección es vacía; (= Ø), se dice que los sucesos A y B son
dos sucesos incompatibles.
Cuando se verifica que la intersección es distinta del vacío; (≠ Ø), se dice que los sucesos
A y B son dos sucesos compatibles.

CONCEPTO DE PROBABILIDAD CONDICIONADA

El concepto de probabilidad condicionada va ligado siempre a sucesos compuestos, en


el sentido de que la ocurrencia o no de uno de ellos influya o no en la ocurrencia o no
del otro.
Imagina que sabemos que en una urna hay sobres blancos y azules. Los sobres blancos,
casi todos tienen premio. Los sobres azules casi ninguno tiene premio. Evidentemente si
me dicen que el sobre que he elegido es blanco, eso aumentará mis expectativas de
haber conseguido premio. Por el contrario, si me dicen que el sobre elegido es azul, mis
expectativas de premio serán mucho peores.
Siempre que tenga sentido, se denomina probabilidad condicionada del suceso A
respecto del suceso B, (probabilidad de A condicionado a B) y se representa p(A/B) al
cociente:

De la misma forma se puede definir la probabilidad del suceso B condicionado al suceso


A como:

De las definiciones anteriores se obtiene la fórmula general para la probabilidad de la


intersección de sucesos. En realidad, se trata de la formulación general para la
probabilidad de la intersección de sucesos.

9
CRITERIO DE INDEPENDENCIA DE SUCESOS

Imagina que vamos a sacar dos cartas de una baraja. Realizamos el experimento sacando
en primer lugar una de las cartas, anotamos su valor, la devolvemos a la baraja,
mezclamos bien y extraemos la segunda carta. ¿Influye lo que ocurrió en la primera
extracción en lo que ocurrirá en la segunda?.
En muchas situaciones en la que la probabilidad aparece ligada a sucesos compuestos,
la ocurrencia de un suceso no influye en nada en la ocurrencia o no del otro. Por así
decirlo, no existe nada adicional que modifique las posibilidades de ocurrencia del
segundo suceso cuando se sabe que ha ocurrido el primero; esto es si el primero no
hubiera ocurrido, las posibilidades del segundo seguirían siendo exactamente las
mismas. En estos casos, se habla de Independencia de los sucesos.
Cuando se cumpla que p(B/A) coincida con p(B) se dice que los sucesos A y B son
independientes. En este caso la probabilidad de la intersección obtenida en el epígrafe
anterior quedaría simplemente como el producto de las probabilidades de cada suceso.

La fórmula anterior se conoce con el nombre de criterio de independencia y es lo que en


la práctica nos lleva a calificar sucesos como independientes.

DIAGRAMA DE ÁRBOL

Un árbol de probabilidad o diagrama de árbol es una herramienta que se utiliza para


determinar si en realidad en el cálculo de muchas opciones se requiere conocer el
número de objetos que forman parte del espacio muestral, estos se pueden determinar
con la construcción de un diagrama de árbol.
El diagrama de árbol es una representación gráfica de los posibles resultados del
experimento, el cual consta de una serie de pasos, donde cada uno de estos tiene un
número infinito de maneras de ser llevado a cabo. Se utiliza en los problemas de conteo
y probabilidad.
Para la construcción de un diagrama en árbol se partirá poniendo una rama para cada
una de las posibilidades, acompañada de su probabilidad. Cada una de estas ramas se
conoce como rama de primera generación.
En el final de cada rama de primera generación se constituye, un nudo del cual parten
nuevas ramas conocidas como ramas de segunda generación, según las posibilidades del
siguiente paso, salvo si el nudo representa un posible final del experimento (nudo final).

10
Hay que tener en cuenta que la construcción de un árbol no depende de tener el mismo
número de ramas de segunda generación que salen de cada rama de primera generación
y que la suma de probabilidades de las ramas de cada nudo ha de dar 1.
Existe un principio sencillo de los diagramas de árbol que hace que éstos sean mucho
más útiles para los cálculos rápidos de probabilidad: multiplicamos las probabilidades si
se trata de ramas adyacentes (contiguas), el ejemplo de alumna de la primera facultad,
o bien las sumamos si se trata de ramas separadas que emergen de un mismo punto, el
ejemplo de encontrar un alumno.
Ejemplos
Una universidad está formada por tres facultades:

• La 1ª con el 50% de estudiantes.


• La 2ª con el 25% de estudiantes.
• La 3ª con el 25% de estudiantes.
Las mujeres están repartidas uniformemente, siendo un 60% del total en cada facultad.

¿Probabilidad de encontrar una alumna de la primera facultad?

11
¿Probabilidad de encontrar un alumno varón?

Pero también podría ser lo contrario.

Relación con probabilidad condicionada


Esta herramienta está fundamentada en el cálculo de probabilidades condicionadas.
Por ejemplo: podemos identificar el 0,6 que encontramos en la rama que va de 1ª
facultad a mujer como la siguiente probabilidad condicionada:

También esta herramienta se relaciona con algunos teoremas de la probabilidad


condicionada
Dado que las tres facultades forman una partición del espacio muestral podemos indicar
como:

TEOREMA DE BAYES

Podemos calcular la probabilidad de un suceso A, sabiendo además que ese A cumple


cierta característica que condiciona su probabilidad. El teorema de Bayes entiende la

12
probabilidad de forma inversa al teorema de la probabilidad total. El teorema de la
probabilidad total hace inferencia sobre un suceso B, a partir de los resultados de los
sucesos A. Por su parte, Bayes calcula la probabilidad de A condicionado a B.

El teorema de Bayes ha sido muy cuestionado. Lo cual se ha debido, principalmente, a


su mala aplicación. Ya que, mientras se cumplan los supuestos de sucesos disjuntos y
exhaustivos, el teorema es totalmente válido.
Para calcular la probabilidad tal como la definió Bayes en este tipo de sucesos,
necesitamos una fórmula. La fórmula se define matemáticamente como:

Donde B es el suceso sobre el que tenemos información previa y A(n) son los distintos
sucesos condicionados. En la parte del numerador tenemos la probabilidad
condicionada, y en la parte de abajo la probabilidad total. En cualquier caso, aunque la
fórmula parezca un poco abstracta, es muy sencilla. Para demostrarlo, utilizaremos un
ejemplo en el que en lugar de A(1), A(2) y A(3), utilizaremos directamente A, B y C.

ESTADÍSTICA

INTRODUCCIÓN E HISTORIA

La estadística consiste en métodos, procedimientos y fórmulas que permiten recolectar


información para luego analizarla y extraer de ella conclusiones relevantes. Se puede
decir que es la Ciencia de los Datos y que su principal objetivo es mejorar la comprensión
de los hechos a partir de la información disponible.
El origen de la palabra estadística se suele atribuir al economista Gottfried Achenwall
(prusiano, 1719-1772) que entendía la estadística como “ciencia de las cosas que
pertenecen al Estado”.
Conviene saber que la estadística NO es una rama de las matemáticas. Utiliza
herramientas de las matemáticas del mismo modo que lo hace la física, la ingeniería o la

13
economía, pero eso no las hace ser parte de las matemáticas. Es cierto que tienen una
relación estrecha, pero la estadística y las matemáticas son disciplinas diferentes.
Una de las características fundamentales de la estadística es su transversalidad. Su
metodología es aplicable al estudio de diversas disciplinas tales como: biología, física,
economía, sociología, etc. La estadística ayuda a obtener conclusiones relevantes para
el estudio de todo tipo de agentes como: humanos, animales, plantas, etc.
Generalmente lo hace a través de muestras estadísticas.
La historia de la estadística data desde antes del 3.000 antes de Cristo. Nace con el
objetivo de recolectar información que necesitaba el Estado, por ejemplo, sobre la
agricultura y el comercio.
En la antigua Asiria y en Egipto se tiene evidencia de la recolección de datos estadísticos.
Asimismo, en Roma se recogían datos demográficos de los habitantes del imperio, como
aquellos de natalidad y mortalidad. Esto, con el propósito de tomar mejores decisiones
desde el gobierno.
Posteriormente, durante la Edad Media, la estadística no tuvo grandes avances. Sin
embargo, en la Edad Moderna se elaboraría el primer censo estadístico moderno y la
primera tabla de probabilidades de edades, ambos sucesos en el siglo XVII. Luego, hacia
el siglo XX, se comenzaron a incorporar herramientas matemáticas provenientes de la
teoría de la probabilidad a la estadística. Esto, principalmente por los aportes de
Kolmogorov y Borel.

TIPOS DE VARIABLES ESTADÍSTICAS

En estadística, los tipos de variables son los siguientes:

• Variable cualitativa: variable cuyos valores son cualidades o categorías.

o Variable cualitativa ordinal: las categorías de la variable


se pueden ordenar.
o Variable cualitativa nominal: los valores no admiten
ningún orden jerárquico.
• Variable cuantitativa: variable cuyos valores son numéricos.
o Variable cuantitativa discreta: la variable solo puede
tomar un número finito de valores.
o Variable cuantitativa continua: la variable puede tomar
cualquier valor dentro de un intervalo.

14
A continuación, se explica cada tipo de variable estadística más detalladamente y se
muestran ejemplos de cada uno.

Variable cualitativa
Una variable cualitativa (o variable categórica) es un tipo de variable cuyos valores son
cualidades, características o categorías y, por lo tanto, no admite valores numéricos.
A la vez, las variables cualitativas se dividen en dos subtipos: las variables cualitativas
ordinales, las cuales se pueden ordenar según algún criterio, y las variables cualitativas
nominales, que no se pueden ordenar jerárquicamente.
Ejemplos de variables cualitativas ordinales:
• Las medallas olímpicas: un atleta ganará la medalla de «oro», «plata o
«bronce» según su clasificación.

• La nota de una asignatura: puede ser «matrícula de honor», «excelente»,


«notable», «aprobado» o «suspenso».

• Los puestos de trabajo en una empresa: existe la posición de


«presidente», «vicepresidente», «jefe de departamento», «becario»…

• Los títulos nobiliarios: pueden ser «rey», «príncipe», «marqués»,


«conde»…

• La talla de una camiseta: puede ser «pequeña», «mediana», «grande»,


«extra grande»…

Ejemplos de variables cualitativas nominales:


• El género de una persona: puede ser «hombre» o «mujer».

• El estado civil de una persona: puede ser «casado/a», «soltero/a»,


«divorciado/a» …

• La profesión de una persona: puede ser «economista», «informático/a»,


«peluquero/a» …

• El país de nacimiento: hay muchos países posibles, tales como


«Argentina», «México», «España» …

• El grupo sanguíneo de una persona: hay cuatro opciones posibles que son
«Grupo A», «Grupo B», «Grupo AB» o «Grupo 0».

15
Variables cuantitativas
Una variable cuantitativa (o variable numérica) es un tipo de variable que solo admite
valores numéricos, es decir, el valor de una variable cuantitativa siempre será un
número.
Existen dos subtipos de variables cuantitativas: las variables cuantitativas discretas, que
son variables que no pueden tomar algunos valores, y las variables cuantitativas
continuas, las cuales pueden tomar cualquier valor numérico.
Ejemplos de variables cuantitativas discretas:

• El número de personas en una habitación: 1, 2, 5, 9…

• El número de hijos en una familia: 0, 1, 2, 3, 4, 5…

• Los posibles resultados del lanzamiento de un dado: 1, 2, 3, 4, 5 o 6.

• Los goles marcados por un equipo de fútbol durante un partido: 1, 2, 4,


5…

• La cantidad de trabajadores de una empresa: 54, 29, 158, 561, 302…

Ejemplos de variables cuantitativas continuas:

• El peso de un grupo de personas: 74,5 kg, 58,14 kg, 62,39 kg, 83,92 kg…

• La temperatura de una habitación: 25 ºC, 19,50 ºC, 12,83 ºC, 17,52 ºC,
29,4 ºC…

• El tiempo que tarda un atleta en recorrer los 100 m lisos: 9,81 s, 10,02 s,
9,52 s, 9,74 s, 11,25 s…

• La distancia entre dos localidades: 45 km, 0,82 km, 634 km, 35,87 km,
23,548 km…

• La velocidad de un coche: 58,00 km/h, 34,25 km/h, 29,50 km/h, 14,96


km/h, 76,94 km/h…

OTROS TIPOS DE VARIABLES

Normalmente, en estadística las variables se clasifican según los tipos que hemos visto
arriba. Sin embargo, también existen otras maneras de clasificar los diferentes tipos de
variables estadísticas, tal y como veremos a continuación.

16
Según su relación con otras variables
En un estudio estadístico, las variables se pueden clasificar según la relación que tengan
entre sí:

• Variable independiente: aquella variable cuyo valor no depende de


ninguna otra variable.

• Variable dependiente: variable cuyo valor depende del valor que tome
otra variable (la variable independiente).

• Variable interviniente: variable que afecta a la relación entre la variable


independiente y la variable dependiente pero que no se quiere analizar.

Por ejemplo, si en una investigación se estudia estadísticamente la relación entre las


calificaciones obtenidas por los alumnos y las horas de estudio dedicadas, la variable
dependiente son las calificaciones y la variable independiente son las horas de estudio.
Porque las notas dependen de las horas de estudio, y no al revés.

Asimismo, una variable interviniente sería la motivación de los profesores al explicar el


temario. Lógicamente, las calificaciones variarán dependiendo de la motivación de cada
profesor ya que explicarán mejor o peor, sin embargo, es una característica que no se
pretende analizar.

Según su escala
Según cuál sea el cero absoluto de la escala que representa una variable numérica, se
pueden distinguir dos tipos:

• Variable de razón: variable cuyo cero absoluto coincide con el cero


absoluto de la magnitud que representa. Por ejemplo: la velocidad de un
coche (si la velocidad de un coche es 0 km/h significa que no se está
moviendo).

• Variable de intervalo: variable cuyo 0 no corresponde con el cero


absoluto de la magnitud que representa. Por ejemplo: la temperatura (0
ºC no implica la ausencia de temperatura, ya que también existen
temperaturas negativas).

Según el número de valores


Según el número de posibles valores que puede tomar la variable estadística, se
diferencian dos tipos:

• Variable dicotómica: la variable solo puede tomar dos valores. Por


ejemplo: el lanzamiento de una moneda (cara o cruz).

17
• Variable dicotómica: la variable puede tomar tres o más valores. Por
ejemplo: la profesión de una persona (camarero/a, doctor/a,
traductor/a…).

CONCEPTOS BÁSICOS

La estadística estudia la variabilidad sobre cuestiones de la realidad en los que interviene


el azar. Gracias a la estadística se consiguen una serie de datos objetivables mediante
los cuales se pueden extraer una serie de conclusiones.
La estadística son los métodos y procedimientos para recoger, clasificar, analizar y
representar los datos, así como obtener conclusiones a través de ellos, con la intención
de formular predicciones y ayudar en la toma de decisiones.
Existen dos tipos principales de estadística:

• Estadística descriptiva o estadística deductiva; es la parte de la estadística que se


ocupa de ordenar, sintetizar y representar gráficamente los resultados recogidos
durante la investigación. La estadística descriptiva no solo describe, sino también
analiza y representa los datos utilizando elementos numéricos y gráficos.

• Estadística inferencial o estadística inductiva; es la estadística que tiene como


objetivo obtener conclusiones sobre el total de la población a partir de los datos
obtenidos en un subconjunto de la misma o grupo de elementos representativos
(muestra).

Los principales conceptos en estadística a partir de los cuales podemos profundizar en


ella son:

• Población; también conocido como universo o conjunto completo de individuos


que cumplen una serie de características y al que harán referencia las
conclusiones del estudio. A partir de la población de estudio se elegirá una
muestra representativa.
• Muestra; es un grupo acotado o reducido de todos los individuos de forman la
población. Se considera que una muestra es representativa cuando los
individuos de la misma son seleccionados al azar.
• Individuo; son las personas o elementos que contienen la información del
fenómeno que se pretende estudiar.
• Muestreo; es el procedimiento mediante el cual se obtiene una muestra. El
muestreo puede ser probabilístico o aleatorio y no probabilístico o no aleatorio.
• Aleatoriedad de una muestra; es la característica mediante la cual todos los
miembros de una muestra tienen las mismas posibilidades de formar parte de la
misma.
• Homogeneidad de una muestra; es la característica mediante la cual las
variables de la muestra se presentan en la misma proporción que las de la
población.
18
• Independencia en la selección de una muestra; es la característica de la muestra
que determina que la selección de un individuo no influye en la selección de otro
individuo.
• Muestreo simple; es el muestreo de tipo probabilístico, mediante el cual
cualquier elemento de la población tiene la misma probabilidad de pertenecer a
la muestra.
• Muestreo sistemático; es el muestro de tipo probabilístico, en el que el proceso
de selección de la muestra se realiza mediante una regla sistemática simple
como es elegir un número determinado de individuos.
• Muestreo estratificado; es el muestreo de tipo probabilístico que divide la
población en subgrupos según algunas características para luego extraer una
muestra al azar de cada uno de los subgrupos.
• Muestreo por conglomerados; es el muestreo de tipo probabilístico en el que se
extrae una muestra al azar a partir de grupos naturales de individuos dentro del
universo o población.
• Muestreo de conveniencia; es el muestreo de tipo no probabilístico en el que la
muestra se selecciona por su facilidad o directamente se autoselecciona.
• Muestreo por cuota; es el muestreo de tipo no probabilístico, en el que la
muestra se sustenta sobre el buen conocimiento de los grupos o estratos de la
población y en los individuos más representativos para sus fines. También se
denomina muestreo accidental.
• Muestreo por criterio; es el muestreo de tipo no probabilístico en el que el
investigador utiliza sus conocimientos sobre la población para elegir los
individuos de la muestra.
• Variables; son las características de la población que se representan en los
individuos que forman la muestra y que son susceptibles de ser medidas. Las
variables pueden ser cuantitativa o cualitativas.
• Parámetro; es un índice que resume una determinada característica de la
población, representándose por las letras griegas “μ” o mu y “σ” o ro. Un
parámetro es la función definida sobre los valores numéricos de características
medibles de una población.
• Estadístico; es un índice que resume una determinada característica de la
muestra, representándose por las letras del alfabeto latino “x” y “s”. Un
estadístico es la función definida sobre los valores numéricos de una muestra.

MEDIDAS DE CENTRALIZACIÓN

Las medidas de centralización se refieren exclusivamente a variables cuantitativas, ya


que no es posible realizar cálculos con las variables cualitativas. El objeto de las medidas
de centralización es buscar un buen representante para todos los datos, es decir resumir
las observaciones realizadas en un solo valor. Las medidas de centralización son valores
situados siempre entre los extremos de los datos (supuestos estos ordenados). No
tendría ningún sentido que la media fuera menor o mayor que todos los datos.

19
Media aritmética
Es la medida de tendencia central que se utiliza más a menudo. Suele representarse por
y se calcula sumando todas las observaciones de un conjunto de datos y dividiendo
entre el total de las mediciones, esto es:

La media presenta algunos inconvenientes de los cuales, los más relevantes son los que
se comentan a continuación:

• Es muy sensible a los valores extremos de la variable, ya que todas las observaciones
intervienen en el cálculo de la media, la aparición de una observación extrema hará que
la media se desplace en esa dirección. En consecuencia, no es recomendable usar la
media como medida central en las distribuciones muy asimétricas.
• Si consideramos una variable discreta, por ejemplo, el número de hijos en las familias
españolas el valor de la media puede no pertenecer al conjunto de valores de la variable.
Por ejemplo, = 1,2 hijos.

Medias generalizadas

• Media geométrica: se utiliza con variables que evolucionan exponencialmente


respecto al tiempo: número de microorganismos de un cultivo.

• Media armónica: se utiliza para calcular velocidades medias de sedimentación.

• Media cuadrática: se utiliza cuando la variable toma valores positivos y negativos


(por ejemplo, en los errores de medida) e interesa obtener un promedio que no
recoja los efectos del signo.

20
Mediana
Si ordenamos de menor a mayor las observaciones de una variable discreta, llamaremos
mediana, y la denotaremos por Me, al primer valor de la variable que deja por debajo
de sí al 50% de las observaciones. La mediana se define como el percentil 50 de un
conjunto de mediciones. Si el número de datos, N, que tiene un conjunto es impar, la
mediana es el valor de la observación que está en medio de la lista ordenada, es decir,
el dato que ocupa la posición
Si N es par, la mediana, normalmente, se toma como el promedio de los dos valores
centrales, es decir, el punto medio de los datos que ocupan las posiciones
En el caso de variables continuas, las clases vienen dadas por intervalos, y aquí la fórmula
de la mediana se complica un poco más. Sea el intervalo donde hemos
encontrado que por debajo están el 50% de las observaciones y que llamaremos
intervalo mediano. Para encontrarlo basta dividir N entre 2 y buscar el primer intervalo
de la tabla cuya frecuencia absoluta acumulada iguale o supere el valor resultante, ese
será el intervalo mediano. Entonces se obtiene la mediana mediante interpolación lineal
según la fórmula:

Esto equivale a decir que la mediana divide al histograma en dos partes de áreas iguales.
Entre las ventajas de la mediana como medida descriptiva se cuentan:

• Tiene la ventaja de no estar afectada por las observaciones extremas, ya que no


depende de los valores que toma la variable, sino del orden de las mismas. Por
ello es adecuado su uso en distribuciones asimétricas.
• Es de cálculo rápido y de interpretación sencilla.
• A diferencia de la media, la mediana de una variable discreta es siempre un valor
del dominio de la variable que estudiamos con la única excepción del caso de un
número par de datos referentes a una variable discreta.

Moda
Es el máximo de la función de distribución. Es decir, es el valor que más se repite, el más
frecuente. Puede no ser única, esto es, podemos tener distribuciones con unimodales
(una moda), bimodales (dos modas), trimodales (tres modas), etcétera. La moda o
modas, caso de no ser única, la denotaremos por Mo. Cuando se trata de datos
agrupados en intervalos, llamaremos intervalo modal al que contenga la mayor cantidad
de datos, es decir al de mayor frecuencia absoluta, y tomaremos su marca de clase como
la moda de la distribución.

21
Relación entre Media, Mediana y Moda
La mejor medida de tendencia central de un conjunto de datos a menudo depende de la
forma en que se distribuyan los valores. Si son simétricos y unimodales (su histograma
sólo tiene un pico), la media, la mediana y la moda deberían tener valores muy
parecidos. Si la distribución es simétrica pero bimodal (dos picos) la media y la mediana
tendrían valores parecidos, pero no tendría por qué ser así con la moda, que podría
registrar dos valores. Cuando los datos no son simétricos, la mediana es a menudo la
mejor medida de tendencia central. Debido a que la media es sensible a las
observaciones extremas, se carga en dirección de los datos alejados del centro y, como
consecuencia, podría obtener un valor excesivamente grande o pequeño. Cuando los
datos están sesgados a la derecha, la media se sitúa a la derecha de la mediana, y si están
sesgados a la izquierda, entonces se localiza a la izquierda de la mediana. Muestras con
la misma media, mediana y moda pueden ser en realidad muy diferentes.

VARIANZA

Del mismo modo que para la media, no siempre será posible encontrar la varianza, y es
un parámetro muy sensible a las puntuaciones extremas. Se puede observar que al estar
la desviación elevada al cuadrado, la varianza no puede tener las mismas unidades que
los datos.

22
Comparando con el mismo tipo de datos, una varianza elevada significa que los datos
están más dispersos. Mientras que un valor de la varianza bajo indica que los valores
están por lo general más próximos a la media.
Un valor de la varianza igual a cero implica que todos los valores son iguales, y por lo
tanto también coinciden con la media aritmética.

Propiedades de la varianza

En el caso de que las distribuciones tengan distinto tamaño, la fórmula se pondera y


queda como:

Algunas aplicaciones de la varianza


Las aplicaciones estadísticas del concepto de la varianza son incontables. Las siguientes
son solo algunas de las principales:

• Los estimadores eficientes. Son aquellos cuya esperanza es el verdadero


valor del parámetro y, además, tienen una mínima varianza. De este modo,
hacemos lo más pequeño posible el riesgo de que lo que extraemos de una
muestra se aparte demasiado del verdadero valor del parámetro.
• Los estimadores consistentes. Son aquellos que, a medida que crece
el tamaño de la muestra, tienden a tener una varianza de cero. Por lo tanto,
con muestras grandes, la estimación tiende a desviarse muy poco del
verdadero valor.

23
• En la distribución normal, la varianza (su raíz cuadrada, la desviación típica)
es uno de los parámetros. La campana de Gauss tiende a ser más alta y
estrecha a medida que la varianza disminuye.
• En modelos de regresión, hablamos de homocedasticidad cuando la varianza
del error es constante a lo largo de sus observaciones. Por ejemplo, en una
regresión simple, vemos una nube de puntos en la que la dispersión de los
puntos alrededor de la recta o curva estimada se mantiene constante.
• El análisis de la varianza (ANOVA) permite comparar diferentes grupos y ver
los factores que influyen en ellos.
• La desigualdad de Chebyshev nos permite acotar en qué medida es probable
que una variable aleatoria se separe de su esperanza matemática en
proporción a su desviación típica (raíz cuadrada de la varianza).

DESVIACIÓN TÍPICA O ESTÁNDAR

La desviación típica es la raíz cuadrada de la varianza y se representa por la letra . Para


calculara se calcula la varianza y se saca la raíz. Las interpretaciones que se deducen de
la desviación típica son, por lo tanto, parecidas a las que se deducían de la varianza.
Comparando con el mismo tipo de datos, una desviación típica elevada significa que los
datos están dispersos, mientras que un valor bajo indica que los valores son próximos
los unos de los otros, y por lo tanto de la media.

24
Propiedades de la desviación típica

En el caso de que las distribuciones tengan distinto tamaño, la fórmula se pondera y


queda como:

Aplicaciones de la desviación típica


Algunos usos comunes de la desviación son:
1. Medir el riesgo de inversiones
Muchas empresas dedicadas a las inversiones utilizan la desviación estándar para
conocer cuánto se desvía el rendimiento del fondo de la rentabilidad normal esperada.
Como es fácil de entender, esta estadística se puede comunicar a los clientes finales y a
los inversionistas.
De esta manera, la desviación permite evaluar la volatilidad de los valores en el mercado
y a prever tendencias futuras de rendimiento.
2. Comprender mejor los conjuntos de datos
La desviación estándar se utiliza para medir la dispersión de los valores en un conjunto
de datos. Los particulares y las empresas utilizan la desviación todo el tiempo en
diferentes campos para comprender mejor los conjuntos de datos.

25
3. Comprender el rendimiento de los anuncios.
Los profesionales del marketing suelen calcular la desviación estándar de los ingresos
obtenidos por cada anuncio para saber qué variación cabe esperar en los ingresos de un
anuncio determinado.
En este ámbito, también se puede calcular la desviación del número de anuncios
utilizados por los competidores para comprender si éstos utilizan más o menos anuncios
de lo normal durante un período determinado.
4. Uso en recursos humanos
Parte del papel del directivo de recursos humanos es calcular la desviación estándar de
los salarios en un campo determinado para saber qué tipo de variación salarial deben
ofrecer a los nuevos empleados.

Ejemplo
Supóngase que toda la población estudiada son ocho alumnos determinados de una
clase en particular. Para un conjunto discreto de datos, la desviación estándar de la
población se determina calculando la raíz cuadrada de la media de las desviaciones de
los valores restados de su valor promedio, elevadas al cuadrado. Las calificaciones de la
clase de ocho estudiantes (es decir, de la población estadística completa) son los
siguientes ocho valores:

2, 4, 4, 4, 5, 5, 7, 9.
Estos ocho datos tienen una media (promedio) de 5:

En primer lugar, se calculan las desviaciones de cada dato respecto a la media, y se eleva
al cuadrado el resultado de cada una:

La varianza es la media de estos valores:

26
y la desviación estándar de la población es igual a la raíz cuadrada de la varianza:

Esta fórmula es válida solo si los ocho valores con los que se trabaja forman la población
completa. Si los valores, en cambio, fueran una muestra aleatoria extraída de una gran
población de alumnos (por ejemplo, fueron 8 calificaciones elegidas al azar e
independientemente de un censo de 2 millones de alumnos), entonces el resultado se
obtendría dividiendo por 7 (que es N − 1) en lugar de por 8 (que es N) en el
denominador de la última fórmula. En ese caso, el resultado de la fórmula original se
denominaría la desviación estándar de la muestra. Dividir por N - 1 en lugar de por N da
una estimación imparcial de la varianza de una población más grande. Esta modificación
se conoce como corrección de Bessel.

27

También podría gustarte