Está en la página 1de 93

INSTITUTO

TECNOLOGICO DE
ORIZABA
Ingeniería en sistemas computacionales
Nombre:
Hernández Heredia Kevin
Numero de control:
C22010603
Unidad 2, 3, 4, 5 y 6
Fecha:
05 de diciembre de 2023

Técnicas de conteo (2.1)


¿Qué es una técnica de conteo?
Las técnicas de conteo son métodos utilizados en matemáticas para contar o calcular el número de
posibles resultados en un conjunto de situaciones o eventos. Estas técnicas se emplean en
combinatoria, que es una rama de las matemáticas que se ocupa de contar, organizar y analizar
conjuntos finitos o discretos.
Por ejemplo, si para ganar una lotería se requiere elegir 5 números enteros diferentes entre 1 y 39, la
probabilidad de ganar esa lotería es de 1 sobre el número de distintas formas de seleccionar 5
números de 39. Las Técnicas de conteo nos permiten obtener esa cantidad.

Principio Aditivo (2.1.1)

El Principio Aditivo es una herramienta fundamental en la teoría de probabilidad y


estadística que se utiliza para calcular la probabilidad de que ocurra al menos uno de dos
eventos mutuamente excluyentes o la cantidad total de resultados posibles para dos eventos
independientes. Este principio establece que si dos eventos no pueden ocurrir
simultáneamente (son mutuamente excluyentes), la probabilidad de que al menos uno de
ellos ocurra es la suma de las probabilidades individuales de cada evento.

El desarrollo del Principio Aditivo se basa en dos situaciones principales:

1. Eventos Mutuamente Excluyentes: Dos eventos son mutuamente excluyentes si


no pueden ocurrir simultáneamente. Por ejemplo, al lanzar un dado, el evento A
puede ser obtener un número par (2, 4 o 6) y el evento B puede ser obtener un
número impar (1, 3 o 5). Aquí, no se puede obtener un número que sea par e impar
al mismo tiempo.

Según el Principio Aditivo, la probabilidad de que ocurra al menos uno de estos


eventos mutuamente excluyentes se calcula sumando las probabilidades de cada
evento individual:

P(A∪B)=P(A)+P(B)

Donde P(A∪B) es la probabilidad de que ocurra el evento A o el evento B.

2. Eventos Independientes: Si dos eventos son independientes, la ocurrencia de uno


no afecta la ocurrencia del otro. Por ejemplo, al lanzar una moneda y un dado, los
resultados son independientes entre sí. La probabilidad de que ambos eventos
ocurran se calcula multiplicando las probabilidades de cada evento individual:

P(A∩B)=P(A)×P(B)

Donde P(A∩B) es la probabilidad de que ocurran ambos eventos A y B.

Es importante destacar que el Principio Aditivo es válido solo para eventos mutuamente
excluyentes. Si los eventos no son mutuamente excluyentes, se debe considerar la
posibilidad de que ocurran ambos eventos, y la fórmula de la Unión de Eventos P(A∪B) se
modifica utilizando el principio de inclusión-exclusión:

P(A∪B) = P(A)+P(B)−P(A∩B)

Principio multiplicativo (2.1.2)

El Principio Multiplicativo es otro concepto fundamental en la teoría de la probabilidad y


estadística. Este principio se aplica cuando dos o más eventos son independientes, lo que
significa que la ocurrencia de uno de los eventos no afecta la ocurrencia de los demás. El
Principio Multiplicativo establece que la probabilidad de que ocurran todos los eventos
independientes al mismo tiempo es el producto de las probabilidades de cada uno de esos
eventos.

Hay dos situaciones principales en las que se aplica el Principio Multiplicativo:

1. Eventos Secuenciales o Dependientes: En algunas ocasiones, los eventos no se


consideran simultáneos, sino secuenciales. Por ejemplo, la probabilidad de sacar dos
cartas de una baraja sin reemplazo. En este caso, la probabilidad del segundo evento
depende del resultado del primer evento.
2. Eventos Simultáneos o Independientes: Cuando los eventos son independientes
entre sí, el Principio Multiplicativo es más claro. Por ejemplo, al lanzar un dado dos
veces, la probabilidad de obtener un 4 en el primer lanzamiento y un 6 en el
segundo.

La fórmula general del Principio Multiplicativo es:

P(A∩B)=P(A)×P(B∣A)

Donde:

 P(A∩B) es la probabilidad de que ocurran ambos eventos A y B.


 P(A) es la probabilidad del evento A.
 P(B∣A) es la probabilidad condicional de que ocurra B dado que ha ocurrido A. En
el caso de eventos independientes, esta probabilidad condicional simplemente se
reduce a P(B), ya que la ocurrencia de A no afecta la probabilidad de B.

En eventos independientes, la fórmula se simplifica a:

P(A∩B)=P(A)×P(B)

Notación Factorial (2.1.3)

La notación factorial se representa con un signo de exclamación (!) y se utiliza en


matemáticas para denotar la multiplicación de todos los números enteros positivos
consecutivos desde 1 hasta un número dado. Por ejemplo, el factorial de un número nn se
escribe como n!n! y se define de la siguiente manera:

n!=n×(n−1)×(n−2)×…×3×2×1

Algunos ejemplos comunes de factoriales son:

 0!=1 (Por convención, el factorial de 0 se define como 1).


 1!=1 (El factorial de 1 es 1).
 2!=2×1=2 (El factorial de 2 es 2).
 3!=3×2×1=6 (El factorial de 3 es 6).
 4!=4×3×2×1=24 (El factorial de 4 es 24).

La notación factorial se utiliza en diversas áreas de las matemáticas, como combinatoria,


análisis combinatorio, teoría de números, y es especialmente útil para calcular
permutaciones, combinaciones y coeficientes binomiales. Además, es una operación
matemática fundamental en el cálculo de probabilidades y estadísticas, especialmente al
calcular el número de formas en que se pueden ordenar o combinar elementos en un
conjunto.

Por ejemplo, en el contexto de la combinatoria, el número de formas en que se pueden


organizar nn elementos distintos se representa por n!n! y se calcula utilizando factoriales.

Permutaciones (2.1.4)

En matemáticas y combinatoria, las permutaciones se refieren al arreglo ordenado de


objetos. En una permutación, se considera el orden de los elementos. El número de
permutaciones de n elementos tomados k a la vez se representa como P(n,k) o nPk, y se
calcula utilizando la fórmula:

P(n,k)=n!(n−k)!

Donde:

 n! representa el factorial de n, que es el producto de todos los enteros positivos


menores o iguales a n.
 (n−k)! es el factorial de la diferencia entre n y k.

En palabras simples, la fórmula de permutaciones nos dice que para encontrar el número de
formas en que k elementos pueden ser ordenados de entre un total de n elementos, se toman
k elementos a la vez y se calcula cuántas formas hay para ordenarlos.

Por ejemplo, si tienes una colección de 5 cartas y quieres saber cuántas formas diferentes
puedes organizar 3 de esas cartas, utilizarías la fórmula de permutaciones:

P(5,3)=5!(5−3)!=5!2!=5×4×3×2×12×1=60
Esto significa que hay 60 formas diferentes de organizar 3 cartas seleccionadas de un total
de 5 cartas.

Las permutaciones son útiles en problemas donde se necesita calcular el número de arreglos
distintos de elementos o cuando se trabaja con ordenamientos específicos de objetos en una
colección.

Combinaciones (2.1.5)

En matemáticas y combinatoria, las combinaciones representan la selección no ordenada de


elementos de un conjunto. A diferencia de las permutaciones, en las combinaciones el
orden de los elementos no importa. El número de combinaciones de n elementos tomados k
a la vez se denota como C(n,k) o (nk), y se calcula mediante la fórmula:

C(n,k)=(nk)=n!k!(n−k)!

Donde:

 n! es el factorial de n, es decir, el producto de todos los enteros positivos menores o


iguales a n.
 k! es el factorial de k.
 (n−k)! es el factorial de la diferencia entre n y k.

La fórmula de combinaciones nos dice cuántas formas diferentes hay de seleccionar k


elementos de un total de n elementos, sin considerar el orden en el que se eligen.

Por ejemplo, si tienes un grupo de 7 personas y deseas formar un comité de 3 personas, el


número de formas de seleccionar el comité se calcula mediante combinaciones:

C(7,3)=(73)=7!3!(7−3)!=7!3!4!=7×6×53×2×1=35

Esto significa que hay 35 combinaciones diferentes de formar un comité de 3 personas


seleccionadas de un grupo de 7 personas.

Las combinaciones son útiles en problemas donde se busca determinar el número de


selecciones sin importar el orden de los elementos, como en situaciones de selección de
equipos, comités, grupos, entre otros.

Diagrama de Árbol (2.1.6)

Un diagrama de árbol es una representación gráfica utilizada en probabilidad y estadística


para visualizar y calcular las posibles ramificaciones y resultados de una serie de eventos o
decisiones. Se utiliza especialmente en situaciones en las que hay múltiples etapas o pasos
con diferentes opciones o resultados posibles.
El propósito principal de un diagrama de árbol es organizar y mostrar de manera
estructurada todas las posibles secuencias de eventos o resultados que podrían ocurrir.

Para construir un diagrama de árbol, se siguen estos pasos:

1. Identificación de eventos o decisiones: Enumerar todos los eventos o pasos


relevantes en la situación o problema. Por ejemplo, en el lanzamiento de una
moneda seguido por el lanzamiento de un dado, los eventos serían "lanzamiento de
la moneda" y "lanzamiento del dado".
2. Representación de ramificaciones: Dibuja líneas o ramas para cada posible
resultado o opción en cada etapa o evento. Por ejemplo, si la moneda puede caer
cara (C) o cruz (X), se dibujarían dos ramas a partir del evento "lanzamiento de la
moneda". Luego, desde cada resultado de la moneda, se representarían las opciones
del lanzamiento del dado.
3. Etiquetado de ramificaciones: En cada rama, se etiquetan los posibles resultados o
eventos que podrían ocurrir en esa etapa. Por ejemplo, si el dado tiene 6 caras
numeradas del 1 al 6, cada rama del lanzamiento del dado tendría las etiquetas
numéricas del 1 al 6.
4. Cálculo de probabilidades: Una vez que se ha construido el diagrama de árbol, se
pueden calcular las probabilidades de los diferentes resultados al seguir las ramas
del diagrama. Las probabilidades se calculan multiplicando las probabilidades en
cada etapa del árbol.

El diagrama de árbol es una herramienta visual útil para comprender las diferentes
secuencias de eventos y calcular la probabilidad de resultados en situaciones con múltiples
etapas o decisiones. Ayuda a organizar la información y visualizar todas las posibles
trayectorias que pueden ocurrir en un proceso dado.

Teorema del Binomio (2.1.7)

El Teorema del Binomio es un importante resultado en álgebra que establece cómo


expandir un binomio elevado a una potencia determinada. Este teorema es útil para
encontrar términos individuales de un binomio elevado a cualquier potencia sin tener que
realizar una multiplicación repetida.

El Teorema del Binomio establece la fórmula para expandir (a+b)n donde a y b son
números reales o variables, y n es un número entero no negativo:

(a+b)n=∑k=0n(nk)an−kbk

En esta fórmula:

 (nk) es el coeficiente binomial, que representa el número de formas de elegir k


elementos de un conjunto de n elementos, y se calcula como (nk)=n!k!(n−k)!.
 an−k y bk son términos que representan las potencias de a y b respectivamente.
 La suma ∑k=0n indica que se deben sumar todos los términos desde k=0 hasta k=n.
Este teorema es particularmente útil para expandir binomios elevados a cualquier potencia
de forma rápida y eficiente sin tener que multiplicar término por término repetidamente.

Por ejemplo, si tienes (x+y)4, puedes aplicar el Teorema del Binomio para expandirlo:

(x+y)4=(40)x4y0+(41)x3y1+(42)x2y2+(43)x1y3+(44)x0y4

Simplificando cada término con los coeficientes binomiales, obtendrás la expansión


completa de (x+y)4. Este teorema es fundamental en álgebra y tiene aplicaciones en
diversas ramas de las matemáticas, como la probabilidad, la combinatoria y la teoría de
números, entre otras.

Teoría elemental de probabilidad (2.2)

La teoría elemental de la probabilidad es una rama fundamental de las matemáticas que se


encarga de cuantificar y analizar la incertidumbre en los eventos. Se basa en el estudio de
experimentos aleatorios y la asignación de números que representan la posibilidad de
ocurrencia de distintos resultados.

Aquí hay algunos conceptos esenciales de la teoría elemental de la probabilidad:

1. Experimento Aleatorio: Es un proceso en el que el resultado no puede ser predicho


con certeza. Por ejemplo, lanzar una moneda, tirar un dado o seleccionar una carta
de una baraja.
2. Espacio muestral: Es el conjunto de todos los posibles resultados de un
experimento aleatorio. Por ejemplo, el espacio muestral al lanzar un dado es {1, 2,
3, 4, 5, 6}.
3. Evento: Es un subconjunto del espacio muestral, que contiene uno o varios
resultados del experimento. Por ejemplo, obtener un número par al lanzar un dado.
4. Probabilidad: Es una medida numérica de la posibilidad de que ocurra un evento.
Se representa por un número entre 0 y 1, donde 0 significa que el evento es
imposible y 1 significa que el evento es seguro. La probabilidad se calcula como la
razón entre el número de resultados favorables y el número total de resultados
posibles.
o La probabilidad de un evento A se denota como P(A).
o Si un evento es seguro, P(A)=1.
o Si un evento es imposible, P(A)=0.
5. Regla de la suma de probabilidades: Para eventos mutuamente excluyentes
(eventos que no pueden ocurrir simultáneamente), la probabilidad de que ocurra al
menos uno de los eventos es la suma de las probabilidades de cada evento
individual.
6. Regla del complemento: La probabilidad del evento complementario (A′ o ¬A, que
indica que un evento no ocurra) es igual a 1 menos la probabilidad del evento A, es
decir, P(A′)=1−P(A).
7. Probabilidad condicional: Es la probabilidad de que ocurra un evento B dado que
otro evento A ya ha ocurrido. Se denota como P(B∣A) y se calcula como la
probabilidad del evento conjunto A y B dividido por la probabilidad del evento A,
siempre que P(A) no sea igual a cero.

Estos son algunos de los conceptos básicos que forman la teoría elemental de la
probabilidad. Estos conceptos se aplican en una amplia gama de disciplinas, incluyendo
estadística, análisis de riesgos, ciencias de la computación, economía, y muchas otras áreas
para modelar y analizar la incertidumbre en diversos contextos.

Probabilidad de Eventos: Definición de espacio muestral, definición de


eventos, simbología, unión, intersección, diagramas de Venn (2.3)

En la teoría de la probabilidad, se utilizan varios conceptos y notaciones para describir los


elementos fundamentales. Aquí están las definiciones y simbologías comunes:

Definiciones:

1. Espacio Muestral (S): El espacio muestral es el conjunto de todos los posibles


resultados de un experimento aleatorio. Se denota como SS. Por ejemplo, al lanzar
un dado de seis caras, el espacio muestral es S={1,2,3,4,5,6}.
2. Evento: Un evento es un subconjunto del espacio muestral S, es decir, cualquier
colección de resultados posibles del experimento. Se denota comúnmente como A,
B, etc.

Simbología:

 A∪B (Unión): Representa el evento que al menos uno de los eventos A o B ocurra.
Es la unión de los conjuntos A y B.
 A∩B (Intersección): Representa el evento en el que ambos eventos A y B ocurren
simultáneamente. Es la intersección de los conjuntos A y B.
 A′ (Complemento): Representa el evento complementario de A, es decir, todos los
resultados que no están en el evento A.

Unión ( A∪B ):

La unión de dos eventos, A∪B, es el evento que ocurre si al menos uno de los eventos A o
B (o ambos) ocurre.

Intersección ( A∩B):

La intersección de dos eventos, A∩B, es el evento que ocurre cuando ambos eventos A y B
ocurren simultáneamente.

Diagramas de Venn:

Los diagramas de Venn son representaciones gráficas utilizadas para mostrar las relaciones
entre conjuntos y eventos. En el contexto de la teoría de la probabilidad, se utilizan para
ilustrar la relación entre eventos, su intersección, su unión y sus complementos. Estos
diagramas muestran conjuntos como regiones en un plano y las interacciones entre ellos.

Por ejemplo, un diagrama de Venn para dos conjuntos, A y B, mostraría dos círculos
superpuestos o intersecados, representando sus elementos individuales y la región común
entre ellos para mostrar su intersección A∩B.

Los diagramas de Venn pueden extenderse para representar más de dos eventos o
conjuntos, proporcionando una visualización clara de las relaciones entre ellos en términos
de su unión, intersección y complemento.

Probabilidad con técnicas de conteo: Axiomas, Teoremas (2.4)

En la teoría de la probabilidad, existen axiomas y teoremas fundamentales que establecen


reglas y propiedades esenciales para calcular probabilidades usando técnicas de conteo.
Aquí están los principales:

Axiomas de la Probabilidad:

1. Axioma 1 (No negatividad): La probabilidad de cualquier evento es un número no


negativo. Para cualquier evento A, P(A)≥0.
2. Axioma 2 (Probabilidad Total): La probabilidad del espacio muestral completo
SS es 1. Es decir, P(S)=1, donde S representa el conjunto de todos los posibles
resultados.
3. Axioma 3 (Aditividad): Si dos eventos A y B son mutuamente excluyentes (no
pueden ocurrir simultáneamente), entonces la probabilidad de la unión de A y B es
la suma de sus probabilidades individuales: P(A∪B)=P(A)+P(B).

Teoremas importantes:

1. Regla de la Adición Generalizada: Para cualquier par de eventos A y B, la


probabilidad de la unión de A y B se puede calcular como la suma de las
probabilidades de cada evento menos la probabilidad de su intersección:
P(A∪B)=P(A)+P(B)−P(A∩B). Esta fórmula se deriva del principio de inclusión-
exclusión.
2. Regla de Complemento: La probabilidad del evento complementario de A (A′) es
igual a 1 menos la probabilidad de A: P(A′)=1−P(A).
3. Regla del Producto (Probabilidad condicional): La probabilidad del evento A y B
ocurriendo juntos (intersección de A y B) se puede calcular utilizando la
probabilidad condicional: P(A∩B)=P(A)×P(B∣A). Esto se deriva de la definición de
probabilidad condicional.
4. Teorema de Bayes: Se utiliza para actualizar probabilidades basadas en nueva
información. Se expresa como P(A∣B)=P(B∣A)×P(A)P(B), donde P(A∣B) es la
probabilidad de A dado que B ya ha ocurrido.
Estos axiomas y teoremas forman la base de la teoría de la probabilidad y se utilizan para
calcular probabilidades, resolver problemas de conteo, y modelar y analizar situaciones
inciertas en diversas áreas como estadística, ciencia de datos, ingeniería, economía y más.

Probabilidad condicional: Dependiente, Independiente (2.5)

La probabilidad condicional es un concepto fundamental en teoría de probabilidad que


describe la probabilidad de que ocurra un evento dado que otro evento ya ha ocurrido. Esta
probabilidad puede cambiar dependiendo de la ocurrencia de otros eventos y puede ser
clasificada en dos tipos principales: probabilidad condicional dependiente y probabilidad
condicional independiente.

Probabilidad Condicional Dependiente:

La probabilidad condicional es dependiente cuando la ocurrencia de un evento afecta la


probabilidad de que ocurra otro evento. En otras palabras, la probabilidad de que ocurra el
segundo evento depende de si el primero ya ha ocurrido.

Fórmula: La probabilidad condicional dependiente de que ocurra el evento B dado que el


evento A ha ocurrido se denota como P(B∣A) y se calcula como:

P(B∣A)=P(A∩B)P(A)

Esta fórmula muestra que la probabilidad de B dado A es la probabilidad de la intersección


de A y B dividida por la probabilidad de A.

Probabilidad Condicional Independiente:

La probabilidad condicional es independiente cuando la ocurrencia de un evento no afecta


la probabilidad de que ocurra otro evento. En este caso, la ocurrencia o no-ocurrencia del
primer evento no tiene influencia en la probabilidad del segundo evento.

Fórmula: Dos eventos A y B son independientes si y solo si:

P(B∣A)=P(B)

O, de manera equivalente:

P(A∩B)=P(A)×P(B)

Esto significa que la probabilidad de que ocurra B dado que A ha ocurrido es igual a la
probabilidad de que ocurra B en general, lo que implica que la ocurrencia de A no afecta la
probabilidad de B.

Ley multiplicativa (2.6)


La "Ley Multiplicativa de la Probabilidad" es un concepto utilizado en la teoría de la
probabilidad para calcular la probabilidad de la intersección de eventos en situaciones en
las que los eventos no son necesariamente independientes.

Esta ley se utiliza para calcular la probabilidad de dos eventos que ocurren en secuencia, es
decir, cuando un evento A ocurre y luego un evento B ocurre, y se denota como P(A∩B).

Explicación de la Ley Multiplicativa:

La Ley Multiplicativa establece que la probabilidad de dos eventos A y B ocurriendo en


secuencia es igual a la probabilidad de que ocurra el primer evento A multiplicada por la
probabilidad condicional de que ocurra el segundo evento B dado que ya ha ocurrido el
evento A. En otras palabras:

P(A∩B)=P(A)×P(B∣A)

Esto implica que la probabilidad de la intersección de A y B es igual a la probabilidad de


AA multiplicada por la probabilidad condicional de B dado A.

Aplicación de la Ley Multiplicativa:

La Ley Multiplicativa es útil en situaciones donde los eventos no son independientes y se


producen en secuencia. Por ejemplo, al extraer dos cartas de una baraja sin reemplazo, la
probabilidad de sacar una carta específica en el segundo intento depende de lo que sucedió
en el primer intento, ya que la cantidad total de cartas ha disminuido.

Otro ejemplo sería la probabilidad de tener dos eventos consecutivos, como la probabilidad
de que llueva un día y luego el siguiente día también llueva. La ocurrencia del segundo
evento está condicionada por la ocurrencia del primer evento.

La Ley Multiplicativa es una herramienta fundamental en probabilidad condicional y se


utiliza para calcular la probabilidad de eventos que suceden en secuencia, considerando
cómo la ocurrencia de un evento afecta la probabilidad del evento subsiguiente.

Eventos independientes: Reglas de Bayes (2.7)

Los eventos independientes son aquellos eventos cuya ocurrencia no está influenciada por
la ocurrencia o no-ocurrencia de otros eventos. En otras palabras, la ocurrencia de un
evento no tiene impacto en la probabilidad de ocurrencia de otro evento.

Eventos Independientes:

Dos eventos A y B se consideran independientes si la probabilidad de que ocurra B no se ve


afectada por la ocurrencia o no-ocurrencia de A. Esto se expresa matemáticamente como:

P(B∣A)=P(B)
También, de manera equivalente:

P(A∩B)=P(A)×P(B)

Esto significa que la probabilidad de que ocurra B dado que A ha ocurrido es igual a la
probabilidad de que ocurra B en general. La ocurrencia de A no afecta la probabilidad de B
y viceversa.

Reglas de Bayes:

Las reglas de Bayes son un conjunto de teoremas que permiten actualizar las probabilidades
de un evento basándose en nueva información o evidencia. Estos teoremas son
particularmente útiles en situaciones donde se necesita modificar las probabilidades
después de obtener nueva información.

Teorema de Bayes:

El teorema de Bayes establece la relación entre las probabilidades condicionales inversas.


Se expresa como:

P(A∣B)=P(B∣A)×P(A)

Esto significa que la probabilidad de que ocurra el evento A dado que B ha ocurrido es
igual a la probabilidad de que ocurra B dado A multiplicada por la probabilidad de A,
dividida por la probabilidad de B.

Aplicación de las Reglas de Bayes:

Las reglas de Bayes son aplicables en situaciones donde se desea actualizar las
probabilidades a medida que se obtiene nueva información. Por ejemplo, en la medicina, se
utiliza para evaluar la probabilidad de que un paciente tenga cierta enfermedad después de
realizar una prueba diagnóstica, considerando la sensibilidad y especificidad de la prueba.

Las reglas de Bayes son esenciales en el análisis de decisiones, diagnósticos médicos,


sistemas de aprendizaje automático, entre otros campos donde la actualización de
probabilidades basada en nueva evidencia es crucial para la toma de decisiones informadas.

Variables aleatorias discretas (3.1)

Las variables aleatorias discretas son un concepto importante en probabilidad y estadística.


Representan variables cuyos valores son contables y discretos, es decir, toman valores
específicos dentro de un conjunto finito o numerable.

Definición de Variable Aleatoria Discreta:


Una variable aleatoria discreta asigna valores numéricos a los resultados de un experimento
aleatorio. Esta asignación se realiza de tal manera que se asigna un número real a cada
resultado del experimento, de manera que puedan ser contados o enumerados.

Por ejemplo, al lanzar un dado, la variable aleatoria X podría representar el número que
aparece en la cara superior del dado. Los posibles valores que puede tomar esta variable son
1,2,3,4,5,6, siendo una variable discreta ya que estos valores son finitos y contables.

Función de Probabilidad de una Variable Aleatoria Discreta:

La función de probabilidad de una variable aleatoria discreta se conoce como función de


masa de probabilidad (PMF por sus siglas en inglés). Asigna una probabilidad a cada valor
que puede tomar la variable aleatoria.

Por ejemplo, para el dado, la función de masa de probabilidad sería:

 P(X=1): Probabilidad de obtener un 1.


 P(X=2): Probabilidad de obtener un 2.
 P(X=3): Probabilidad de obtener un 3.
 P(X=4): Probabilidad de obtener un 4.
 P(X=5): Probabilidad de obtener un 5.
 P(X=6): Probabilidad de obtener un 6.

Propiedades Importantes:

 La suma de todas las probabilidades de una variable aleatoria discreta es igual a 1:


∑P(X=x)=1.
 La función de masa de probabilidad P(X=x) está definida para cada valor de xx que la
variable aleatoria puede tomar.

Ejemplos de Variables Aleatorias Discretas:

 Número de caras obtenidas al lanzar una moneda n veces.


 Número de estudiantes en una clase que obtienen una calificación específica.
 Número de errores en un documento de cierta longitud.

Las variables aleatorias discretas son fundamentales en la modelización de situaciones


donde los resultados son contables y discretos, y son esenciales en el análisis de datos y la
toma de decisiones basadas en probabilidad en una variedad de campos.

Distribución de probabilidad en forma general (3.1.1)

La distribución de probabilidad en forma general se refiere al conjunto de todas las posibles


probabilidades asociadas con los valores que puede tomar una variable aleatoria. Esta
distribución proporciona información sobre la probabilidad de cada valor que puede ser
tomado por esa variable aleatoria.
Características de la Distribución de Probabilidad:

1. Espacio Muestral: Representa el conjunto de todos los resultados posibles de un


experimento. En el contexto de la distribución de probabilidad, este espacio
muestral está asociado con los valores que puede tomar la variable aleatoria.
2. Probabilidades Asociadas: Para cada valor que puede ser tomado por la variable
aleatoria, la distribución de probabilidad asigna una probabilidad específica a ese
valor.
3. Función de Probabilidad o Función de Densidad: En el caso de variables
aleatorias discretas, la distribución de probabilidad se describe a través de la función
de masa de probabilidad (PMF por sus siglas en inglés), la cual asigna la
probabilidad a cada valor discreto que puede ser tomado por la variable aleatoria.
En el caso de variables aleatorias continuas, se utiliza la función de densidad de
probabilidad (PDF por sus siglas en inglés).

Ejemplos de Distribuciones de Probabilidad Comunes:

1. Distribución Uniforme: Todos los valores tienen la misma probabilidad de ocurrir.


Por ejemplo, al lanzar un dado justo de 6 caras, donde cada número tiene una
probabilidad de 1/61/6 de ser obtenido.
2. Distribución Binomial: Describe el número de éxitos en una serie de ensayos
independientes, cada uno con dos posibles resultados (éxito o fracaso). Por ejemplo,
el número de caras al lanzar una moneda varias veces.
3. Distribución Normal (Gaussiana): Es una de las distribuciones más importantes
en estadística. Tiene una forma de campana y se utiliza para modelar numerosos
fenómenos naturales y sociales.
4. Distribución de Poisson: Se utiliza para modelar la cantidad de eventos raros que
ocurren en un intervalo de tiempo o espacio específico.
5. Distribución Exponencial: Describe el tiempo entre eventos en un proceso de
Poisson y es utilizada en la modelización de tiempos de espera.

Valor esperado (3.1.2)

El valor esperado, también conocido como esperanza matemática o media, es una medida
importante en teoría de probabilidad y estadística que representa el promedio ponderado de
los posibles valores que puede tomar una variable aleatoria.

Definición del Valor Esperado:

El valor esperado de una variable aleatoria X se denota como E(X) o μ (en el caso de una
población), y se calcula como la suma ponderada de todos los posibles valores que puede
tomar X, multiplicados por sus respectivas probabilidades.

Para una variable aleatoria discreta con función de masa de probabilidad (PMF) P(X=xi)=pi
para i=1,2,3,…,n, el valor esperado se calcula como:
E(X)=∑i=1nxi⋅pi

En el caso de una variable aleatoria continua con función de densidad de probabilidad


(PDF) f(x), el valor esperado se calcula como:

E(X)=∫−∞∞x⋅f(x) dx

Características Importantes del Valor Esperado:

1. Representa el Promedio Ponderado: El valor esperado representa el promedio


ponderado de los posibles valores de una variable aleatoria, teniendo en cuenta sus
probabilidades de ocurrencia.
2. Interpretación: En términos prácticos, el valor esperado representa el valor
promedio que se espera obtener en una larga secuencia de experimentos bajo las
mismas condiciones.

Varianza, desviación estándar (3.1.3)

La varianza y la desviación estándar son medidas estadísticas que proporcionan


información sobre la dispersión o la variabilidad de un conjunto de datos o de una
distribución de probabilidad.

Varianza:

La varianza de una variable aleatoria X es una medida de cuánto se dispersan los valores
alrededor de su valor esperado (media). Se denota como Var(X) o σ2 (en el caso de una
población).

Para una variable aleatoria discreta con función de masa de probabilidad (PMF) P(X=xi)=pi
para i=1,2,3,…,n, la varianza se calcula como:

Var(X)=E[(X−E(X))2]=∑i=1n(xi−μ)2⋅pi

Para una variable aleatoria continua con función de densidad de probabilidad (PDF)
f(x)f(x), la varianza se calcula como:

Var(X)=E[(X−E(X))2]=∫−∞∞(x−μ)2⋅f(x) dx

La varianza mide la dispersión promedio de los valores con respecto a la media. Si la


varianza es grande, los valores están más dispersos alrededor de la media; si la varianza es
pequeña, los valores están más cerca de la media.

Desviación Estándar:
La desviación estándar es la raíz cuadrada positiva de la varianza y proporciona una medida
de la dispersión en la misma escala que los datos originales. Se denota como SD(X) o σ (en
el caso de una población).

Matemáticamente, la desviación estándar se calcula como:

SD(X)=Var(X)

La desviación estándar es una medida comúnmente utilizada de la dispersión de los datos.


Al igual que la varianza, indica cuánto se alejan los valores de la media, pero en la misma
escala que los datos originales.

Función acumulada (3.1.4)

La función acumulada de una variable aleatoria es una función que proporciona la


probabilidad acumulativa de que la variable aleatoria sea menor o igual a un valor
específico. Esta función es fundamental en teoría de probabilidad y estadística, ya que
describe la acumulación de probabilidades a medida que los valores de la variable aleatoria
aumentan.

Función de Distribución Acumulada (CDF por sus siglas en inglés):

La función de distribución acumulada (CDF) de una variable aleatoria X, denotada como


F(x), se define matemáticamente como:

F(x)=P(X≤x)

Esta función asigna un valor de probabilidad acumulada para valores de la variable


aleatoria menores o iguales a un valor dado x. En otras palabras, F(x) da la probabilidad de
que X tome un valor igual o menor que x.

Características de la Función Acumulada:

1. Propiedades Básicas: La función acumulada es no decreciente, es decir, a medida


que xx aumenta, F(x) no disminuye.
2. Rango de Valores: Los valores de la función acumulada F(x) están en el rango de 0
a 1, ya que representa probabilidades.
3. Saltos en Funciones Discretas: En el caso de variables aleatorias discretas, la
función acumulada tendrá saltos en los puntos donde los valores de la variable
aleatoria cambien.

Importancia de la Función Acumulada:

La función de distribución acumulada es importante en estadística y probabilidad debido a


su utilidad en varios aspectos:
 Cálculo de Probabilidades: Permite calcular probabilidades acumulativas para
variables aleatorias.
 Caracterización de Distribuciones: Describe la distribución de probabilidades de
una variable aleatoria y puede proporcionar información sobre la forma y la
dispersión de la distribución.
 Cálculo de Percentiles y Cuantiles: Ayuda a calcular percentiles y cuantiles, que
son medidas importantes de posición dentro de una distribución.

Variables aleatorias continuas (3.2)

Las variables aleatorias continuas son aquellas que pueden tomar un número infinito de
valores en un intervalo continuo. A diferencia de las variables aleatorias discretas, que solo
pueden tomar valores específicos, las variables aleatorias continuas pueden tomar cualquier
valor dentro de un rango determinado.

Características de las Variables Aleatorias Continuas:

1. Valores en un Rango Continuo: Las variables aleatorias continuas pueden tomar


valores en un rango continuo de números reales, por lo que existen infinitos valores
posibles en un intervalo.
2. Función de Densidad de Probabilidad (PDF): En lugar de una función de masa
de probabilidad (PMF), las variables aleatorias continuas tienen una función de
densidad de probabilidad. Esta función describe la probabilidad relativa de que la
variable aleatoria caiga en un intervalo particular. La integral de esta función sobre
un intervalo da la probabilidad de que la variable aleatoria caiga dentro de ese
intervalo.
3. Probabilidad de Eventos Individuales: La probabilidad de que una variable
aleatoria continua tome un valor específico es teóricamente cero. En cambio, se
calcula la probabilidad de que la variable aleatoria se encuentre dentro de un rango
o intervalo específico.
4. Representación Gráfica: Las variables aleatorias continuas se visualizan
comúnmente mediante gráficos de densidad de probabilidad, que muestran la forma
de la distribución de la variable en un rango continuo de valores.

Ejemplos de Variables Aleatorias Continuas:

 Altura de las personas.


 Tiempo que lleva completar una tarea.
 Temperatura ambiente.
 Ingresos anuales de una población.

Funciones de Densidad de Probabilidad (PDF):

Las variables aleatorias continuas se caracterizan por su función de densidad de


probabilidad, que se denota como f(x). Esta función describe cómo se distribuyen las
probabilidades a lo largo del rango de valores posibles de la variable aleatoria. La integral
de la función de densidad de probabilidad sobre un intervalo proporciona la probabilidad de
que la variable aleatoria caiga dentro de ese intervalo.

Algunas distribuciones de probabilidad continuas comunes incluyen la distribución normal


(gaussiana), la distribución uniforme, la distribución exponencial, la distribución de
Cauchy, entre otras. Cada una de estas distribuciones describe diferentes tipos de
comportamientos en las variables continuas y se utiliza en diversos campos de la ciencia,
ingeniería, finanzas y más para modelar fenómenos del mundo real.

Distribución de probabilidad en forma general (3.2.1)

La distribución de probabilidad en forma general se refiere al conjunto de todas las posibles


probabilidades asociadas con los valores que puede tomar una variable aleatoria continua.
Esta distribución describe la probabilidad de que la variable aleatoria caiga en un intervalo
particular dentro de su rango de valores.

Función de Densidad de Probabilidad (PDF):

Para una variable aleatoria continua, la distribución de probabilidad se describe mediante la


función de densidad de probabilidad (PDF). La función de densidad de probabilidad asigna
probabilidades a lo largo del rango de valores posibles de la variable aleatoria.

Características de la Distribución de Probabilidad Continua:

1. Forma de la Distribución: La forma específica de la distribución depende del tipo


de variable aleatoria continua. Hay diversas distribuciones, cada una con
características particulares que se ajustan a diferentes situaciones en la vida real.
2. Integral de la Función de Densidad: La integral de la función de densidad de
probabilidad sobre un intervalo proporciona la probabilidad de que la variable
aleatoria caiga dentro de ese intervalo.
3. Probabilidad de Valores Individuales: Al igual que las variables aleatorias
continuas pueden tomar infinitos valores, la probabilidad de que la variable aleatoria
tome un valor específico es teóricamente cero. En cambio, se calcula la probabilidad
de que la variable aleatoria se encuentre dentro de un rango o intervalo específico.

Ejemplos de Distribuciones de Probabilidad Continuas:

1. Distribución Normal (Gaussiana): Tiene una forma de campana y es utilizada


para modelar numerosos fenómenos naturales y sociales.
2. Distribución Uniforme: Todos los valores tienen la misma probabilidad de ocurrir
dentro de un rango determinado.
3. Distribución Exponencial: Describe el tiempo entre eventos en un proceso de
Poisson y es utilizada en la modelización de tiempos de espera.
4. Distribución de Cauchy: Tiene colas más pesadas que la distribución normal y se
utiliza en estadísticas, física, finanzas, entre otros campos.
Valor esperado (3.2.2)

El valor esperado o esperanza matemática de una variable aleatoria continua es una medida
importante que representa el promedio ponderado de los posibles valores que puede tomar
esa variable, ponderados por su función de densidad de probabilidad.

Definición del Valor Esperado para Variables Aleatorias Continuas:

El valor esperado de una variable aleatoria continua X se denota como E(X) o μ (en el caso
de una población), y se calcula como la integral del producto entre el valor de la variable
aleatoria y su función de densidad de probabilidad:

E(X)=∫−∞∞x⋅f(x) dx

Donde xx representa los posibles valores que puede tomar la variable aleatoria, y f(x) es la
función de densidad de probabilidad asociada con X.

Importancia del Valor Esperado para Variables Continuas:

 Representa el Promedio Ponderado: Al igual que en el caso de variables


aleatorias discretas, el valor esperado para variables continuas representa el
promedio ponderado de los valores posibles, pero en este caso, los valores son
infinitos y se ponderan según su densidad de probabilidad.
 Indica la Tendencia Central: Es una medida que proporciona información sobre la
tendencia central de la distribución de la variable aleatoria continua.
 Utilidad en la Toma de Decisiones: El valor esperado es fundamental en la toma
de decisiones bajo incertidumbre, especialmente en contextos financieros,
científicos y de ingeniería.

Ejemplo:

Por ejemplo, si tenemos una variable aleatoria X que representa la altura de un grupo de
personas y su función de densidad de probabilidad f(x), el valor esperado E(X)
representaría la altura promedio ponderada de acuerdo con la distribución de la población.

Relación entre Valor Esperado y Media:

En el contexto de estadísticas, el valor esperado se refiere a la media teórica de una variable


aleatoria continua. La media muestral, por otro lado, se refiere a la media calculada a partir
de un conjunto de observaciones reales. Cuando el tamaño de la muestra se acerca al
infinito, se espera que la media muestral se aproxime al valor esperado teórico de la
distribución de la variable aleatoria continua.

Varianza, desviación estándar (3.2.3)


La varianza y la desviación estándar son medidas estadísticas que indican la dispersión o la
variabilidad de una variable aleatoria continua.

Varianza para Variables Aleatorias Continuas:

La varianza de una variable aleatoria continua X se denota como Var(X) o σ2 (en el caso de
una población), y se calcula como la integral del cuadrado de la diferencia entre cada valor
posible de la variable aleatoria y su valor esperado, ponderado por su función de densidad
de probabilidad:

Var(X)=E[(X−E(X))2]=∫−∞∞(x−μ)2⋅f(x) dx

Donde E(X) es el valor esperado o la media, μ, de la variable aleatoria continua X, x


representa los posibles valores que puede tomar la variable aleatoria, y f(x) es la función de
densidad de probabilidad asociada con X.

Desviación Estándar para Variables Aleatorias Continuas:

La desviación estándar, denotada como SD(X) o σ (en el caso de una población), es la raíz
cuadrada positiva de la varianza:

SD(X)=Var(X)

La desviación estándar es una medida de dispersión que indica cuánto se desvían los
valores de la variable aleatoria continua respecto a su media.

Importancia de la Varianza y la Desviación Estándar:

 Medidas de Dispersión: Tanto la varianza como la desviación estándar son


medidas de dispersión que indican la extensión en la que los valores de una variable
aleatoria se alejan de su media.
 Utilidad en la Interpretación de Datos: Ambas medidas proporcionan
información sobre la variabilidad de una distribución de probabilidad o de un
conjunto de datos. Cuanto mayor sea la varianza o la desviación estándar, mayor
será la dispersión de los datos alrededor de la media.
 Comparación entre Distribuciones: Permiten comparar la dispersión relativa entre
diferentes distribuciones o conjuntos de datos.

Relación con la Media:

La desviación estándar es una medida de dispersión que se expresa en las mismas unidades
que los datos originales. Cuanto mayor sea la desviación estándar, mayor será la dispersión
de los datos alrededor de la media. Por lo tanto, la varianza y la desviación estándar son
fundamentales para entender la dispersión y la variabilidad en una distribución de
probabilidad o un conjunto de datos.
Función acumulada (3.2.4)

La función acumulada de una variable aleatoria continua es una función que describe la
probabilidad acumulativa de que la variable aleatoria sea menor o igual a un valor
específico dentro de su rango de valores.

Función de Distribución Acumulada (CDF) para Variables Aleatorias Continuas:

La función de distribución acumulada (CDF) de una variable aleatoria continua X,


denotada como F(x), se define matemáticamente como:

F(x)=P(X≤x)=∫−∞xf(t) dt

Donde xx es cualquier valor dentro del rango de la variable aleatoria X, f(t) es la función de
densidad de probabilidad (PDF) de X, y la integral representa la acumulación de
probabilidades hasta el valor x.

Características de la Función Acumulada:

1. Propiedades Básicas: Al igual que en el caso de variables aleatorias discretas, la


función acumulada de una variable aleatoria continua es no decreciente, es decir, a
medida que x aumenta, F(x) no disminuye.
2. Rango de Valores: Los valores de la función acumulada F(x) están en el rango de 0
a 1, ya que representa probabilidades acumulativas.
3. Representación Gráfica: La función de distribución acumulada para una variable
aleatoria continua se puede representar gráficamente. En el eje horizontal se ubican
los valores de la variable aleatoria, y en el eje vertical se encuentran las
probabilidades acumulativas.

Importancia de la Función Acumulada:

 Cálculo de Probabilidades Acumulativas: La función acumulada proporciona la


probabilidad acumulativa de que una variable aleatoria sea menor o igual a un valor
dado.
 Caracterización de la Distribución: Describe la distribución de probabilidades de
una variable aleatoria continua y puede proporcionar información sobre la forma y
la dispersión de la distribución.
 Cálculo de Percentiles y Cuantiles: Facilita el cálculo de percentiles y cuantiles,
que son medidas importantes de posición dentro de una distribución.

La función de distribución acumulada es una herramienta esencial en la teoría de la


probabilidad y estadística, utilizada en la modelización, análisis y comprensión de la
variabilidad y la incertidumbre asociadas con variables aleatorias continuas.

Cálculos de probabilidad (3.2.5)


Los cálculos de probabilidad para variables aleatorias continuas implican determinar la
probabilidad de que la variable aleatoria caiga dentro de un cierto rango o intervalo
específico dentro de su rango de valores. Esta probabilidad se calcula utilizando la función
de densidad de probabilidad (PDF) y la función de distribución acumulada (CDF).

Probabilidad de un Evento Individual:

Para calcular la probabilidad de que una variable aleatoria continua X caiga en un rango
específico [a,b], se utiliza la función de distribución acumulada (CDF):

P(a≤X≤b)=F(b)−F(a)=∫abf(x) dx

Donde F(x) es la función de distribución acumulada de X, f(x) es la función de densidad de


probabilidad y a y b son los límites inferior y superior del intervalo, respectivamente.

Ejemplo:

Si X sigue una distribución normal estándar (X∼N(0,1)) y se quiere calcular la probabilidad


de que X esté entre −1 y 1, se emplearía la función de distribución acumulada de la
distribución normal estándar para calcular P(−1≤X≤1):

P(−1≤X≤1)=F(1)−F(−1)

Probabilidad de Eventos Complementarios:

La probabilidad de que una variable aleatoria caiga fuera de un rango específico [a,b] es el
complemento de la probabilidad de que caiga dentro de ese rango:

P(X<a o X>b)=1−P(a≤X≤b)

Importancia de los Cálculos de Probabilidad:

Los cálculos de probabilidad para variables aleatorias continuas son esenciales en


estadística y probabilidad, ya que permiten determinar la probabilidad de eventos
específicos o rangos de valores en distribuciones continuas. Estos cálculos son
fundamentales para la toma de decisiones, la evaluación de riesgos, la formulación de
modelos y la interpretación de datos en diversas áreas como la ciencia, ingeniería, finanzas,
entre otras.

Función de la probabilidad (4.1)


¿Qué es una función de probabilidad?
Una función de probabilidad, también llamada función de masa de probabilidad, es una función
matemática que describe la probabilidad de que una variable aleatoria discreta tome un determinado
valor.
Es decir, una función de probabilidad devuelve la probabilidad asociada a que una variable discreta
sea exactamente igual a un valor.

Por ejemplo, la probabilidad de sacar cualquier número al lanzar un dado es de 1/6 (un dado tiene
seis caras), por lo tanto, la función de probabilidad asociada a este espacio muestral será igual a 1/6
para cualquier valor.

Propiedades de la función de la probabilidad.


Las funciones de probabilidad tienen las siguientes propiedades:
 Las probabilidades no pueden ser negativas, por lo que la función de probabilidad es nula o
positiva para cualquier valor de x.

 Asimismo, la probabilidad máxima es la unidad, y significa que el evento sucederá siempre.

En consecuencia, el valor máximo de la función de probabilidad es igual a 1.

 Finalmente, la suma de todos los valores de una función de probabilidad da como resultado
1, pues es la suma de todas las probabilidades del espacio muestral.

Ejemplos de función de la probabilidad.


Ahora que ya sabemos la definición y las características de la función de probabilidad, vamos a
ver un ejemplo de este tipo de función probabilística.
 Calcula las probabilidades de sacar cara 0, 1, 2, 3 y 4 veces haciendo cuatro lanzamientos
de monedas independientes. Luego grafica la función de probabilidad hallada.
En primer lugar, tenemos que calcular las probabilidades de obtener cara, para ello, se deben dividir
los casos posibles entre el número total de casos.
Y una vez hemos calculado todas las probabilidades, podemos representar los valores de la función
de probabilidad en una gráfica.
Como puedes comprobar, la función probabilística del ejercicio cumple todas las propiedades de las
funciones de probabilidades, ya que todos sus valores están entre 0 y 1 y, además, la suma de todos
sus valores es equivalente a 1.

Distribución binomial (4.2)


Una distribución binomial es una distribución de probabilidad discreta que describe el
número de éxitos al realizar n experimentos independientes entre sí, acerca de una variable
aleatoria.
Existen una gran diversidad de experimentos o sucesos que pueden ser caracterizados bajo esta
distribución de probabilidad. Imaginemos el lanzamiento de una moneda en el que definimos el
suceso “sacar cara” como el éxito. Si lanzamos 5 veces la moneda y contamos los éxitos (sacar
cara) que obtenemos, nuestra distribución de probabilidades se ajustaría a una distribución
binomial.
Por lo tanto, la distribución binomial se entiende como una serie de pruebas o ensayos en la que
solo podemos tener 2 resultados (éxito o fracaso), siendo el éxito nuestra variable aleatoria.

Propiedades de la distribución binomial


Para que una variable aleatoria se considere que sigue una distribución binomial, tiene que cumplir
las siguientes propiedades:
 En cada ensayo, experimento o prueba solo son posibles dos resultados (éxito o fracaso).
 La probabilidad del éxito ha de ser constante. Esta se representa mediante la letra p. La
probabilidad de que salga cara al lanzar una moneda es 0,5 y esta es constante dado que la
moneda no cambia en cada experimento y las probabilidades de sacar cara son constantes.
 La probabilidad de fracaso ha de ser también constate. Esta se representa mediante la letra q
= 1-p. Es importante fijarse que, mediante esa ecuación, sabiendo p o sabiendo q, podemos
obtener la que nos falte.
 El resultado obtenido en cada experimento es independiente del anterior. Por lo tanto, lo
que ocurra en cada experimento no afecta a los siguientes.
 Los sucesos son mutuamente excluyentes, es decir, no pueden ocurrir los 2 al mismo
tiempo. No se puede ser hombre y mujer al mismo tiempo o que al lanzar una moneda salga
cara y cruz al mismo tiempo.
 Los sucesos son colectivamente exhaustivos, es decir, al menos uno de los 2 ha de ocurrir.
Si no se es hombre, se es mujer y, si se lanza una moneda, si no sale cara ha de salir cruz.
 La variable aleatoria que sigue una distribución binomial se suele representar como X~(n,p)
, donde n representa el número de ensayos o experimentos y p la probabilidad de éxito.

Formula de la distribución binomial


La fórmula de la distribución binomial es:

Donde:
n = Número de ensayos/experimentos
x = Número de éxitos
p = Probabilidad de éxito
q = Probabilidad de fracaso (1-p)
Es importante resaltar que la expresión entre corchetes no es una expresión matricial, sino que es un
resultado de una combinatoria sin repetición. Este se obtiene con la siguiente formula:

El signo de la exclamación en la expresión anterior representa el símbolo factorial.

Ejemplo de distribución binomial


Imaginemos que un 80% de personas en el mundo ha visto el partido de la final del último mundial
de fútbol. Tras el evento, 4 amigos se reúnen a conversar, ¿Cuál es la probabilidad de que 3 de ellos
hayan visto el partido?
Definamos las variables del experimento:
n = 4 (es el total de la muestra que tenemos)
x = número de éxitos, que en este caso es igual a 3, dado que buscamos la probabilidad de que 3
de los 4 amigos lo hayan visto.
p = probabilidad de éxito (0,8)
q = probabilidad de fracaso (0,2). Este resultado se obtiene al restar 1-p.
Tras definir todas nuestras variables, simplemente sustituimos en la formula.
El numerador de la factorial se obtendría de multiplicar 4*3*2*1 = 24 y en el denominador
tendríamos 3*2*1*1 = 6. Por lo tanto, el resultado de la factorial sería 24/6=4.
Fuera del corchete tenemos dos números. El primero sería 0,8^3=0,512 y el segundo 0,2 (dado que
4-3 = 1 y cualquier número elevado a 1 es el mismo).
Por tanto, nuestro resultado final sería: 4*0,512*0,2 = 0,4096. Si multiplicamos por 100 tenemos
que hay una probabilidad del 40,96% de que 3 de los 4 amigos haya visto el partido de la final del
mundial.

Distribución hipergeométrica (4.3)


¿Qué es la distribución hipergeométrica?
La distribución hipergeométrica es una distribución de probabilidad que describe el número de
casos de éxito en una extracción aleatoria y sin remplazo de n elementos de una población.
Es decir, la distribución hipergeométrica sirve para calcular la probabilidad de obtener x éxitos al
extraer n elementos de una población sin reemplazar ninguno.
La distribución hipergeométrica tiene tres parámetros:
 N: es el número de elementos de la población (N = 0, 1, 2, …).
 K: es el número máximo de casos de éxito (K = 0, 1, 2, …, N). Como en una distribución
hipergeométrica un elemento solo puede considerarse «éxito» o «fracaso», N-K es el
número máximo de casos de fracaso.
 n: es el número de extracciones sin reemplazo que se hacen.

Por ejemplo, una variable aleatoria discreta X que tiene una distribución hipergeométrica con
parámetros N=8, K=5 y n=3 se define de la siguiente manera:

Formula de la distribución hipergeométrica


La fórmula de la distribución hipergeométrica es el producto del número combinatorio
de K sobre x por el número combinatorio de N-K sobre n-x dividido por el número combinatorio
de N sobre n.
Donde N es el tamaño de la población, K el número total de casos favorables, n es el número de
extracciones sin remplazo, y x es el número de casos favorables del cual se quiere calcular la
probabilidad de ocurrencia.
Ejemplo de la distribución hipergeométrica
Una vez hemos visto la definición y la fórmula de la distribución hipergeométrica, a continuación,
resolveremos un ejemplo paso a paso para que sepas cómo calcular la probabilidad de una
distribución hipergeométrica.
 En una bolsa metemos 20 bolas de color azul y 30 bolas de color rojo, es decir, en total hay
50 bolas dentro de la bolsa. Si extraemos 12 bolas sin reponer ninguna, calcula cuál es la
probabilidad de sacar 4 bolas de color azul.
Lo primero que debemos hacer para resolver el ejercicio es identificar los parámetros de la
distribución hipergeométrica. En este caso, el número total de elementos de la población es 50
(N=50), el número máximo de casos favorables es 20 (K=20), y sacamos 12 bolas (n=12).

Queremos calcular la probabilidad de sacar 4 bolas azules (x=4), por lo tanto, aplicamos la fórmula
de la distribución hipergeométrica, sustituimos las variables por sus correspondientes valores y
hacemos el cálculo:
Distribución de Poisson (4.4)
La distribución de Poisson es una distribución de probabilidades discreta, mediante la cual se
puede conocer la probabilidad de que, dentro de una muestra de tamaño grande y durante un cierto
intervalo, ocurra un evento cuya probabilidad es pequeña.
Con frecuencia, la distribución de Poisson se puede utilizar en lugar de la distribución binomial,
siempre y cuando se cumplan las siguientes condiciones descritas: muestra grande y probabilidad
pequeña.
Simeón-Denis Poisson (1781‐1840) creó esta distribución que lleva su nombre, muy útil cuando se
trata de sucesos impredecibles. Poisson publicó sus resultados en 1837, un trabajo de investigación
sobre la probabilidad de ocurrencia de las sentencias penales erróneas.
Posteriormente otros investigadores adaptaron la distribución en otros ámbitos, por ejemplo, el
número de estrellas que podían hallarse en un cierto volumen del espacio, o la probabilidad de que
un soldado muriese a causa de la coz de un caballo.

Formula y ecuaciones
La forma matemática de la distribución de Poisson es la siguiente:

– La variable aleatoria es y

– μ (también a veces denotado como λ) es la media o parámetro de la distribución

– Número de Euler: e = 2.71828

– La probabilidad de obtener y = k es P

– k es el número de éxitos 0, 1,2,3…

– n es el número de pruebas o eventos (el tamaño de la muestra)

Las variables aleatorias discretas, como su nombre lo indica, dependen del azar y únicamente toman
valores discretos: 0, 1, 2, 3, 4…, k.
La media de la distribución viene dada por:

La varianza σ, que mide la dispersión de los datos, es otro parámetro importante. Para la
distribución de Poisson es:

σ=μ

Poisson determinó que cuando n → ∞, y p → 0, la media μ –también llamada valor esperado–


tiende a una constante:

μ → constante

Importante: p es la probabilidad de ocurrencia del evento tomando en cuenta la población total,


mientras que P (y) es la predicción de Poisson sobre la muestra.

Modelo y propiedades

La distribución de Poisson tiene las siguientes propiedades:

-El tamaño de la muestra es grande: n → ∞.

-Los sucesos o eventos considerados son independientes entre sí y ocurren aleatoriamente.

-La probabilidad P de que cierto suceso y ocurra durante un periodo de tiempo concreto es muy
pequeña: P→ 0.

-La probabilidad de que ocurra más de un suceso en el intervalo de tiempo es 0.

-El valor promedio se aproxima a una constante dada por: μ = n.p (n es el tamaño de la muestra)

-Puesto que la dispersión σ es igual a μ, a medida que esta adopta valores más grandes, la
variabilidad también se hace mayor.

-Los sucesos deben estar distribuidos uniformemente en el intervalo de tiempo usado.

-El conjunto de posibles valores del suceso y es: 0,1,2,3,4….

-La suma de i variables que siguen una distribución de Poisson, es también otra variable de Poisson.
Su valor promedio es la suma de los valores promedio de dichas variables.

Diferencias con la distribución binomial


La distribución de Poisson difiere de la distribución binomial en los siguientes aspectos
importantes:

-La distribución binomial es afectada tanto por el tamaño de la muestra n como por la
probabilidad P, pero la distribución de Poisson solamente es afectada por la media μ.

-En una distribución binomial, los posibles valores de la variable aleatoria y son 0, 1, 2, …, N, en
cambio en la distribución de Poisson no hay límite superior para dichos valores.

Ejemplos:

Poisson aplicó inicialmente su famosa distribución a casos legales, pero a nivel industrial, uno de
sus primeros usos fue en la fabricación de cerveza. En este proceso se utilizan cultivos de levadura
para la fermentación.

La levadura consiste de células vivas, cuya población es variable en el tiempo. En la fabricación de


la cerveza se necesita agregar la cantidad necesaria, por ello es preciso conocer la cantidad de
células que hay por unidad de volumen.

Durante la II Guerra Mundial se utilizó la distribución de Poisson para saber si los alemanes estaban
apuntando realmente a Londres desde Calais, o simplemente disparando al azar. Esto era importante
para que los aliados determinaran cuan buena era la tecnología de la que disponían los nazis.

Distribución normal (4.5)


La distribución normal o distribución gaussiana es la distribución de probabilidad en
variable continua, en la que la función densidad de probabilidad está descrita por una función
exponencial de argumento cuadrático y negativo, que da lugar a una forma acampanada.

El nombre de distribución normal viene del hecho que esta distribución es la que se aplica a mayor
número de situaciones donde está involucrada alguna variable aleatoria continua en un grupo o
población dada.
Como ejemplos donde se aplica la distribución normal se tienen: la altura de los hombres o de las
mujeres, variaciones en la medida de alguna magnitud física o en rasgos psicológicos o sociológicos
medibles como el cociente intelectual o los hábitos de consumo de cierto producto.

Por otra parte, se le llama distribución gaussiana o campana de Gauss, porque es a este genio
matemático alemán a quién se le acredita su descubrimiento por el uso que le dio para la
descripción del error estadístico de las mediciones astronómicas allá por el año 1800.

Sin embargo, se afirma que esta distribución estadística fue publicada previamente por otro gran
matemático de origen francés, como lo fue Abraham de Moivre, allá por el año 1733.

Formula

A la función distribución normal en la variable continua x, con parámetros μ y σ se le denota por:

N (x; μ, σ)

y explícitamente se escribe así:

N (x; μ, σ) = ∫-∞x f (s; μ, σ) ds

donde f(u; μ,σ) es la función densidad de probabilidad:

f(s; μ,σ) = (1/(σ√(2π)) Exp( – s2/(2σ2) )

La constante que multiplica a la función exponencial en la función densidad de probabilidad se le


llama constante de normalización, y se ha elegido de tal manera que:

N (+∞, μ, σ) = 1
La expresión anterior asegura que la probabilidad de que la variable aleatoria x esté comprendida
entre -∞ y +∞ sea 1, es decir el 100% de probabilidad.

El parámetro μ es la media aritmética de la variable aleatoria continua x y σ la desviación típica o


raíz cuadrada de la varianza de esa misma variable. En el caso que μ = 0 y σ = 1 se tiene entonces
la distribución normal estándar o distribución normal típica:

N( x; μ = 0, σ = 1)

Características de la distribución normal

1- Si una variable estadística aleatoria sigue una distribución normal de densidad de


probabilidad f(s; μ,σ), la mayor parte de los datos se agrupan alrededor de valor medio μ y están
dispersos a su alrededor de forma tal que poco más de ⅔ de los datos están entre μ – σ y μ + σ.

2- La desviación típica σ siempre es positiva.

3- La forma de la función de densidad f se asemeja a la de una campana, por lo que a esta función
muchas veces se le llama campana de Gauss o función gaussiana.

4- En una distribución gaussiana la media, la mediana y la moda coinciden.

5- Los puntos de inflexión de la función densidad de probabilidad se encuentran justamente en μ –


σ y μ + σ.

6- La función f es simétrica respecto a un eje que pase por su valor medio μ y tiene asintóticamente
a cero para x ⟶ +∞ y x ⟶ -∞.

7- A mayor valor de σ mayor dispersión, ruido o distanciamiento de los datos alrededor del valor
medio. Es decir, a mayor σ la forma de campana es más abierta. En cambio, σ pequeño indica que
los dados se ciñen a la media y la forma de la campana es más cerrada o puntiaguda.

8- La función de distribución N (x; μ, σ) indica la probabilidad que la variable aleatoria sea menor o
igual que x. Por ejemplo, en la figura 1 (más arriba) la probabilidad P de que la variable x sea menor
o igual a 1.5 es de 84% y se corresponde con el área bajo la función densidad de probabilidad f (x;
μ, σ) desde -∞ hasta x.

Intervalos de confianza

9- Si los datos siguen una distribución normal, entonces 68,26% de estos están entre μ – σ y μ + σ.

10- El 95,44% de los datos que siguen una distribución normal se encuentran entre μ – 2σ y μ + 2σ.

11- El 99,74% de los datos que siguen una distribución normal se encuentran entre μ – 3σ y μ + 3σ.

12- Si una variable aleatoria x sigue una distribución N(x; μ,σ), entonces la variable

z = (x – μ) / σ sigue la distribución normal estándar N (z; 0,1).


El cambio de la variable x a la z recibe el nombre de estandarización o tipificación y es de gran
utilidad a al momento de aplicar las tablas de la distribución estándar a los datos que siguen una
distribución normal no-estándar.

Distribución T -Student (4.6)


¿Qué es la distribución t -student?

La prueba t de Student, también llamada Test-T o simplemente prueba t, es una prueba


estadística en la que el estadístico de la prueba sigue una distribución t de Student. Por lo tanto, en
estadística, la prueba t de Student se usa para rechazar o aceptar la hipótesis nula de una prueba de
hipótesis.

En concreto, la prueba t de Student se utiliza en aquellas pruebas de hipótesis en las que la


población estudiada sigue una distribución normal, pero el tamaño muestral es demasiado pequeño
como para conocer la varianza de la población.

En definitiva, la prueba t de Student sirve para rechazar o aceptar la hipótesis de estudio de algunas
pruebas de hipótesis. Por ejemplo, la prueba t de Student se utiliza en las pruebas de hipótesis para
una muestra, para muestras independientes o para muestras relacionadas. A continuación, veremos
cómo se calcula la prueba t de Student en cada caso.

Tipos de distribución t -student

Hay tres tipos de pruebas t de Student:

 Prueba t de Student para una muestra: se usa para analizar la hipótesis sobre el valor de
la media de una muestra.
 Prueba t de Student para dos muestras independientes: sirve para estudiar la hipótesis
sobre la diferencia entre las medias de dos muestras independientes.
 Prueba t de Student para dos muestras pareadas (o muestras relacionadas): se utiliza
para investigar la hipótesis sobre la media de una muestra evaluada dos veces.

Prueba t de Student para una muestra

Las pruebas de hipótesis para la media de una muestra son aquellas en las que la hipótesis nula y la
hipótesis alternativa del contraste afirman algo sobre el valor de la media de una población.

La fórmula de la prueba t de Student para una muestra es la siguiente:

Donde:

 es el estadístico de la prueba de hipótesis para la media, el cual está definido por una
distribución t Student.
 es la media de la muestra.
 es el valor de la media propuesto en la prueba de hipótesis.
 es la desviación estándar de la muestra.
 es el tamaño de la muestra.

Una vez se ha calculado el valor de la prueba t de Student, se debe interpretar el resultado del
estadístico de la prueba con el valor crítico para rechazar o no la hipótesis nula:

 Si la prueba de hipótesis para la media es de dos colas, se rechaza la hipótesis nula si el


valor absoluto de la prueba t de Student es mayor que el valor crítico t α/2|n-1.
 Si la prueba de hipótesis para la media corresponde a la cola derecha, se rechaza la
hipótesis nula si el valor de la prueba t de Student es mayor que el valor crítico t α|n-1.
 Si la prueba de hipótesis para la media corresponde a la cola izquierda, se rechaza la
hipótesis nula si el valor de la prueba t de Student es menor que el valor crítico -t α|n-1.

Ten en cuenta que los valores críticos de la prueba se obtienen de la tabla de la distribución t
Student.

Distribución Chi cuadrada (4.7)


¿Qué es la distribución chi cuadrado?

La distribución chi-cuadrado es una distribución de probabilidad cuyo símbolo es χ². En concreto,


la distribución chi-cuadrado es la suma del cuadrado de k variables aleatorias independientes con
distribución normal.

Así pues, la distribución chi-cuadrado tiene k grados de libertad. Por lo tanto, una distribución chi-
cuadrada tiene tantos grados de libertad como la suma de los cuadrados de variables con
distribución normal que representa.
La distribución chi-cuadrado también se conoce como distribución de Pearson.

Cabe destacar que la distribución chi-cuadrado es un caso especial de la distribución gamma.

La distribución chi-cuadrado se utiliza mucho en inferencia estadística, por ejemplo, se usa en el


contraste de hipótesis y en los intervalos de confianza. Más abajo veremos cuáles son las
aplicaciones de este tipo de distribución de probabilidad.

Características de la distribución chi-cuadrado

En este apartado veremos las propiedades más importantes de la distribución chi-cuadrado


relacionadas con la teoría de la probabilidad y la estadística.

 La media de una distribución chi-cuadrado es igual a sus grados de libertad.

 La varianza de una distribución chi-cuadrado es equivalente al doble de los grados de


libertad de la distribución.

 La moda de una distribución chi-cuadrada es dos unidades menos que sus grados de
libertad, siempre y cuando la distribución tenga más de un grado de libertad.

 La función de densidad de la distribución chi-cuadrado es nula si x=0. No obstante, para


valores de x mayores que 0, la función de densidad de una distribución chi-cuadrado se
define mediante la siguiente fórmula:
 La función de distribución acumulada de la distribución chi-cuadrado está regida por la
siguiente fórmula:

 El coeficiente de asimetría de la distribución chi-cuadrado es la raíz cuadrada del cociente


de ocho entre el número de grados de libertad de la distribución.

 La curtosis de la distribución chi-cuadrado se calcula mediante la siguiente expresión:

 Como consecuencia del teorema del límite central, la distribución chi-cuadrado puede
aproximarse por una distribución normal si k es suficientemente grande.

Aplicaciones de la distribución chi cuadrado

La distribución chi-cuadrado tiene muchas aplicaciones diferentes en estadística. De hecho,


hasta existe la prueba de chi-cuadrado que sirve para comprobar la independencia entre
variables y la bondad de ajuste a una distribución teórica. Por ejemplo, se puede usar la prueba
de chi-cuadrado para determinar si los datos de una muestra se ajustan a una distribución de
Poisson.

En el análisis de una regresión lineal, la distribución chi-cuadrado también se utiliza para


estimar la media de una población normalmente distribuida y para estimar la pendiente de la
recta del estudio de regresión lineal.
Por último, la distribución chi-cuadrado también participa en el análisis de varianza, debido a su
relación con la distribución F de Snedecor.

Distribución F (4.8)
La distribución F o distribución de Fisher-Snedecor es la que se usa para comparar las
varianzas de dos poblaciones diferentes o independientes, cada una de las cuales sigue una
distribución normal.

La distribución que sigue la varianza de un conjunto de muestras de una sola población normal
es la distribución ji-cuadrada (Χ2) de grado n-1, si cada una de las muestras del conjunto tiene n
elementos.

Para comparar las varianzas de dos poblaciones diferentes, es necesario definir un estadístico,
es decir una variable aleatoria auxiliar que permita discernir si ambas poblaciones tienen o no
igual varianza.

Dicha variable auxiliar puede ser directamente el cociente de las varianzas muestrales de cada
población, en cuyo caso, si dicho cociente es cercano a la unidad, se tiene evidencia que ambas
poblaciones tienen varianzas semejantes.

El estadístico F y su distribución teórica

La variable aleatoria F o estadístico F propuesto por Ronald Fisher (1890 – 1962) es el que se
usa más frecuentemente para comparar las varianzas de dos poblaciones y se define de la
siguiente manera:
Siendo s2 la varianza muestral y σ2 la varianza poblacional. Para distinguir cada uno de los dos
grupos poblacionales, se utilizan los subíndices 1 y 2 respectivamente.

Se sabe que la distribución ji-cuadrada con (n-1) grados de libertad es la que sigue la variable
auxiliar (o estadístico) que se define a continuación:

X2 = (n-1) s2 / σ2.

Por lo tanto, el estadístico F sigue una distribución teórica dada por la siguiente fórmula:

Siendo U la distribución ji-cuadrada con d1 = n1 – 1 grados de libertad para la población 1 y V la


distribución ji-cuadrada con d2 = n2 – 1 grados de libertad para la población 2.

El cociente definido de esta forma es una nueva distribución de probabilidad, conocida


como distribución F con d1 grados de libertad en el numerador y d2 grados de libertad en el
denominador.

Media, moda y varianza de la distribución F

Media

La media de la distribución F se calcula de la siguiente manera:

Siendo f(x) la densidad de probabilidad de la distribución F, la cual se muestra en la figura 1 para


varias combinaciones de parámetros o grados de libertad.

Se puede escribir la densidad de probabilidad f(x) en función de la función Γ ( función gamma):


Una vez efectuada la integral indicada antes, se concluye que la media de la distribución F con
grados de libertad (d1, d2) es:

μ = d2 / (d2 – 2) con d2 > 2

Donde se nota que, curiosamente, la media no depende de los grados de libertad d1 del numerador.

Moda

Por otra parte, la moda sí depende de d1 y d2 y está dada por:

Para d1 > 2.

Varianza de la distribución F

La varianza σ2 de la distribución F se calcula a partir de la integral:

Obteniéndose:
Manejo de la distribución F

Al igual que otras distribuciones continuas de probabilidad que involucran funciones complicadas,
el manejo de la distribución F se realiza mediante tablas o mediante software.

Tablas de la distribución F

Las tablas involucran los dos parámetros o grados de libertad de la distribución F, la columna indica
el grado de libertad del numerador y la fila el grado de libertad del denominador.

La figura 2 muestra una sección de la tabla de la distribución F para el caso de un nivel de


significancia de 10%, es decir α = 0,1. Aparece resaltado el valor de F cuando d1= 3 y d2 = 6
con nivel de confianza 1- α = 0,9 es decir 90%.

Diagrama de dispersión en probabilidad y estadística (5.1.1)

¿Qué es un diagrama de dispersión?


El diagrama de dispersión, o gráfico de dispersión, es un tipo de diagrama estadístico en el que
se representa gráficamente un conjunto de datos de dos variables en dos ejes de coordenadas
cartesianas.
Por lo tanto, los diagramas de dispersión sirven para analizar la relación entre dos variables
estadísticas.

Los diagramas de dispersión reciben varios nombres diferentes, tales como diagrama de
correlación o nube de puntos.

Cabe destacar que el diagrama de dispersión se considera como una de las herramientas básicas de
control de calidad, junto con el diagrama de Pareto, el diagrama de causa-efecto, el diagrama de
flujo, etc.

¿Cómo hacer un diagrama de dispersión?


Para hacer un diagrama de dispersión debes seguir los siguientes pasos

1. Recolectar los datos estadísticos de la muestra que se quiere analizar. Ten en cuenta que
para poder hacer un diagrama de dispersión debe haber como mínimo dos variables
cuantitativas.
2. Representar los dos ejes del gráfico de dispersión.
3. Determinar las dos variables estadísticas que se representarán gráficamente.

4. Calibrar la escala de cada eje de la gráfica. Para ello, se recomienda encontrar primero el
mínimo y el máximo de cada variable y, a partir de estos valores, graduar cada eje.

5. Representar cada pareja de datos en el diagrama de dispersión con un punto.

6. Analizar e interpretar el diagrama de dispersión obtenido.


Ejemplo de diagrama de dispersión
Después de ver la definición de diagrama de dispersión y la teoría sobre cómo se hace, en este
apartado se representa un diagrama de este tipo a modo de ejemplo.

En la siguiente tabla de frecuencia, se han recogido como datos las notas de matemáticas y
estadística de una muestra de 20 alumnos. Representa el conjunto de datos en un diagrama de
dispersión y analízalo.

Para representar la serie de datos en un diagrama de dispersión simplemente debemos dibujar dos
ejes, calibrarlos y representar un punto en la gráfica para cada pareja de datos. Recuerda que un
punto en una gráfica se pone donde se cortan las rectas imaginarias correspondientes a cada uno de
sus valores.
Cada eje del diagrama de dispersión representa una variable. En concreto, el eje horizontal
pertenece a la nota conseguida en matemáticas y, por otro lado, el eje vertical corresponde a la nota
obtenida en estadística.

Como puedes ver en el gráfico de dispersión, las dos variables tienen una correlación positiva, ya
que una variable aumenta a medida que la otra variable también aumenta. Por lo tanto, se concluye
que si un alumno consigue mejor nota en matemáticas es más probable que también saque mejor
nota en estadística, y al revés.

Sin embargo, la conclusión anterior no significa que una variable sea la causa de la otra, ya que
obtener una buena nota en matemáticas no te garantiza automáticamente conseguir una buena nota
en estadística sin hacer nada, sino que se deben estudiar las dos asignaturas. En el siguiente
apartado entraremos más en detalle en este concepto.

El diagrama de dispersión y la correlación

A partir de un diagrama de dispersión se puede identificar qué tipo de correlación tienen dos
variables:

 Correlación directa (o correlación positiva): una variable aumenta cuando la otra


también aumenta.
 Correlación inversa (o correlación negativa): cuando una variable aumenta la otra
disminuye, y al revés, si una variable disminuye la otra aumenta.
 Correlación nula (sin correlación): no existe ninguna relación entre las dos variables.
Asimismo, independientemente de si la correlación entre las dos variables es directa o inversa, la
correlación también se puede clasificar en función de cuanto de fuerte o débil es la relación entre
ambas variables.

 Correlación fuerte: las dos variables están muy relacionadas. Los puntos están muy juntos
entre sí en el diagrama de dispersión. En consecuencia, resulta más fácil identificar la
relación entre las variables.
 Correlación débil: existe una relación entre las dos variables, pero resulta difícil de
identificar. Los puntos están muy separados en el diagrama de dispersión.

Ventajas y desventajas del diagrama de dispersión

Debido a las características del diagrama de dispersión, este tipo de gráficos estadísticos tienen sus
ventajas y sus desventajas.

Ventajas:

 Resulta bastante fácil representar una serie de datos en un diagrama de dispersión.


 El diagrama de dispersión permite analizar de manera visual la relación entre dos variables,
lo que facilita extraer conclusiones.
 Los gráficos de dispersión también pueden utilizarse en un estudio estadístico exhaustivo
como una exploración previa de los datos.

Desventajas:
 Este tipo de diagramas no son útiles para representar variables cualitativas.
 La interpretación de un diagrama de dispersión puede llevar a una conclusión errónea de
causa-efecto entre dos variables.
 Los diagramas de dispersión no permiten analizar la relación entre más de dos variables.

Regresión lineal simple (5.1.2)

¿Qué es la regresión lineal simple?

La regresión lineal simple es un modelo estadístico usado para relacionar una variable
independiente X con una variable dependiente Y. Es decir, en una regresión lineal simple solo hay
dos variables (la variable explicativa X y la variable respuesta Y) y se intenta aproximar la relación
que hay entre ambas variables.

Por lo tanto, la regresión lineal simple sirve para encontrar una ecuación que relacione dos variables
de una manera lineal. Lógicamente, la relación entre las dos variables debe ser lineal, sino se debe
utilizar otro tipo de modelo de regresión.

La ecuación de un modelo de regresión lineal simple está formada por dos coeficientes: la constante
de la ecuación (b0) y el coeficiente de la correlación entre las dos variables (b 1). Por lo tanto, la
ecuación de un modelo de regresión lineal simple es y=b0+b1x.

La ecuación de una regresión lineal simple se representa gráficamente como una línea recta, por lo
que el coeficiente b0 es la ordenada en el origen y el coeficiente b1 es la pendiente de la recta.

Fórmulas de la regresión lineal simple


Las fórmulas para calcular los coeficientes de una regresión lineal simple son las siguientes:

Puedes usar la calculadora que hay más abajo para calcular los coeficientes de una regresión lineal
simple de cualquier conjunto de datos.

Evidentemente, la ecuación resultante del modelo de regresión lineal simple no podrá acertar el
valor exacto de todas las observaciones, ya que este modelo simplemente trata de encontrar una
ecuación que aproxime la relación entre las dos variables. Así pues, se define como residuo a la
diferencia entre el valor real y el valor estimado por el modelo de la regresión lineal.

Ten en cuenta que el objetivo de un modelo de regresión lineal simple es minimizar los cuadrados
de los residuos, es decir, la regresión lineal simple se basa en el criterio de los mínimos cuadrados.

Ejemplo resuelto de una regresión lineal simple

Para acabar de entender el método de la regresión lineal simple, a continuación, tienes un ejemplo
resuelto paso a paso en el que se calcula la ecuación de un modelo de regresión lineal simple de un
conjunto de datos estadísticos.
 Después de realizar un examen de estadística, se ha preguntado a cinco estudiantes cuántas
horas de estudio dedicaron al examen, los datos se muestran en la tabla de abajo. Realiza un
modelo de regresión lineal simple de los datos estadísticos recopilados para relacionar
linealmente las horas de estudio con la nota obtenida.

Para hacer un modelo de regresión lineal simple tenemos que determinar los coeficientes b 0 y b1 de
la ecuación y, para ello, tenemos que utilizar las fórmulas vistas en el apartado de arriba.

No obstante, para poder aplicar las fórmulas de la regresión lineal simple primero tenemos que
calcular la media de la variable independiente y la media de la variable dependiente:

Ahora que ya sabemos las medias de las variables, calculamos el coeficiente b 1 del modelo usando
su fórmula correspondiente:
Por último, calculamos el coeficiente b0 del modelo empleando su fórmula correspondiente:

En definitiva, la ecuación del modelo de regresión lineal simple del problema es la siguiente:

A continuación, puedes ver la representación gráfica de la muestra de datos junto con la recta del
modelo de regresión lineal simple:
Para terminar, una vez hemos calculado la ecuación del modelo de regresión lineal simple, solo nos
queda interpretar el resultado obtenido. Para ello, es imprescindible calcular el coeficiente de
determinación del modelo de regresión, puedes ver cómo se hace buscando el artículo
correspondiente en nuestra página web.

Supuestos de la regresión lineal simple

Para poder hacer una regresión lineal simple, se deben cumplir las siguientes hipótesis:

 Independencia: los residuos observados deben ser independientes entre sí. Una manera
común de garantizar la independencia del modelo es añadiendo aleatoriedad en el proceso
de muestreo.
 Homocedasticidad: debe haber homogeneidad en las varianzas de los residuos, es decir, la
variabilidad de los residuos debe ser constante

 Normalidad: los residuos deben estar distribuidos normalmente, o dicho de otra forma,
deben seguir una distribución normal de media 0.
 Linealidad: la relación entre la variable independiente y la variable dependiente debe ser
lineal.
Correlación (5.1.3)

¿Qué es una correlación?

La correlación es una medida estadística que indica el grado de relación entre dos variables. En
concreto, la correlación lineal sirve para determinar cuánto de correlacionadas linealmente están
dos variables distintas.

Dos variables están relacionadas cuando al variar los valores de una variable también cambian los
valores de la otra variable. Por ejemplo, si al aumentar la variable A también aumenta la variable B,
existe una correlación entre las variables A y B.

Tipos de correlación

Según cómo sea la relación que hay entre dos variables aleatorias, se distinguen los siguientes tipos
de correlación lineal:

 Correlación directa (o correlación positiva): una variable aumenta cuando la otra


también aumenta.
 Correlación inversa (o correlación negativa): cuando una variable aumenta la otra
disminuye, y al revés, si una variable disminuye la otra aumenta.
 Correlación nula (sin correlación): no existe ninguna relación entre las dos variables.

Ten en cuenta que estos son los diferentes tipos de correlación lineal que hay, pero también puede
ser que la relación matemática entre dos variables no se pueda representar con una recta, sino que se
debe utilizar una función más compleja, como por ejemplo una parábola o un logaritmo. En tal caso
sería una correlación no lineal.

Coeficiente de correlación

Vista la definición de correlación y cuáles son los diferentes tipos de correlación que hay, vamos a
ver cómo se calcula este valor estadístico.

El coeficiente de correlación, también llamado coeficiente de correlación lineal o coeficiente de


correlación de Pearson, es el valor de la correlación entre dos variables.

El coeficiente de correlación de dos variables estadísticas es igual al cociente entre la covarianza de


las variables y la raíz cuadrada del producto de la varianza de cada variable. Por lo tanto, la fórmula
para calcular el coeficiente de correlación es la siguiente:
Cuando se calcula el coeficiente de correlación sobre una población, el símbolo de la correlación es
la letra griega ρ. Pero cuando se está calculando el coeficiente respecto a una muestra suele usarse
como símbolo la letra r.

El valor del índice de correlación puede estar entre -1 y +1, ambos incluidos. Más abajo veremos
cómo se interpreta el valor del coeficiente de correlación.

Interpretación de la correlación

El valor del coeficiente de correlación puede ir desde -1 hasta +1, ambos incluidos. Así pues, según
el valor del coeficiente de correlación, significa que la relación entre las dos variables es de una
forma u otra. A continuación, se explica cómo interpretar el valor de la correlación:

 r=-1: las dos variables tienen una correlación perfecta negativa, por lo que se puede trazar
una recta con pendiente negativa en la que se encuentren todos los puntos.
 -1<r<0: la correlación entre las dos variables es negativa, por lo tanto, cuando una variable
aumenta la otra disminuye. Cuanto más cerca esté el valor de -1 significa que más
relacionadas negativamente están las variables.
 r=0: la correlación entre las dos variables es muy débil, de hecho, la relación lineal entre
ellas es nula. Esto no significa que las variables sean independientes, ya que podrían tener
una relación no lineal.
 0<r<1: la correlación entre las dos variables es positiva, cuanto más cerca esté el valor de
+1 más fuerte es la relación entre las variables. En este caso, una variable tiende a
incrementar su valor cuando la otra también aumenta.
 r=1: las dos variables tienen una correlación perfecta positiva, es decir, tienen una relación
lineal positiva.
Como puedes ver en los gráficos de dispersión de arriba, cuanto más fuerte es la correlación entre
dos variables más juntos están los puntos en el gráfico. Por otro lado, si los puntos están muy
separados entre sí significa que la correlación es débil.

Ten presente que, aunque haya correlación entre dos variables esto no significa que exista
causalidad entre ellas, es decir, la correlación entre dos variables no significa que el cambio en
una variable sea la causa del cambio en la otra variable.

Por ejemplo, si encontramos que hay una relación positiva entre la producción de dos hormonas
diferentes del cuerpo, no tiene por qué ser que el incremento de una hormona cause el incremento
de la otra hormona. Podría ser que el cuerpo produzca las dos hormonas porque necesita ambas para
combatir una enfermedad y por tanto incremente el nivel de ambas simultáneamente, en este caso la
causa sería la enfermedad. Para determinar si existe causalidad entre las dos hormonas se debería
hacer un estudio más detallado.

Correlación y regresión

La correlación y la regresión son dos conceptos que suelen ir unidos, ya que ambos sirven para
analizar la relación entre dos variables.

La correlación es una medida estadística que cuantifica la relación entre dos variables, en cambio, la
regresión consiste en hacer una ecuación (si es una regresión lineal será una recta) que permita
relacionar las dos variables.
De manera que la correlación simplemente proporciona un valor numérico a la relación entre
variables, mientras que la regresión se puede utilizar para intentar predecir el valor de una variable a
partir de la otra.

Normalmente, primero se analiza si las variables están correlacionadas calculando el coeficiente de


correlación. Y si la correlación es significativa, entonces se procede a hacer una regresión del
conjunto de datos.

Es habitual confundir el coeficiente de correlación con el valor de la pendiente de la recta obtenida


en la regresión lineal, sin embargo, no son equivalentes.

Matriz de correlación

La matriz de correlación es una matriz que contiene en la posición i,j el coeficiente de correlación
entre las variables i y j.

Por lo tanto, la matriz de correlación es una matriz cuadrada llena de unos en la diagonal principal y
el elemento de la fila i y la columna j consiste en el valor del coeficiente de correlación entre la
variable i y la variable j.

Así pues, la fórmula de la matriz de correlación es la siguiente:

Donde es el coeficiente de correlación entre las variables i y j.

La matriz de correlación resulta muy útil para resumir los resultados y comparar la correlación entre
varias variables al mismo tiempo, ya que se puede ver rápidamente qué relaciones son más fuertes.
Determinación y análisis de los coeficientes de correlación y de
determinación. (5.1.4)
Cálculo de los coeficientes de correlación y determinación

El análisis de correlación es la herramienta estadística que podemos usar para describir el grado en
el que una variable está linealmente relacionada con otra. Con frecuencia, el análisis de correlación
se utiliza junto con el de regresión para medir qué tan bien la línea de regresión explica los cambios
de la variable dependiente, Y. Sin embargo, la correlación también se puede usar sola para medir el
grado de asociación entre dos variables.

Los estadísticos han desarrollado dos medidas para describir la correlación entre dos variables: el
coeficiente de determinación y el coeficiente de correlación.

El coeficiente de determinación

El coeficiente de determinación es la principal forma en que podemos medir el grado, o fuerza, de


la asociación que existe entre dos variables, X y Y. Debido a que usamos una muestra de puntos
para desarrollar rectas de regresión, nos referimos a esta medida como el coeficiente de
determinación muestral. El coeficiente de determinación muestral se deriva de la relación entre dos
tipos de variación: la variación de los valores Y en un conjunto de datos alrededor de:

1.-La recta de regresión ajustada

2.-Su propia medida

Otra interpretación de r2. Los estadísticos han desarrollado una versión abreviada, usando valores
que habríamos determinado de antemano en el análisis de regresión.
La fórmula es:

donde:
ahora podemos resolver el problema, referente a la relación entre el dinero gastado en investigación
y desarrollo y las ganancias anuales de la compañía química. La tabla presenta la información de los
6 años anteriores. Con esto, podemos determinar la ecuación de regresión que describe la relación.

Y el valor de a es:
Entonces podemos sustituir el valor de a y b en la ecuación, podemos obtener:

Para ver por qué esta fórmula constituye un método abreviado, la aplicaremos a la regresión que
relaciona los gastos de investigación y desarrollo con las ganancias. En la tabla, repetimos las
columnas de la tabla, añadiendo una columna Y2.

Recuerda que cuando encontramos los valores de a y b, la recta de regresión para este problema era:

Así, podemos concluir que la variación en los gastos de investigación y desarrollo (la variable
independiente X) aplica el 82.6% de la variación en las ganancias anuales (la variable pendiente Y).

Intervalos de confianza y prueba para el coeficiente de


correlación (5.1.6)

Intervalo de confianza para un coeficiente de correlación: motivación

La razón para crear un intervalo de confianza para un coeficiente de correlación es capturar


nuestra incertidumbre al estimar un coeficiente de correlación de población.
Por ejemplo, supongamos que queremos estimar el coeficiente de correlación entre la altura y el
peso de los residentes de un determinado condado. Dado que hay miles de residentes en el condado,
sería demasiado costoso y llevaría mucho tiempo buscar información sobre la altura y el peso de
cada residente.

En su lugar, podríamos seleccionar una muestra aleatoria simple de residentes y simplemente


recopilar información sobre ellos.

Dado que seleccionamos una muestra aleatoria de residentes, no hay garantía de que el coeficiente
de correlación entre la altura y el peso de estos residentes en la muestra coincida exactamente con el
coeficiente de correlación en la población más grande. Entonces, para capturar esta incertidumbre,
podemos crear un intervalo de confianza que contenga un rango de valores que probablemente
contengan el verdadero coeficiente de correlación entre la altura y el peso de los residentes en este
condado.

Intervalo de confianza para un coeficiente de correlación: formula


Usamos los siguientes pasos para calcular un intervalo de confianza para un coeficiente de
correlación de población, basado en el tamaño de muestra n y el coeficiente de correlación de
muestra r.

Paso 1: realizar la transformación de Fisher.

Sea z r = ln (1 + r / 1-r) / 2

Paso 2: Encuentra los limites superiores e inferiores de registro,

Sea U = z r + (z 1-α / 2 / √ (n-3))

Paso 3: Encuentre el intervalo de confianza.

El intervalo de confianza final se puede encontrar mediante la siguiente formula

Intervalo de confianza = [(e 2L -1) / (e 2L +1), (e 2U -1) / (e 2U +1)]

Intervalo de confianza = [(e 2 (.2556)


-1) / (e 2 (.2556)
+1), (e 2 (1.01)
-1) / (e 2 (1.01)
+1)]
= [.2502, .7658]

Intervalo de confianza para un coeficiente de correlación: interpretado

La fórmula en que interpretamos un intervalo de confianza es la siguiente:

Otra forma de decir lo mismo es que hay solo un 5% de probabilidad de que el coeficiente de
correlación de la población real se encuentre fuera del intervalo de confianza del 95%. Es decir, hay
solo un 5% de probabilidad de que el verdadero coeficiente de correlación poblacional entre la
altura y el peso de los residentes de este condado sea menor que .2502 o mayor que .7658.

Errores de medición (5.1.7)


¿Qué es un error de medición?

Un error de medición (o error de medida) es un fallo que se produce al medir una magnitud. Por
lo tanto, un error de medición es la diferencia entre el valor medido y el valor real.

En ingeniería y en física, resulta habitual cometer errores de medición en los experimentos. Aunque
se tomen precauciones para hacer el mínimo error de medida posible, cuando se miden muchas
observaciones es probable realizar algún error en la medición.

Por eso, a pesar de que generalmente es una tarea aburrida, debemos prestar atención en el proceso
de medición de una magnitud para minimizar los errores de medición.

Tipos de errores de medición

Ahora que ya sabemos la definición de error de medición, vamos a ver cuáles son los diferentes
tipos de errores medición para entender mejor el concepto.

Según la naturaleza de los errores de medición, se pueden clasificar en los siguientes dos tipos:

 Errores de medición aleatorios: tipo de error de medición del cual no se conoce la causa
por la que ocurre. En ocasiones, realizando un experimento en las mismas condiciones, se
puede obtener un resultado ligeramente diferente y no se sabe el motivo.

 Errores de medición sistemáticos: este tipo de error de medición permanece constante y,


por tanto, se conoce la ley o mecanismo que lo causa. Como el error de medición tiene una
causa específica, la desviación entre valor medido y el valor real suele ser igual al realizar
varios experimentos.

Por otro lado, el error de medición cometido se puede valorar calculando la diferencia del valor
medido respecto al valor real. Así pues, se distingue entre el error absoluto y el error relativo.


Error absoluto: es la diferencia entre el valor medido y el valor real. Por lo tanto, para
calcular el error absoluto simplemente se debe restar el valor obtenido de la medición
menos el valor real.

 Error relativo: es la diferencia relativa entre el valor medido y el valor real. Por lo tanto, el
error relativo es equivalente al error absoluto partido por el valor real. Generalmente se
expresa en forma de porcentaje.
Causas de errores de medición

Existen varias causas que dan lugar a errores de medición, entre ellas destacan:

 Errores de medición debidos al instrumento de medición: el error al tomar una medida


puede ser causado por un fallo en el diseño o en la fabricación del instrumento de medición.
Asimismo, el desgaste del aparato al realizar muchas medidas puede repercutir en el
proceso de medición.
 Errores de medición debidos al operador: es importante manipular correctamente el
instrumento de medición para no cometer errores. Así pues, el operador puede hacer errores
de medición en la lectura del valor medido, errores por posicionar de manera errónea el
dispositivo de medición o incluso errores debidos a la fatiga.
 Errores de medición debidos a factores ambientales: las condiciones ambientales
también se deben tener en cuenta al realizar un experimento. Así pues, si la temperatura es
muy alta o muy baja, los objetos metálicos se dilatan o se contraen respectivamente.
Asimismo, el polvo, la humedad y la presión, entre otros factores, pueden influir en el
proceso de medición.
 Errores de medición debidos a tolerancias geométricas de la pieza: en el momento de
hacer la medición puede que se someta la pieza a una fuerza demasiado grande, lo que
provoca una deformación.

Ejemplos de errores de medición

Por último, veremos varios ejemplos de errores de medición para entender mejor en qué consiste un
error de medición.

1. Resulta habitual cometer errores de medición en las piezas de dimensiones pequeñas, ya


que se deforman fácilmente. Por ejemplo, si al utilizar un micrómetro presionamos
demasiado una pieza, esta se deformará y la cota medida será más pequeña de lo que
realmente es.
2. Otro ejemplo de error de medición frecuente es el que tiene lugar debido a problemas
visuales. Si el operador tiene problemas en la vista, leerá un valor incorrecto del
instrumento y, en consecuencia, se producirá un error en la medida tomada.
3. Si se miden las longitudes de unas cotas en el sol, es probable que el material esté
ligeramente dilatado y, por tanto, obtendremos unas medidas más grandes de lo que
realmente son.
4. Algunos instrumentos de medición primero se deben calibrar antes de empezar a medir. Así
pues, si no se calibra previamente un instrumento, este proporcionará un valor de la
medición erróneo.
5. Al hacer muchas mediciones seguidas, es posible que se cometa un error de medición
debido al cansancio. Aunque el proceso de medición suele ser monótono, se debe prestar
atención a la medida que se hace y, si es necesario, tomar algún descanso.

 Muestreo:
Definición: El muestreo es un proceso o conjunto de métodos para obtener una muestra finita de
una población finita o infinita, con el fin de estimar valores de parámetros o corroborar hipótesis
sobre la forma de una distribución de probabilidades o sobre el valor de un parámetro de una o más
poblaciones.
Al realizar cualquier investigación social o de mercados, la mayor parte de las veces se rebasa
la capacidad de los investigadores/as para llegar a toda la población o universo de estudio, por lo
que se suele optar por métodos de muestreo que sirvan para acotar ese universo y así poder realizar
la investigación dentro de nuestras posibilidades.
El uso de estos métodos de muestreo, como su propio nombre indica, nos ayuda a obtener
información fiable de la población a partir de una muestra de la que extraer inferencias estadísticas
con un margen de error medido en términos de probabilidades. En otras palabras, en una
investigación por muestreo podremos estudiar el comportamiento y las opiniones de toda una
población analizando únicamente una parte de esta, teniendo en cuenta que siempre existirá un
margen de error a la hora de realizar dichos cálculos.

Tipos de Muestreo:

 Muestreo probabilístico:

El muestreo probabilístico analiza y estudia una población utilizando la selección aleatoria,


simplemente porque en un grupo de individuos todos tienen la misma oportunidad de ser elegidos.
 Muestreo aleatorio simple:
Este tipo de muestreo elige al azar cada individuo que hará parte de la muestra y todos tienen
las mismas oportunidades de ser seleccionados.

 Muestreo sistemático:
Este muestreo selecciona de forma aleatoria al primer individuo de la población que hará parte
del estudio y luego, define un intervalo para completar la muestra.

 Muestreo por conglomerados:


Se utiliza cuando no se pueden estudiar todos los individuos de una población porque es muy
grande o se encuentra dispersa en un área geográfica muy extensa, lo que aumenta el costo de la
investigación.
 Muestreo estratificado:
El muestreo estratificado divide la población en subgrupos o estratos que comparten ciertas
características. Luego, utilizando el método del muestreo aleatorio simple, se eligen individuos de
cada estrato para conformar la muestra.
 Muestreo no probabilístico:
Es una técnica que selecciona las personas que harán parte de la muestra de una manera subjetiva,
esto quiere decir, según la decisión del investigador, evitando hacerlo al azar.
 Muestreo de bola de nieve:
Esta técnica ayuda a los investigadores a encontrar muestras cuando son difíciles de localizar. Es
útil si el tamaño de la muestra es pequeño y no está disponible fácilmente.
 Muestreo por cuotas:
Este método permite dividir la población en grupos o estratos que comparten características como el
sexo, la edad, los estudios, etc., y de ellos se selecciona una muestra proporcional y representativa.
 Muestreo intencional o por conveniencia:
Con este método las muestras se seleccionan basándose únicamente en el conocimiento y la
credibilidad del investigador. En otras palabras, los investigadores eligen solo aquellas personas que
ellos creen que son los adecuados para participar en un estudio de investigación, ya sea porque son
fáciles de reclutar o porque los consideran buenos representantes de la población.

El teorema del límite central:


El teorema del límite central es un teorema fundamental de probabilidad y estadística. El teorema
describe la distribución de la media de una muestra aleatoria proveniente de una población con
varianza finita. Cuando el tamaño de la muestra es lo suficientemente grande, la distribución de las
medias sigue aproximadamente una distribución normal. El teorema se aplica independientemente
de la forma de la distribución de la población. Muchos procedimientos estadísticos comunes
requieren que los datos sean aproximadamente normales. El teorema de límite central le permite
aplicar estos procedimientos útiles a poblaciones que son considerablemente no normales. El
tamaño que debe tener la muestra depende de la forma de la distribución original. Si la distribución
de la población es simétrica, un tamaño de muestra de 5 podría producir una aproximación
adecuada. Si la distribución de la población es considerablemente asimétrica, es necesario un
tamaño de muestra más grande. Por ejemplo, la distribución de la media puede ser
aproximadamente normal si el tamaño de la muestra es mayor que 50. Las siguientes gráficas
muestran ejemplos de cómo la distribución afecta el tamaño de la muestra que se necesita.

Muestras de una población uniforme


Una población que sigue una distribución uniforme es simétrica, pero marcadamente no normal,
como lo demuestra el primer histograma. Sin embargo, la distribución de las medias de 1000
muestras de tamaño 5 de esta población es aproximadamente normal debido al teorema del límite
central, como lo demuestra el segundo histograma. Este histograma de las medias de las muestras
incluye una curva normal superpuesta para ilustrar esta normalidad.

Distribución muestral de la media


Si tenemos una muestra aleatoria de una población N (m, s), se sabe (Teorema del límite central)
que la fdp de la media muestral es también normal con media m y varianza s2/n. Esto es exacto para
poblaciones normales y aproximado (buena aproximación con n>30) para poblaciones cualesquiera.

Es decir es el error típico, o error estándar de la media.


¿Cómo usamos esto en nuestro problema de estimación?
1º problema: No hay tablas para cualquier normal, sólo para la normal m=0 y s=1 (la llamada z);
pero haciendo la transformación (llamada tipificación)

una normal de media m y desviación s se transforma en una z.

Llamando za al valor de una variable


normal tipificada que deja a su
derecha un área bajo la curva de a, es
decir, que la probabilidad que la
variable sea mayor que ese valor
es a (estos son los valores que ofrece
la tabla de la normal)

podremos construir intervalos de la


forma

para los que la probabilidad es 1 - a.

Teniendo en cuenta la simetría de la normal y manipulando algebraicamente

que también se puede escribir


o, haciendo énfasis en que es el error estándar de la media,

Recuérdese que la probabilidad de que m esté en este intervalo es 1 - a. A un intervalo de este tipo
se le denomina intervalo de confianza con un nivel de confianza del 100(1 - a) %, o nivel de
significación de 100a%. El nivel de confianza habitual es el 95%, en cuyo caso a=0,05 y za /2=1,96.
Al valor se le denomina estimación puntual y se dice que es un estimador de m.
Ejemplo: Si de una población normal con varianza 4 se extrae una muestra aleatoria de tamaño 20
en la que se calcula se puede decir que m tiene una probabilidad de 0,95 de estar
comprendida en el intervalo

que sería el intervalo de confianza al 95% para m


En general esto es poco útil, en los casos en que no se conoce m tampoco suele conocerse s2; en el
caso más realista de s2 desconocida los intervalos de confianza se construyen con la t de
Student (otra fdp continua para la que hay tablas) en lugar de la z.

o, haciendo énfasis en que es el error estándar estimado de la media,

Esta manera de construir los intervalos de confianza sólo es válido si la variable es normal.
Cuando n es grande (>30) se puede sustituir t por z sin mucho error.

Distribución muestral de proporciones

Cuando en una población procedemos a estudiar una característica con sólo dos posibles valores
(éxito/fracaso), entonces la población sigue una distribución binomial.
Cada muestra de la población tiene un porcentaje de individuos que tiene esta característica. p es la
proporción de éxito de esta variable aleatoria de la población. La proporción de fracaso es q = 1 – p
Sean todas las muestras de tamaño n de la población. Cada muestra tiene una proporción de
individuos con esa característica.
La distribución asociada a la variable aleatoria que une cada muestra con su proporción se
llama distribución muestral de proporciones.
Como, para poblaciones grandes, la binomial se aproxima a la normal, la distribución muestral de
proporciones también sigue una distribución normal:
si n es suficientemente grande, n ≥ 30, and np ≥ 5, nq ≥ 5
Como generalmente las proporciones de la población son desconocidas, las aproximamos por las de
la muestra.
Ejemplo. Una máquina fabrica piezas de precisión. En su producción habitual fabrica un 3% de
piezas defectuosas. Un cliente recibe una caja de 500 piezas procedentes de la fábrica.
a) ¿Cuál es la probabilidad de que encuentre más del 5% de piezas defectuosas en la caja?
b) ¿Cuál es la probabilidad de que encuentre menos de un 1% de piezas defectuosas?

 Estimación
La estimación es la determinación de un elemento o factor. Esto, usualmente tomando como
referencia una base o conjunto de datos.
En otras palabras, la estimación es un cálculo que se realiza a partir de la evaluación estadística.
Dicho estudio suele efectuarse sobre una muestra y no sobre toda la población objetivo.
Para llevar a cabo una estimación, entonces, es necesario primero contar con una serie de datos.
Además, es común que los investigadores se sustenten en un marco teórico.
Por ejemplo, podemos estimar la inflación definiéndola como la diferencia entre los precios (de la
economía) del periodo A y los precios del periodo B. Entonces, se calcula una variación porcentual
entre los datos registrados en ambos puntos del tiempo.
Vale aclarar también que la estimación puede efectuarse sin rigurosidad matemática. Esto suele
suceder, por ejemplo, cuando se consulta a algunos expertos sobre cuánto va a crecer la economía
en el presente año. Entonces, sin haber trabajado un cálculo econométrico, el analista lanza una
cifra (o un rango), posiblemente con base en los indicadores que se vienen observando, como el
consumo de cemento.

Estimación puntual
Una estimación puntual de un parámetro poblacional es cuando se utiliza un único valor para
estimar ese parámetro, es decir, se usa un punto en concreto de la muestra para estimar el
valor deseado.
Cuando estimamos un parámetro de forma puntual, podemos saber con certeza, cual es ese valor.
Imaginemos una población de 30 personas de las que seleccionamos una muestra de 20 para las que
conocemos sus edades. Estimar de forma puntual la media de edad, sería tan sencillo como sumar
esos 20 datos y dividirlos entre el total de la muestra estadística.
Pensemos ahora en que queremos estimar la altura media de esa muestra. Al contrario que antes, no
tenemos el valor de la altura de cada persona. En este caso no podríamos realizar una estimación
puntual, es decir, no podríamos hallar un valor concreto de esa altura media. En este caso
tendríamos que realizar una estimación por intervalos, es decir, podríamos acotar el valor más alto y
más bajo de las alturas de las personas con cierta seguridad o lo que en estadística se conoce como
cierto nivel de confianza.
Propiedades deseables de un estimador

Las propiedades deseables de un estimador son las siguientes:


Insesgadez: Un estimador es insesgado cuando la esperanza matemática del este es igual al
parámetro que se desea estimar. Por tanto, la diferencia entre el parámetro a estimar y la esperanza
de nuestro estimador tendría que ser 0.
Eficiente: Un estimador es más eficiente o tiene la capacidad de estimar de forma precisa cuando su
varianza es reducida. Por lo tanto, ante 2 estimadores, siempre elegiremos el que tenga una varianza
menor.
Consistencia: Un estimador consistente es aquel que a medida que la medida que la muestra crece
se aproxima cada vez más al valor real del parámetro. Por lo tanto, cuantos más y valores entran en
la muestra, el parámetro estimado será más preciso
Ejemplos de estimaciones puntuales
Para obtener una estimación puntual se usa un estadístico que recibe el nombre de estimador o
función de decisión. Algunos ejemplos de estadísticos son:
La media muestral que sirve como estimación puntual de la media poblacional.

La desviación típica muestral que sirve de estimación para la desviación típica de la población.

Estimación por intervalo

La estimación por intervalos permite conocer el rango de valores en que podemos confiar que está
el verdadero valor poblacional; por lo tanto, permite dimensionar la imprecisión de la estimación
puntual y este es su principal propósito. Se puede decir que la estimación puntual constituye el
centro de la estimación, que el intervalo dimensiona los radios de ella y que su ancho es una medida
de la imprecisión envuelta.

La estimación por intervalo se hace para un determinado grado de confianza. Este indica la
probabilidad que el intervalo contenga en su interior al parámetro en cuestión. Para la mayoría de
las estimaciones por intervalos – como es el caso de medias, desviaciones estándar, proporciones
como riesgo relativo o razón de ventajas (odds ratio), coeficientes de regresión – se puede asumir
que la distribución de los valores de interés sigue una distribución Normal y lo mismo vale para las
diferencias entre ellos. El cálculo del grado de confianza sigue el raciocinio presentado sobre el área
bajo una curva Normal en un artículo anterior; por el mismo motivo, existe una relación cercana
entre los intervalos de confianza y las pruebas de hipótesis de dos colas como veremos luego.
Intervalo de confianza para una media (6.2.3)

¿Qué es el intervalo de confianza para la media?

El intervalo de confianza para la media es un intervalo que proporciona un rango de valores


admisibles para la media de una población. Es decir, el intervalo de confianza para la media nos da
un valor máximo y un valor mínimo entre los cuales se encuentra el valor de la media de una
población con un margen de error.

Por ejemplo, si el intervalo de confianza del 95% para la media de una población es (6,10), significa
que el 95% de veces la media poblacional estará entre 6 y 10.

Por lo tanto, el intervalo de confianza para la media se usa para estimar dos valores entre los cuales
se encuentra la media de una población. Así pues, el intervalo de confianza para la media resulta
muy útil para aproximar el promedio de una población cuando se desconocen todos sus valores.

¿Formula del intervalo de confianza para la media?

Partiendo de que el proceso de tipificación de una variable se hace de la siguiente manera:

El intervalo de confianza para la media se calcula sumando y restando a la media muestral el valor
de Zα/2 multiplicado por la desviación típica (σ) y dividido por la raíz cuadrada del tamaño de la
muestra (n). Por lo tanto, la fórmula para calcular el intervalo de confianza para la media es la
siguiente:

Para tamaños muestrales grandes y un nivel de confianza del 95% el valor crítico es Z α/2=1,96 y
para un nivel de confianza del 99% el valor crítico es Zα/2=2,576.

La fórmula anterior se utiliza cuando la varianza de la población es conocida. No obstante, si la


varianza de la población es desconocida, que es el caso más frecuente, el intervalo de confianza
para la media se calcula con la siguiente fórmula:
Donde:
 es la media de la muestra.
 es el valor de la distribución t de Student de n-1 grados de libertad con una
probabilidad de α/2.
 es la desviación típica de la muestra.
 es el tamaño de la muestra.

Ejemplo del cálculo de un intervalo de confianza para la media.

Para que puedas ver cómo se calcula el intervalo de confianza para la media de una población, a
continuación, te dejamos con un ejemplo resuelto paso a paso.

 Tenemos una muestra de 8 observaciones con los valores mostrados a continuación.


¿Cuál es el intervalo de confianza para la media de la población con un nivel de
confianza del 95%?

Tal y como hemos visto en el apartado anterior, la fórmula que nos permite sacar el intervalo de
confianza para una media poblacional cuando no conocemos la desviación típica de la población es

la siguiente:

Entonces, para poder determinar el intervalo de confianza de la media, primero tenemos que
calcular la media y la desviación típica de la muestra.
Como queremos hallar el intervalo de confianza con un nivel de confianza de 1-α=95% y el tamaño
muestral es 8, tenemos que ir a la tabla de la distribución t de Student y ver qué valor corresponde a
t0,025|7.

De modo que aplicamos la fórmula del intervalo de confianza para la media y hacemos los cálculos
para encontrar los valores límites del intervalo:

En conclusión, el intervalo de confianza calculado nos indica que con un nivel de confianza del
95% la media de la población estará entre 190,82 y 209,43.

Intervalo de confianza para una proporción (6.2.4)

¿Qué es el intervalo de confianza para la proporción?

El intervalo de confianza para la proporción es un intervalo que proporciona un rango de valores


admisibles para la proporción de una población. Es decir, el intervalo de confianza para la
proporción indica un valor máximo y un valor mínimo entre los cuáles se encuentra la proporción
poblacional con un margen de error.
Por ejemplo, si el intervalo de confianza para la proporción de una población con un nivel de
confianza del 95% es (0,73, 0,81), significa la proporción de una población está entre el 73% y el
81% con una probabilidad del 95%.

Por lo tanto, el intervalo de confianza para la proporción se usa para hacer una estimación del valor
de la proporción de una población que cumplen con unas características.

Tal y como veremos en el siguiente apartado, el intervalo de confianza para la proporción depende
de la proporción muestral y del número de observaciones de la muestra.

Formula del intervalo de confianza para la proporción

El intervalo de confianza para la proporción se calcula sumando y restando a la proporción de la


muestra el valor de Zα/2 multiplicado por la raíz cuadrada de la proporción muestral (p) multiplicado
por 1-p y divido por el tamaño de la muestra (n). Por lo tanto, la fórmula para calcular el
intervalo de confianza para la proporción es la siguiente:

Donde:
 es la proporción de la muestra.
 es el tamaño de la muestra.

 es el cuantil de la distribución normal estándar correspondiente a una


probabilidad de α/2. Para tamaños muestrales grandes y un nivel de confianza del
95% se suele aproximar a 1,96 y para una confianza del 99% se suele aproximar a
2,576.

Ejemplo del calculo de un intervalo de confianza para la proporción

Para que puedas ver cómo se calcula un intervalo de confianza para la proporción, a continuación,
te dejamos con un ejemplo resuelto paso a paso.

 Una compañía de seguros quiere hacer un estudio de mercado y determinar cuánta


gente de un país tiene un seguro de vida. Para ello, se analiza una muestra aleatoria
de 700 personas y se llega a la conclusión de que un 40% de la muestra dispone de
un seguro de vida. ¿Cuál es el intervalo de confianza a un nivel de confianza del
95% para la proporción de la población del país?
Para determinar el intervalo de confianza para la proporción poblacional tenemos
que utilizar la fórmula que hemos visto más arriba:

En este caso, queremos que el nivel de confianza del intervalo de confianza sea del 95%, por lo que
el valor de Zα/2 que debemos tomar es 1,96.

El enunciado del problema ya nos dice que el tamaño muestral es n=700 y la proporción observada
en la muestra es p=0,40, por lo que sustituimos los datos en la fórmula del intervalo de confianza
para la proporción y calculamos los límites del intervalo:

En conclusión, la proporción de la población estudiada se encuentra entre el 36% y el 44% con un


nivel de confianza del 95%.

Prueba de hipótesis (6.3)


Errores tipo 1 y 2(6.3.1)
La teoría de la prueba estadística se basa en la noción de un error estadístico, que es una parte
integral de la prueba de hipótesis. La prueba implica la elección entre dos proposiciones en
competencia: la hipótesis nula (H0) y la hipótesis alternativa (H1). La hipótesis nula se presume
verdadera hasta que los datos proporcionen evidencia en contra, similar a cómo un acusado se
presume inocente hasta que se pruebe su culpabilidad. La hipótesis alternativa es la posición contra
el acusado.
Si el resultado de la prueba coincide con la realidad, se ha tomado una decisión correcta. Sin
embargo, si no coincide, se ha cometido un error. Hay dos situaciones en las que la decisión puede
ser incorrecta: la hipótesis nula puede ser verdadera, pero se rechaza (H0), o la hipótesis alternativa
(H1) puede ser verdadera, pero no se rechaza H0. Estos se conocen como error de tipo I y error de
tipo II, respectivamente.

Error tipo I
El primer tipo de error es el rechazo erróneo de una hipótesis nula como resultado de un
procedimiento de prueba. Este tipo de error se denomina error de tipo I (falso positivo) y, a veces,
se denomina error de primer tipo.
En términos del ejemplo de la sala de audiencias, un error tipo I corresponde a condenar a un
acusado inocente.

Error tipo II
El segundo tipo de error es la aceptación errónea de la hipótesis nula como resultado de un
procedimiento de prueba. Este tipo de error se denomina error de tipo II (falso negativo) y también
se denomina error de segundo tipo.
En términos del ejemplo de la sala de audiencias, un error tipo II corresponde a absolver a un
criminal.

Tasa de error cruzado


La tasa de error cruzado (CER) es el punto en el que los errores de tipo I y los errores de tipo II son
iguales y representa la mejor forma de medir la eficacia de la biometría. Un sistema con un valor
CER más bajo proporciona más precisión que un sistema con un valor CER más alto.

Falso positivo y falso negativo


Ver más información en: Falso positivo y falso negativo
En cuanto a los falsos positivos y falsos negativos, un resultado positivo corresponde a rechazar la
hipótesis nula, mientras que un resultado negativo corresponde a no rechazar la hipótesis nula;
"falso" significa que la conclusión extraída es incorrecta. Así, un error de tipo I equivale a un falso
positivo y un error de tipo II equivale a un falso negativo.

Tabla de tipos de errores


Relaciones tabula rizadas entre verdad/falsedad de la hipótesis nula y resultados de la prueba:
Tasa de error

Una prueba perfecta tendría cero falsos positivos y cero falsos negativos. Sin embargo, los métodos
estadísticos son probabilísticos y no se puede saber con certeza si las conclusiones estadísticas son
correctas. Siempre que hay incertidumbre, existe la posibilidad de cometer un error. Teniendo en
cuenta esta naturaleza de la ciencia estadística, todas las pruebas de hipótesis estadísticas tienen una
probabilidad de cometer errores de tipo I y tipo II.

La tasa de error tipo I o nivel de significación es la probabilidad de rechazar la hipótesis nula dado
que es cierta. Se denota con la letra griega α (alfa) y también se le llama nivel alfa. Por lo general, el
nivel de significación se establece en 0,05 (5 %), lo que implica que es aceptable tener una
probabilidad del 5 % de rechazar incorrectamente la hipótesis nula verdadera.

La tasa del error de tipo II se denota con la letra griega β (beta) y se relaciona con la potencia de una
prueba, que es igual a 1−β.

Estos dos tipos de tasas de error se compensan entre sí: para cualquier conjunto de muestras dado, el
esfuerzo por reducir un tipo de error generalmente da como resultado un aumento del otro tipo de
error.

La calidad de la prueba de hipótesis.

La misma idea puede expresarse en términos de la tasa de resultados correctos y, por lo tanto,
usarse para minimizar las tasas de error y mejorar la calidad de la prueba de hipótesis. Para reducir
la probabilidad de cometer un error de Tipo I, hacer que el valor alfa (p) sea más estricto es bastante
simple y eficiente. Para disminuir la probabilidad de cometer un error de tipo II, que está
estrechamente relacionado con la potencia de los análisis, aumentar el tamaño de la muestra de la
prueba o relajar el nivel alfa podría aumentar la potencia de los análisis. Una estadística de prueba
es robusta si se controla la tasa de error de tipo I.

También se podría utilizar un valor de umbral (límite) diferente para hacer que la prueba sea más
específica o más sensible, lo que a su vez eleva la calidad de la prueba. Por ejemplo, imagine una
prueba médica, en la que el experimentador podría medir la concentración de cierta proteína en la
muestra de sangre. El experimentador podría ajustar el umbral (línea vertical negra en la figura) y se
diagnosticaría a las personas con enfermedades si se detecta un número por encima de este umbral
determinado. Según la imagen, cambiar el umbral daría como resultado cambios en falsos positivos
y falsos negativos, correspondientes al movimiento en la curva.

Ejemplo

Dado que en un experimento real es imposible evitar todos los errores de tipo I y tipo II, es
importante considerar la cantidad de riesgo que uno está dispuesto a correr para rechazar H 0 o
aceptar H 0 falsamente. La solución a esta pregunta sería reportar el valor p o nivel de significancia
α de la estadística. Por ejemplo, si el valor p del resultado de una estadística de prueba se estima en
0,0596, entonces hay una probabilidad del 5,96 % de que rechacemos falsamente H 0. O, si decimos
que la estadística se realiza en el nivel α, como 0.05, entonces permitimos rechazar falsamente H 0
al 5%. Un nivel de significación α de 0,05 es relativamente común, pero no existe una regla general
que se ajuste a todos los escenarios.

Medición de la velocidad del vehículo

El límite de velocidad de una autopista en los Estados Unidos es de 120 kilómetros por hora. Se
configura un dispositivo para medir la velocidad de los vehículos que pasan. Suponga que el
dispositivo realizará tres mediciones de la velocidad de un vehículo que pasa, registrando como una
muestra aleatoria X 1, X 2, X 3. La policía de tránsito multará o no a los conductores dependiendo
de la velocidad promedio {\bar {X}}. Es decir, el estadístico de prueba

Además, suponemos que las medidas X 1, X 2, X 3 se modelan como una distribución normal
N(μ,4). Entonces, T debería seguir a N(μ,4/3) y el parámetro μ representa la verdadera velocidad
del vehículo que pasa. En este experimento, la hipótesis nula H 0 y la hipótesis alternativa H 1
deben ser

H 0: μ=120 contra H 1: μ 1 >120.

Si realizamos el nivel estadístico en α=0.05, entonces se debe calcular un valor crítico c para
resolver
Según la regla del cambio de unidades para la distribución normal. Con referencia a la tabla Z,
podemos obtener

Aquí, la región crítica. Es decir, si la velocidad registrada de un vehículo es superior al valor crítico
121,9, el conductor será multado. Sin embargo, todavía hay un 5% de los conductores que son
multados falsamente ya que la velocidad media registrada es superior a 121,9 pero la velocidad real
no pasa de 120, lo que decimos, un error tipo I.

El error tipo II corresponde al caso de que la velocidad real de un vehículo supere los 120
kilómetros por hora y no se multe al conductor. Por ejemplo, si la velocidad real de un vehículo
μ=125, la probabilidad de que el conductor no sea multado se puede calcular como

lo que significa que, si la velocidad real de un vehículo es 125, la conducción tiene una probabilidad
del 0,36 % de evitar la multa cuando la estadística se realiza en el nivel 125, ya que la velocidad
media registrada es inferior a 121,9. Si la velocidad real está más cerca de 121,9 que de 125,
entonces la probabilidad de evitar la multa también será mayor.

También se deben considerar las compensaciones entre el error de tipo I y el error de tipo II. Es
decir, en este caso, si la policía de tránsito no quiere multar falsamente a conductores inocentes, el
nivel α se puede establecer en un valor menor, como 0.01. Sin embargo, si ese es el caso, más
conductores cuya velocidad real es superior a 120 kilómetros por hora, como 125, tendrían más
probabilidades de evitar la multa.

Pasos para realizar una prueba de hipótesis (6.3.2)


¿Qué es una prueba de hipótesis?

En estadística, una prueba de hipótesis es un método que se usa para rechazar o aceptar una
hipótesis. Es decir, una prueba de hipótesis sirve para determinar si se rechaza o se acepta una
hipótesis que se tiene acerca del valor de un parámetro estadístico de una población.

En una prueba de hipótesis se analiza una muestra de datos y, a partir de los resultados obtenidos, se
decide rechazar o aceptar una hipótesis de un parámetro poblacional que se había establecido
previamente.
Una de las características de las pruebas de hipótesis es que nunca se puede saber con total certeza
si la decisión de rechazar o aceptar una hipótesis es la correcta. Así pues, en las pruebas de hipótesis
se rechaza o no una hipótesis según qué es más probable que sea verdad, pero, aunque existe
evidencia estadística para rechazar o aceptar la hipótesis, siempre se puede estar cometiendo un
error. Más abajo entraremos en detalle en los errores que se pueden hacer al realizar una prueba de
hipótesis.

Hipótesis nula e hipótesis alternativa

Una prueba de hipótesis siempre tiene una hipótesis nula y una hipótesis alternativa, que se definen
de la siguiente manera:

 Hipótesis nula (H0): es la hipótesis que sostiene que la suposición inicial que se
tiene respecto a un parámetro poblacional es falsa. Por lo tanto, la hipótesis nula es
aquella hipótesis que se pretende rechazar.

 Hipótesis alternativa (H1): es la hipótesis de la investigación que se pretende


probar que es cierta. Es decir, la hipótesis alternativa es una suposición previa que
tiene el investigador y para intentar demostrar que es verdadera llevará a cabo la
prueba de hipótesis.

Tipos de pruebas de hipótesis

Las pruebas de hipótesis se pueden clasificar en dos tipos:

 Prueba de hipótesis bilateral (o prueba de hipótesis de dos colas): la hipótesis


alternativa de la prueba de hipótesis afirma que el parámetro poblacional es
«diferente a» un valor concreto.

 Prueba de hipótesis unilateral (o prueba de hipótesis de una cola): la hipótesis


alternativa de la prueba de hipótesis afirma que el parámetro poblacional es «mayor
que» (cola derecha) o «menor que» (cola izquierda) un valor concreto.

Región de rechazo y región de aceptación de una prueba de hipótesis


Como veremos detalladamente más abajo, la prueba de hipótesis consiste en calcular un valor
característico de cada tipo de prueba de hipótesis, dicho valor se llama estadístico de la prueba de
hipótesis. Así pues, una vez se ha calculado el estadístico de la prueba, se debe observar en cuál de
las siguientes dos regiones cae para llegar a una conclusión:

 Región de rechazo (o región crítica): es la zona de la gráfica de la distribución de


referencia de la prueba de hipótesis que implica rechazar la hipótesis nula (y
aceptar la hipótesis alternativa).

 Región de aceptación: es la zona de la gráfica de la distribución de referencia de la


prueba de hipótesis que implica aceptar la hipótesis nula (y rechazar la hipótesis
alternativa).

En definitiva, si el estadístico de la prueba cae en la región de rechazo, se rechaza la hipótesis nula


y se acepta la hipótesis alternativa. Por el contrario, si el estadístico de la prueba cae en la región de
aceptación, se acepta la hipótesis nula y se rechaza la hipótesis alternativa.

¿Como hacer una prueba de hipótesis?

Para hacer una prueba de hipótesis se deben seguir los siguientes pasos:

1. Plantear la hipótesis nula y la hipótesis alternativa de la prueba de hipótesis.

2. Establecer el nivel de significación alfa (α) deseado.

3. Calcular el estadístico de la prueba de hipótesis.

4. Determinar los valores críticos de la prueba de hipótesis para averiguar la región de


rechazo y la región de aceptación de la prueba de hipótesis.

5. Observar si el estadístico de la prueba de hipótesis cae en la región de rechazo o en


la región de aceptación.

6. Si el estadístico cae en la región de rechazo, se rechaza la hipótesis nula (y se


acepta la hipótesis alternativa). Pero si el estadístico cae en la región de aceptación,
se acepta la hipótesis nula (y se rechaza la hipótesis alternativa).

Errores de la prueba de hipótesis

En una prueba de hipótesis, al rechazar una hipótesis y aceptar la otra hipótesis de la prueba, se
puede cometer uno de los siguientes dos errores:

 Error tipo I: es el error cometido al rechazar la hipótesis nula cuando en realidad


es verdadera.
 Error tipo II: es el error cometido al aceptar la hipótesis nula cuando en realidad
es falsa.

Por otro lado, la probabilidad de cometer cada tipo de error se llama de la siguiente manera:

 Probabilidad alfa (α): es la probabilidad de cometer el error de tipo I.

 Probabilidad beta (β): es la probabilidad de cometer el error de tipo II.

Asimismo, la potencia de la prueba de hipótesis se define como la probabilidad de rechazar la


hipótesis nula (H0) cuando esta es falsa, o dicho de otra forma, es la probabilidad de escoger la
hipótesis alternativa (H1) cuando esta es cierta. Por lo tanto, la potencia de la prueba de hipótesis es
igual a 1-β.

Prueba de hipótesis para una media (6.3.3)

¿Qué es la prueba de hipótesis para la media?

La prueba de hipótesis para la media es un método estadístico que se usa para rechazar o no la
hipótesis nula de una media poblacional.

En concreto, la prueba de hipótesis para la media consiste en calcular el estadístico de la prueba y


compararlo con el valor crítico para rechazar o no rechazar la hipótesis nula.

Cabe destacar que las pruebas de hipótesis se llaman de maneras diferentes, en estadística también
se conocen como contrastes de hipótesis, test de hipótesis o pruebas de significación.

Formula de la prueba para la hipótesis para la media.

A continuación, vamos a ver cómo se calcula el estadístico de la prueba de hipótesis para la media.
No obstante, la fórmula varia ligeramente según si se conoce la varianza o no, por lo que primero
veremos cómo se hace cuando la varianza es conocida y luego cuando la varianza es desconocida.

Con varianza conocida.

La fórmula de la prueba de hipótesis para la media con varianza conocida es la siguiente:


Donde:
 es el estadístico de la prueba de hipótesis para la media.
 es la media muestral.
 es el valor de la media propuesto.
 es la desviación estándar de la población.
 es el tamaño de la muestra.
Una vez se ha calculado el estadístico de la prueba de hipótesis para la media, se debe interpretar el
resultado para rechazar o no la hipótesis nula:

 Si la prueba de hipótesis para la media es de dos colas, se rechaza la hipótesis nula


si el valor absoluto del estadístico es mayor que el valor crítico Z α/2.

 Si la prueba de hipótesis para la media corresponde a la cola derecha, se rechaza la


hipótesis nula si el estadístico es mayor que el valor crítico Z α.

 Si la prueba de hipótesis para la media corresponde a la cola izquierda, se rechaza


la hipótesis nula si el estadístico es menor que el valor crítico -Z α.

Con varianza desconocida.

La fórmula de la prueba de hipótesis para la media con varianza desconocida es la siguiente:


Donde:
 es el estadístico de la prueba de hipótesis para la media, el cual está definido por
una distribución t Student.
 es la media de la muestra.
 es el valor de la media propuesto.
 es la desviación estándar de la muestra.
 es el tamaño de la muestra.
Igual que antes, se debe interpretar el resultado calculado del estadístico de la prueba con el valor
crítico para rechazar o no la hipótesis nula:

 Si la prueba de hipótesis para la media es de dos colas, se rechaza la hipótesis nula


si el valor absoluto del estadístico es mayor que el valor crítico t α/2|n-1.

 Si la prueba de hipótesis para la media corresponde a la cola derecha, se rechaza la


hipótesis nula si el estadístico es mayor que el valor crítico t α|n-1.

 Si la prueba de hipótesis para la media corresponde a la cola izquierda, se rechaza


la hipótesis nula si el estadístico es menor que el valor crítico -t α|n-1.

Cuando la varianza es desconocida, los valores críticos de la prueba se obtienen de la tabla de la


distribución t Student.

Ejemplo resuelto de la prueba de hipótesis para la media.


Para acabar de entender el concepto de la prueba de hipótesis para la media poblacional, a
continuación puedes ver un ejemplo resuelto de este tipo de pruebas de hipótesis.

 Una empresa tecnológica afirma que la batería del ordenador portátil que vende
tiene una duración de 6 horas. Se procede a comprobar si es falsa esta hipótesis
realizando una prueba de hipótesis con un nivel de significación α=0,05. Para ello,
se decide comprar 20 unidades y observar cuánto dura la batería de cada ordenador
(los valores están expresados en horas):

En este caso, la hipótesis nula y alternativa de la prueba de hipótesis para la media son las
siguientes:

Para poder determinar el estadístico de la prueba, primero tenemos que calcular la media de la
muestra y la desviación típica de la muestra:

Como no conocemos la varianza de la población, para sacar el estadístico de la prueba tenemos que
aplicar la fórmula de la prueba de hipótesis para la media con la varianza desconocida:
Ahora tenemos que encontrar el valor crítico de la prueba de hipótesis, así que buscamos en la tabla
de la distribución t Student el valor correspondiente. Los grados de libertad de la t de Student son
uno menos que el tamaño muestral (20-1=19) y, por otro lado, la probabilidad correspondiente es la
mitad del nivel de significación (0,05/2=0,025) ya que es una prueba de hipótesis bilateral.

En conclusión, como es una prueba de hipótesis bilateral y el valor absoluto del estadístico de la
prueba es menor que el valor crítico, no se rechaza la hipótesis nula, sino que se rechaza la hipótesis
alternativa.

Prueba de hipótesis para la diferencia de medias


La prueba de hipótesis para la diferencia de medias se usa para rechazar o aceptar la hipótesis
nula de que las medias de dos poblaciones son iguales.

De modo que la hipótesis nula de una prueba de hipótesis para la diferencia de dos medias siempre
es la siguiente:

Mientras que la hipótesis alternativa puede ser cualquiera de las siguientes tres:

Entonces, la fórmula para calcular el estadístico de la prueba de hipótesis para la diferencia de


medias cuando la varianza es conocida es la siguiente:

Donde:
 es el estadístico de la prueba de hipótesis para la diferencia de dos medias con
varianza conocida, que sigue una distribución normal estándar.
 es la media de la muestra 1.
 es la media de la muestra 2.
 es la varianza de la población 1.
 es la varianza de la población 2.
 es el tamaño de la muestra 1.
 es el tamaño de la muestra 2.

Por otro lado, la fórmula para calcular el estadístico de la prueba de hipótesis para la
diferencia de medias cuando la varianza es desconocida es la siguiente:

Donde:
 es el estadístico de la prueba de hipótesis para la diferencia de dos medias con
varianza desconocida, que sigue una distribución t Student.
 es la media de la muestra 1.
 es la media de la muestra 2.
 es la varianza de la muestra 1.
 es la varianza de la muestra 2.
 es el tamaño de la muestra 1.
 es el tamaño de la muestra 2.

Prueba de una hipótesis para una proporción (6.4.3)

¿Qué es una prueba de hipótesis para lo proporción?

La prueba de hipótesis para la proporción es un método estadístico que sirve para determinar si
se rechaza o no la hipótesis nula de una proporción poblacional.

Así pues, según el valor del estadístico de la prueba de hipótesis para la proporción y el nivel de
significación, se rechaza la hipótesis nula o se acepta.

Ten en cuenta que las pruebas de hipótesis también se pueden llamar contrastes de hipótesis, test de
hipótesis o pruebas de significación.

Formula de la prueba de hipótesis para la proporción

El estadístico de la prueba de hipótesis para la proporción es igual a la diferencia de la proporción


muestral menos el valor de la proporción propuesto partido por la desviación estándar de la
proporción.

De modo que la fórmula de la prueba de hipótesis para la proporción es la siguiente:


Donde:
 es el estadístico de la prueba de hipótesis para la proporción.
 es la proporción muestral.
 es el valor de la proporción propuesto.
 es el tamaño muestral.
 es la desviación estándar de la proporción.

Ten presente que no basta con calcular el estadístico de la prueba de


hipótesis para la proporción, sino que luego se debe interpretar el resultado:

 Si la prueba de hipótesis para la proporción es de dos colas, se rechaza la hipótesis


nula si el valor absoluto del estadístico es mayor que el valor crítico Z α/2.

 Si la prueba de hipótesis para la proporción corresponde a la cola derecha, se


rechaza la hipótesis nula si el estadístico es mayor que el valor crítico Z α.

 Si la prueba de hipótesis para la proporción corresponde a la cola izquierda, se


rechaza la hipótesis nula si el estadístico es menor que el valor crítico -Z α.

Recuerda que los valores críticos se pueden obtener fácilmente de la tabla de la distribución normal.

Ejemplo de la prueba de hipótesis para la proporción


Una vez hemos visto la definición de la prueba de hipótesis para la proporción y cuál es su fórmula,
vamos a resolver un ejemplo para entender mejor el concepto.

 Según su fabricante, un medicamento para una enfermedad concreta tiene una


efectividad del 70%. En un laboratorio se está probando la efectividad de ese
medicamento ya que los investigadores creen que la la proporción es diferente, para
ello, se prueba el medicamento en una muestra de 1000 personas enfermas y se
curan 641 personas. Realiza una prueba de hipótesis para la proporción poblacional
con un nivel de significación del 5% para rechazar o no la suposición que tienen los
investigadores.
En este caso, la hipótesis nula y la hipótesis alternativa de la prueba de hipótesis para la proporción
de la población son las siguientes:

La proporción de personas de la muestra que se han curado con el medicamento es:

Calculamos el estadístico del contaste de hipótesis para la proporción aplicando la fórmula vista
más arriba:
Por otro lado, como el nivel de significación es 0,05 y es una prueba de hipótesis de dos colas, el
valor crítico de la prueba es 1,96.

En conclusión, el valor absoluto del estadístico de la prueba es mayor que el valor crítico, por lo
tanto, rechazamos la hipótesis nula y aceptamos la hipótesis alternativa.

Pruebas de hipótesis para las proporciones de dos muestras.

La prueba de hipótesis para las proporciones de dos muestras se usa para rechazar o aceptar la
hipótesis nula de que las proporciones de dos poblaciones diferentes son iguales.

Así pues, la hipótesis nula de una prueba de hipótesis para las proporciones de dos muestras
siempre es la siguiente:

Mientras que la hipótesis alternativa puede ser cualquiera de las siguientes tres opciones:
La proporción combinada de las dos muestras se calcula de la siguiente manera:

Y la fórmula para calcular el estadístico de la prueba de hipótesis para las proporciones de dos
muestras es la siguiente:

Donde:
 es el estadístico de la prueba de hipótesis para las proporciones de dos muestras.
 es el número de aciertos de la muestra 1.
 es el número de aciertos de la muestra 2.
 es el tamaño de la muestra 1.
 es el tamaño de la muestra 2.
 es la proporción combinada de las dos muestras.

Prueba de hipótesis para las proporciones de K muestras.

En una prueba de hipótesis para las proporciones de k muestras se pretende determinar si todas
las proporciones de las diferentes poblaciones son iguales o, por el contrario, hay alguna proporción
diferente. Por lo tanto, la hipótesis nula y la hipótesis alternativa en este caso son:
En este caso, la proporción combinada de todas las muestras se calcula de la siguiente manera:

La fórmula para hallar el estadístico de la prueba de hipótesis para las proporciones de k muestras
es la siguiente:

Donde:
 es el estadístico de la prueba de hipótesis para las proporciones de k muestras.
En este caso el estadístico sigue una distribución chi-cuadrado.
 es el número de aciertos de la muestra i.
 es el tamaño de la muestra i.
 es la proporción combinada de todas las muestras.
 es el número de aciertos esperados de la muestra i. Se calcula multiplicando la
proporción combinada por el tamaño de la muestra .
El coeficiente de
determinación es la
principal forma en que
podemos medir el
grado, o fuerza, de la
asociación que existe entre
dos variables, X y Y. Debido
a que
usamos una muestra de puntos
para desarrollar rectas de
regresión, nos referimos
a esta medida como el
coeficiente de determinación
muestral.
El coeficiente de
determinación muestral se
deriva de la relación entre dos
tipos de
variación: la variación de los
valores Y en un conjunto de
datos al

También podría gustarte