Está en la página 1de 35

FINAL

Tomo I
Capítulo 1: Introducción
Estadística: ciencia o disciplina científica que crea, desarrolla y aplica métodos para
ordenar, juntar y analizar datos para transformarlos en información útil para la toma de
decisiones y una visión más objetiva.

OM
Experimento: observación planeada de un fenómeno de cualquier tipo con el objetivo de
conocer su comportamiento, poder describirlo y/o tomar una decisión. Se controlan uno o
más de los factores que influyen en una característica específica.
Unidad experimental: cada uno de los entes que son observados en el experimento.

.C
Medición: asignación de valores a cada una de las características que poseen las unidades
experimentales.
Escala de medición: regla preestablecida que consiste en un conjunto de valores que se
DD
asignarán a una característica específica que poseen las unidades experimentales.
- Nominal: se usa únicamente para clasificar a los entes en distintas categorías. Se
usan datos cualitativos.
- Ordinal: clasifica en distintas categorías, y se los clasifica de acuerdo con su rango.
LA

Se usan datos cualitativos.


- De intervalo o distancia: se establece una distancia entre dos cualquiera de ellos.
Se usan datos cuantitativos.
- De razón o de proporción: se usa para poder establecer una proporcionalidad entre
dos cualquiera de ellos. Usa datos cuantitativos.
FI

Dato estadístico: valor asignado a una de las características de una unidad experimental,
conforme a la escala de medición que utiliza.
- Cualitativos: valores correspondientes a los atributos o propiedades categóricas que


sólo se pueden usar para identificar y describir una unidad experimental.


- Cuantitativos: además de identificar y describir una unidad experimental,
establecen las diferencias posibles entre los valores en cantidad y grado.
Información: es el resultado de datos estadísticos (su evaluación) cuando se los compara
con una adecuada referencia.
Universo: conjunto de unidades experimentales que poseen características comunes
observables para tener información sobre un hecho. Pueden ser finitos o infinitos.
Variable: cualquier característica observable que tienen las unidades experimentales.

Este archivo fue descargado de https://filadd.com


- Cualitativa: cuando los valores que puede asumir no constituyen un espacio
métrico.
- Cuantitativa: cuando los valores que puede asumir si constituyen un espacio
métrico.
o Continuas: todos los números reales.
o Discretas: solo enteros.
Población: cada una de las variables particulares que se estudian en un universo.

OM
Muestra: subconjunto de una población sobre la base de la cual se puede hacer un juicio
sobre ésta.

Capítulo 2: Cuadros y Gráficos


Tipos de gráfico:

.C
- Estadístico lineal: se utiliza para representar valores de dos variables cuantitativas
presentadas conjuntamente, o mostrar la evolución de una variable cuantitativa. Se
utiliza un sistema de coordenadas cartesianas. El diagrama está formado por líneas
rectas que unen los puntos del plano.
DD
- Estadístico de barras: se usa cuando una de las variables es cualitativa. Consiste en
rectángulos dibujados en un sistema de coordenadas cartesianas. Cada rectángulo
tiene el nombre de barra.
- Gráficos circulares (torta): se usa para comparar partes de un total y su evolución
LA

con el tiempo. Es un círculo dividido en tantos sectores circulares. Para calcular el


tamaño de cada sector circular se usa:
FI


• Ojiva

Este archivo fue descargado de https://filadd.com


• Histograma
• Escalera o escalonado
• De bastones

Capítulo 3: Análisis Descriptivo


Datos no agrupados: conjunto de datos dispuestos tal como se presentan. Si se cuenta con
una gran cantidad, se los ordena y se los agrupa en clases de equivalencia para que puedan
ser estudiados, logrando que se manifieste la regularidad estadística.

OM
Frecuencia absoluta: es la cantidad de datos, o valores observados de una variable, que
pertenecen a una misma clase de equivalencia.
Frecuencia relativa: es el cociente entre la frecuencia absoluta y la cantidad total de
observaciones.

.C
Distribución de frecuencias: es una relación de clasificación de datos que asigna a cada
valor, o grupo de valores que formen una misma clase de equivalencia, de una o más
variables, su correspondiente frecuencia. Se usa para tener los datos estadísticos
DD
organizados, clasificados y distribuidos en distintas clases.
Amplitud total del recorrido: diferencia entre el valor máximo y el valor mínimo.
Intervalos de clase: la amplitud total se divide en clases de equivalencia que deben ser
intervalos.
LA

Amplitud de los intervalos de clase: cociente entre la amplitud total y la cantidad de


intervalos necesarios para la clasificación de observaciones.
Rango percentilar: es la frecuencia relativa porcentual que se acumula desde el mínimo
valor del recorrido hasta un valor dado de la variable.
FI

- Con variable discreta: el rango percentilar para un valor dado queda determinado
directamente por la frecuencia relativa acumulada hasta dicho valor.
- Con variable continua: por un lado, cuando el valor dado coincide con el límite


superior de un intervalo, el rango percentilar queda determinado por la frecuencia


relativa acumulada hasta dicho valor. Por otro lado, el valor dado no coincide con el
límite superior de un intervalo, usar la fórmula de rango percentilar.
Percentil: aquel valor hasta donde se acumula, a lo sumo, el k % de los datos, y desde se
acumula a lo sumo el (100 – k) %.
Orden absoluto del percentil (OAP): Es la frecuencia absoluta acumulada correspondiente
al valor k, y se obtiene calculando el k% del total de observaciones.
- Variables discretas: el OAP se determina utilizando la distribución de frecuencias
acumuladas.

Este archivo fue descargado de https://filadd.com


- Variables continuas: determina el OAP y después se utiliza la fórmula de percentil.
Deciles: la décima parte (10%) de los datos.
Quintiles: la quinta parte (20%) de los datos.
Cuartiles: la cuarta parte (25%) de los datos.
Modo: es el valor de la variable que se presenta con mayor frecuencia.
- Unimodales: son las distribuciones con un solo modo

OM
- Polimodales: si tienen más de un modo
Mediana: el valor que supera y es superado por, a lo sumo, igual cantidad de observaciones.
La ubicación de la mediana dentro del recorrido de la variable se llama orden mediano.
- Para determinar la mediana de una variable cuando los datos están agrupados en

.C
una distribución de frecuencias, se utiliza el orden absoluto de la mediana (OAM).
- Orden relativo de la mediana (ORM): es un valor de frecuencia relativa acumulada.
Características de la mediana:
DD
- El valor de la mediana es igual al Percentil 50.
- El valor de la mediana no se ve afectada por la presencia de valores extremos de la
variable.
- La suma del módulo de las desviaciones con respecto a la mediana es mínima.
LA

Promedios simples: ciertos valores que se obtienen mediante la aplicación de operadores


matemáticos, a la totalidad de los valores observados de dicha variable, bajo el supuesto de
que todas las unidades experimentales medidas tienen la misma importancia relativa.
Promedio o media aritmética: es el número que resulta de sumar todos los valores
FI

observados de la variable y dividir esta suma por la cantidad de unidades experimentales


que se tienen.
Desviación: diferencia entre un valor individual a la variable y su media aritmética.


Ponderación: es la cantidad que permite asignar a cada unidad experimental que


proporciona un valor de la variable en estudio, una determinada importancia o peso
relativo. Pueden ser:
- Objetivas: cuando hay otra variable asociada cuyos valores pueden ser usados como
ponderaciones.
- Subjetivas: sobre la base de su saber y entender, asigna una cantidad la ponderación
que considera adecuada.
Varianza: es una medida de variabilidad que mide el promedio aritmético del cuadrado de
los desvíos que se producen entre cada valor de la variable y la media aritmética. Mientras

Este archivo fue descargado de https://filadd.com


mayor sea el valor numérico de la varianza, menor es la representatividad de la media
aritmética. Propiedades:
- Es necesariamente un número real no negativo
- La varianza de una constante es nula
- La varianza de la suma de una variable más (o menos) una constante, es igual al valor
de la varianza de la variable.
Desvío estándar: es la raíz cuadrada positiva de la varianza.

OM
Coeficiente de variación: es el cociente entre el desvío estándar y la media aritmética de
dicha variable.
- Si CV < 0,10: la variable es representativa, los datos son homogéneos y poco
dispersos.
- Si CV > 0,10: la variable no es representativa, los datos no son homogéneos y están

.C
dispersos.
Curtosis o apuntamiento: una determinada relación entre la amplitud total y la máxima
frecuencia, que presenta una distribución de frecuencia.
DD
Coeficiente de asimetría: es el cociente entre el momento centrado de orden 3 y la potencia
tercera del desvío estándar.
- Si AS(X) = 0: la distribución es simétrica.
- Si AS(X) > 0: es asimetría positiva. La distribución es asimétrica a la derecha.
LA

- Si AS(X) < 0: es asimetría negativa. La distribución es asimétrica a la izquierda.


Coeficiente de curtosis: es el valor que surge de restarle 3 al cociente entre el momento
centrado de orden 4 y la potencia cuarta del desvío estándar.
FI

- Si K(X) = 0: distribución mesocúrtica.


- Si K(X) > 0: distribución leptocúrtica.
- Si K(X) < 0: distribución platicúrtica.

Capítulo 4: Probabilidad


Modelo determinístico: modelo matemático que describe el comportamiento de las


variables cuyos valores quedan inequívocamente determinamos a partir de las condiciones
en que se llevará a cabo el experimento que las origina.
Modelo estadístico: modelo matemático que describe el comportamiento de las variables
cuyos valores no quedan inequívocamente determinados a partir de las condiciones en que
se llevará a cabo el experimento que las origina.

Este archivo fue descargado de https://filadd.com


Experimento aleatorio: fenómeno empírico que admite dos o más resultados posibles y no
se tienen elementos de juicio suficientes como para poder predecir con exactitud cuál o
cuáles de ellos ocurrirán.
Espacio muestral: conjunto de todos los resultados posibles que puede presentar dicho
experimento.
Suceso aleatorio: cualquier subconjunto del espacio muestral correspondiente a un
experimento aleatorio.

OM
Suceso complementario (S): aquel suceso que ocurre si no se presenta el suceso S.
Suceso conjunto: suceso que ocurre si se presentan conjuntamente dos o más de los
sucesos que forman el espacio muestral.
Suceso de unión incluyente: aquel suceso que ocurre si sólo ocurre alguno de los sucesos
que forman el espacio muestral.

.C
Suceso de unión excluyente: suceso que ocurre si sólo ocurre sólo uno de los sucesos que
forman el espacio muestral.
DD
Sucesos compatibles: lo son si y sólo si es posible que se presenten en forma conjunta.
Sucesos incompatibles: la presentación de uno de ellos impide la presentación del o de los
otros.
Axiomas: el número real que se utilizará para medir la tendencia a presentarse que tienen
LA

los sucesos aleatorios deben cumplir con:


- Primer axioma: la probabilidad de ocurrencia de un suceso aleatorio es un número
real no negativo.
- Segundo axioma: si S es el espacio muestral a la probabilidad de ocurrencia del
FI

suceso se le asigna 1.
- Tercer axioma: sean S1 y S2 dos sucesos mutualmente excluyentes a un mismo
espacio muestral, la probabilidad de que se presente alguno de los dos es igual a la
probabilidad de que presente el suceso S1, más la probabilidad de que se presente


el suceso S2.
- Cuarto axioma: sean S1…Sk K sucesos mutuamente excluyentes de a pares,
pertenecientes a un mismo espacio muestral, la probabilidad de que se presente
alguno de ellos es igual a P(S1) + P(S2) + …… P(SK).
Teoremas:
1) Si S es el conjunto vacío, la probabilidad de ocurrencia es 0.
2) La probabilidad de S más la probabilidad de su complemento es igual a 1.
3) Si S1 y S2 son sucesos de un mismo espacio muestral, la probabilidad de que se
presente alguno de los dos, es igual a P(S1) + P(S2) – P(S1S2).

Este archivo fue descargado de https://filadd.com


4) Si S1 y S2 son sucesos de un mismo espacio muestral, la probabilidad de que se
presente solo uno de los dos es igual a P(S1) + P(S2) – 2.P(S1S2)
5) La probabilidad de ocurrencia de un suceso es un número real entre 0 y 1.
Probabilidad marginal: probabilidad de que se presente un suceso aleatorio incluido en el
espacio muestral asociado a un experimento aleatorio.
Probabilidad conjunta: la probabilidad de que se presenten en el mismo experimento
aleatorio dos (o más) sucesos aleatorios incluidos en el espacio muestral y asociado a dicho

OM
experimento.
Probabilidad condicional: la probabilidad de que se presente el suceso 1 con la condición
de que previamente se presente el suceso 2. →P(S1/S2)
Regla del producto: se usa para calcular la probabilidad conjunta a partir de la probabilidad
condicional. La probabilidad conjunta se saca multiplicando la probabilidad marginal de uno

.C
de ellos y la probabilidad condicional del otro.
Regla de la suma: se calcula la probabilidad de S1 o S2 sumándolos.
DD
Sistema exhaustivo: la suma de las probabilidades marginales correspondientes es igual a
1.
Probabilidad total: P(B) = sumatoria de P(Si) . P(B/Si)
Teorema de Bayes: es la probabilidad de las causas. Solo uno de los sucesos debe ocurrir.
LA

Analiza la probabilidad de que la causa de la presentación del suceso sea uno particular.
Sucesos probabilísticamente independientes: la presentación de uno de ellos no modifica
el valor de probabilidad de presentación del otro o de los otros sucesos.
Si P(S1/S2) = P(S1) y P(S2/S1) = P(S2); lo son.
FI

Probabilidad clásica: cociente entre los casos favorables al suceso aleatorio y los casos
posibles del experimento aleatorio.
Probabilidad frecuencial: frecuencia relativa estabilizada correspondiente a dicho suceso.


Probabilidad subjetiva: valor personal que un sujeto asigna a la ocurrencia del suceso,
basado en su mejor saber y entender.

Capítulo 5: Variables aleatorias


Se llama variable aleatoria a una función, que asigna a cada elemento del espacio muestral,
un vector perteneciente a un espacio vectorial. Es unidimensional cuando, a cada elemento
del espacio muestral, se asigna un escalar perteneciente al conjunto de números reales. Se
llama recorrido de una variable aleatoria unidimensional al conjunto formado por los
números reales que se pueden asignar a dicha variable.

Este archivo fue descargado de https://filadd.com


• Variable Aleatoria Discreta Unidimensional: Se llama así a aquella variable aleatoria que
se origina en un espacio muestral finito o infinito numerable. Si el espacio muestral es finito,
o infinito numerable, entonces el recorrido de la variable es finito, o infinito numerable.

✓ Distribución de probabilidad univariada:


1) Función de Probabilidad Puntual: Se llama FPP de una variable aleatoria discreta a una
función, o modelo matemático, que asigna a cada valor del recorrido de dicha variable, un
número real no negativo, llamado probabilidad puntual, de modo tal que la suma de todos

OM
estos valores, a través del recorrido de la variable, debe ser igual a la unidad. Debe cumplir
con 2 condiciones:
1. Condición de no negatividad: el número real asignado por la función de probabilidad
puntual, al i-ésimo valor de la variable discreta, debe ser no negativo.
2. Condición de cierre: la suma de todos los números reales asignados por la función

.C
de probabilidad puntual, a cada valor de la variable discreta, debe ser igual a uno.
2) Función de Distribución: Se llama así a una función que asigna a cada valor del recorrido,
un número real que representa la suma de todas las probabilidades puntuales, desde el
DD
primero hasta el valor en cuestión. Se gráfica con el escalonado.
3) Función de Distribución Complementaria: función que asigna a cada valor del recorrido,
un número real que representa la suma de todas las probabilidades puntuales, desde el
valor en cuestión hasta el último.
LA

4) Percentiles de Variables Aleatorias Discretas: Se llama percentil de orden k (0 < k < 100
^ kϵR) de una variable aleatoria discreta a un valor xk tal que, hasta el valor de variable
inmediato anterior, se acumule, a lo sumo, una probabilidad igual a k/100 y, desde el valor
de variable inmediato posterior se acumule, a lo sumo, una probabilidad igual a (1-k/100).
FI

5) Relación entre las funciones de distribución: La suma del valor de la Función de


Distribución correspondiente a un valor de la variable y el valor de la Función de Distribución
Complementaria correspondiente al siguiente valor de la variable siempre es igual a uno.
• Variable Aleatoria Continua Unidimensional: Una variable con recorrido infinito no


numerable es una Variable Aleatoria Continua en un determinado intervalo de números


reales, si existe una función real que, en dicho intervalo, cumpla con las siguientes
condiciones:
a) sea no negativa
b) cubra una superficie igual a uno

✓ Distribución de probabilidad univariada:

Este archivo fue descargado de https://filadd.com


1) Función de Densidad de Probabilidad: función real que cumpla con la condición de no
negatividad y con la condición de cierre. Está definida únicamente en el recorrido de la
variable aleatoria, intervalo [a;b], fuera de ese intervalo la función es nula.
2) Función de Distribución: Sea X una variable aleatoria continua con función de densidad
de probabilidad f(x) definida en el intervalo de números reales [a;b]. Modelo matemático o
función no decreciente, que asigna a cada valor de la variable aleatoria un valor de
probabilidad acumulada desde el límite inferior del recorrido, hasta ese valor.

OM
3) Función de Distribución Complementaria: Sea X una variable aleatoria continua con
función de densidad de probabilidad f(x) definida en el intervalo de números reales [a;b].
Modelo matemático o función no creciente, que asigna a cada valor de la variable aleatoria
un valor de probabilidad acumulada desde un valor de la variable hasta el límite superior
del recorrido.
4) Percentiles de Variables Aleatorias Continuas: Se llama percentil de orden k (0 < k<100

.C
^ kϵR) de una variable aleatoria continua al valor de la variable xk donde se acumule, una
probabilidad igual a k/100.
DD
Momentos teóricos:
Se llama momento de una variable aleatoria al valor esperado o esperanza matemática de
una función de la variable.
Se llama momento o esperanza matemática de una función generada con una variable
LA

aleatoria discreta, a la suma del producto de cada valor numérico de la función por el
correspondiente valor de probabilidad puntual, a través del recorrido de la variable.
Se llama esperanza matemática de una función generada con una variable aleatoria
continua, a la integral a través del recorrido de la variable, del producto de la función dada
FI

por la función de densidad de probabilidad de la variable.


Otras medidas que resumen información:
• Desvío Estándar: es la raíz cuadrada positiva de la varianza esperada.


• Coeficiente de Variación: se llama CV de una variable aleatoria discreta, al cociente


entre el desvío estándar y el promedio esperado.
• Mediana:

➢ Se llama mediana de una variable aleatoria discreta a un valor tal que, hasta el
valor de variable inmediato anterior, se acumule, a lo sumo, una probabilidad de 0.50 y
desde el valor de variable inmediato posterior se acumule, a lo sumo, una probabilidad de
0.50.

➢ Se llama mediana de una variable aleatoria continua al valor de la variable hasta


donde se acumula una probabilidad exactamente igual a 0.50.

Este archivo fue descargado de https://filadd.com


• Modo:

➢ Se llama modo de una variable aleatoria discreta a valor de la variable más


probable, o de máxima probabilidad, dentro de un entorno de dicho valor.

➢ Se llama modo de una variable aleatoria continua a valor de la variable con el que
la función de densidad de probabilidad alcanza un máximo relativo.
Coeficiente de Asimetría:

OM
• Una distribución de probabilidad de una variable discreta es simétrica, si las
probabilidades puntuales correspondientes a valores de la variable que equidistan
de la Media Aritmética Esperada son iguales.
• Una distribución de probabilidad de una variable continua es simétrica, si las
imágenes de la función de densidad de probabilidad correspondientes a valores de
la variable que equidisten de la Media Aritmética Esperada son iguales.

.C
Propiedades de la media y la varianza:
1. El promedio esperado de una constante es la constante misma y la varianza
DD
esperada de una constante es nula.
2. El promedio esperado de la suma de una constante más una variable, es igual a la
constante más el promedio esperado de la variable y la varianza de la suma de una
constante más una variable es igual a la varianza más la variable.
3. La esperanza matemática o promedio del producto de una constante por una
LA

variable, es igual al producto entre la constante y la esperanza matemática o


promedio de la variable, y la varianza del producto de una constante por una
variable es igual al producto entre el cuadrado de la constante y la varianza de la
variable.
4. Transformación afín: Y=a+bx → E(Y)=a+bE(X) y V(Y)=b2V(X)
FI

• Variable Estandarizada: De una variable aleatoria, discreta o continua, a la variable que


se genera haciendo el cociente entre, la diferencia entre la variable original y su esperanza
matemática y la raíz cuadrada positiva de la varianza.


Toda variable aleatoria estandarizada tiene Esperanza Matemática o Promedio Aritmético


Esperado igual a cero y Varianza Esperada igual a uno. Indica a qué distancia (desvíos) y qué
posición (izquierda o derecha) se encuentra el valor observado de la variable en estudio de
la media aritmética.
Funciones Conjuntas:
Función de Probabilidad Puntual Conjunta: Se llama Función de Probabilidad Puntual
Conjunta de dos variables aleatorias discretas X1 y X2 a un modelo matemático o función
p(X1 ; X2), que asigna a cada par de valores (X1h; X2k) del recorrido de ambas variables, un

Este archivo fue descargado de https://filadd.com


número real p(X1h; X2k), llamado Probabilidad Conjunta Puntual, de modo tal que se
satisfaga las condiciones siguientes:
1. Condición de no negatividad.
2. Condición de cierre: la suma de estas probabilidades, a través del recorrido de las
dos variables, debe ser igual a la unidad.
Función de Densidad de Probabilidad Conjunta: Se llama Función de Densidad de
Probabilidad Conjunta de dos variables aleatorias continuas X1 y X2 definidas en un plano

OM
euclidiano R=R(X1) x R(X2), a un modelo matemático o función f(X1 ; X2) que satisfacen las
siguientes condiciones:
1. Condición de no negatividad.
2. Condición de cierre: la suma de estas probabilidades, a través del recorrido de las
dos variables, debe ser igual a la unidad.

.C
Funciones Marginales:
a. Función de Probabilidad Marginal:
DD
Se llama Función de Probabilidad Marginal, de una variable aleatoria discreta X1 cuando se
presenta conjuntamente con otra variable aleatoria discreta X2 a la función de probabilidad
puntual, p(X1), que le asigna a cada valor de la variable aleatoria X1, los valores de
probabilidad, sin tener en cuenta la variación de la variable X2.(Idem con X invertidos).
1. Condición de no negatividad.
LA

2. Condición de cierre: la suma de estas probabilidades, a través del recorrido de las


dos variables, debe ser igual a la unidad.
b. Función de Densidad de Probabilidad Marginal:
FI

Se llama Función de Densidad de Probabilidad Marginal de una variable aleatoria continua


X1 cuando se presenta conjuntamente con otra variable aleatoria continua X2 a la función
de densidad de probabilidad f(X1 ) que se obtiene integrando la función de densidad de
probabilidad conjunta a través del recorrido de la variable X2 (Idem con X invertidos).


1. Condición de no negatividad.
2. Condición de cierre: la suma de estas probabilidades, a través del recorrido de las
dos variables, debe ser igual a la unidad.
Funciones Condicionales:
a. Función de Probabilidad Condicional: Se llama Función de Probabilidad Condicional
de una variable aleatoria discreta, cuando se presenta conjuntamente con otra
variable aleatoria discreta, al cociente entre la función de probabilidad conjunta y la
función de probabilidad marginal de la variable condicionante.

Este archivo fue descargado de https://filadd.com


b. Función de Densidad de Probabilidad Condicional: Se llama Función de Densidad de
Probabilidad Condicional de una variable aleatoria continua, cuando se presenta
conjuntamente con otra variable aleatoria continua, al cociente entre la función de
densidad de probabilidad conjunta y la función de densidad de probabilidad
marginal de la variable condicionante.
1. Si dos variables discretas son estadísticamente independientes, se
cumple que la función de probabilidad condicional es igual a la función
de probabilidad marginal. Por lo tanto, la función de probabilidad

OM
conjunta es igual al producto de las funciones de probabilidad marginal.
2. Si dos variables continuas no son estadísticamente independientes, se
cumple que la función de densidad de probabilidad condicional es igual a
la función de densidad de probabilidad marginal. Por lo tanto, la función
de probabilidad conjunta es igual al producto de las dos funciones de
densidad de probabilidad marginal.

.C
Momento conjunto: Se llama momento conjunto de una variable aleatoria bidimensional a
la esperanza matemática de una función bivariada generada con las variables aleatorias.
DD
Covarianza: Se llama covarianza entre dos variables aleatorias que forman una variable
aleatoria bidimensional, a la esperanza matemática del producto de las desviaciones de
cada una de las variables con respecto a la correspondiente media aritmética esperada.
• Si una variable crece y la otra variable también crece, o si una variable decrece y la
otra también decrece, entonces las variaciones son en el mismo sentido. Las
LA

desviaciones con respecto a la media aritmética esperada tienen el mismo signo.


Covarianza = +.
• Si una variable crece y la otra variable decrece, o si una variable decrece y la otra
crece, entonces las variaciones son en distinto sentido. Las desviaciones con
FI

respecto a la media aritmética esperada tienen distinto signo. Covarianza = -.


• La variación de una de ellas no induce a variaciones en la otra. Las variaciones son
estadísticamente independientes. Covarianza = 0.
La esperanza matemática del producto de dos variables aleatorias, es igual al producto de


los promedios esperados más la covarianza entre dichas variables. si las variables
aleatorias son estadísticamente independientes, la covarianza es igual a cero, entonces la
esperanza matemática del producto de dos variables aleatorias es igual al producto de los
promedios esperados de cada una de ellas.
Varianza: La varianza de la suma de dos variables aleatorias es igual a la suma de las
varianzas de dichas variables más el duplo de la covarianza entre ellas.
Si las variables aleatorias son estadísticamente independientes, la covarianza es igual a
cero, entonces la varianza de la suma de dos variables aleatorias es igual a la suma de las
varianzas de cada una de ellas.

Este archivo fue descargado de https://filadd.com


La varianza de la diferencia de dos variables aleatorias es igual a la suma de las varianzas
de dichas variables menos el duplo de la covarianza entre ellas.

Capítulo 6: Leyes de probabilidad especificas


1) Variables Aleatorias Discretas:
Experimento Aleatorio Dicotómico: aquel experimento aleatorio cuyo espacio muestral
tiene solo dos resultados posibles mutuamente excluyentes. Sea un experimento aleatorio
E que consiste en tomar al azar una unidad experimental, y verificar si tiene o no un

OM
determinado atributo A. Los sucesos aleatorios correspondientes son: se presenta o no
presenta.
Permutaciones: Dado un conjunto formado por n elementos, se llama permutación
de n a cualquier arreglo ordenado de los n elementos. La cantidad de permutaciones
que se puedan forman ordenando los n elementos de distinta manera, se calcula

.C
con un número llamado factorial de n. Símbolo: n!
Espacio Continuo: recinto de infinitos puntos donde en cualquiera ellos es posible
encontrar un elemento.
DD
1. Repetición de un experimento aleatorio dicotómico: Cada vez que el experimento
aleatorio dicotómico se repite, los elementos que tengan el atributo que se está
considerando pueden presentarse, o no, es aleatorio, entonces, en las n
repeticiones, pueden aparecer elementos que tengan el atributo o que no lo tengan,
LA

o que todos tengan.


2. Distribución Hipergeométrica: Modelo probabilístico para una variable aleatoria
discreta, corresponde a aquellos experimentos aleatorios donde se realizan
sucesivas observaciones de unidades experimentales, sin reponerlas. Las
FI

observaciones no son independientes. La cantidad de elementos con un


determinado atributo que se presentan en n observaciones dependientes de un
experimento aleatorio dicotómico es una variable aleatoria discreta, ȓ cuya función
de probabilidad es llamada Distribución Hipergeométrica: calcula la probabilidad de
obtener r éxitos en n repeticiones dependientes de un suceso dicotómico.


• Parámetros matemáticos: R, N y n.
• Sucesos pendientes.
3. Distribución Binomial: Las n observaciones son independientes. La probabilidad de
que se presente un elemento con un determinado atributo permanece constante a
través de las n pruebas. La probabilidad conjunta es igual al producto de las
probabilidades marginales. La cantidad de elementos con un determinado atributo
que se presentan en n observaciones independientes de un experimento aleatorio
dicotómico es una variable aleatoria discreta, ȓ cuya función de probabilidad es
llamada Distribución Binomial: calcula la propiedad De ocurrencia de sucesos
dicotómicos repetidos independiente.

Este archivo fue descargado de https://filadd.com


• Suceso aleatorio dicotómico
• Universo infinito numerable
• Variable independiente
• Parámetros matemáticos: n, p, q
4. Distribución Pascal: Modelo donde la variable aleatoria, también es la cantidad de
repeticiones del experimento, pero que son necesarias para encontrar una cantidad
fija, mayor a uno, de elementos que tengan un determinado atributo. Distribución
Pascal: probabilidad de tener que analizar n observaciones para encontrar r

OM
elementos con cierto atributo.
• Suceso aleatorio dicotómico
• Variable independiente
• Universo infinito desconocido
• parámetros matemáticos: p y r
5. Distribución Poisson: La cantidad de elementos que se presentan al azar en un

.C
continuo de extensión t, y con un promedio de presentación en el continuo igual a
λ, es una variable aleatoria discreta r cuya función de probabilidad es llamada
Distribución de Poisson: probabilidad de encontrar r-éxitos en un espacio continuo
DD
de extensión t. PM: Y
6. Relación entre la distribución de Pascal y la Binomial: La probabilidad puntual de la
distribución pascal se puede calcular utilizando la distribución binomial.
7. Aproximación de Hipergeométrica a binomial: Se hace cuando N es una cantidad
grande en relación a la cantidad de observaciones n, aun cuando sean sin reposición,
LA

los valores de probabilidad puntual de la distribución hipergeométrica se pueden


calcular aproximadamente con la distribución binomial haciendo -> poner la
fórmula.
8. Aproximación de Binomial a Poisson: Cuando hay que calcular un valor de
FI

probabilidad para una variable con distribución binomial, puede ocurrir que la
cantidad de observaciones n, sea grande y la probabilidad de encontrar un elemento
con el atributo p, sea pequeña. Si n es muy grande el número combinatorio es
incalculable.


2) Variable aleatorias continuas:


1. Distribución Uniforme: Una variable continua X definida en el intervalo de números
reales [a;b] tiene distribución uniforme si su función de densidad de probabilidad es:
parámetro matemático a continuación
1. Cumple con condición de no negatividad y con la condición de cierre
2. Función de distribución
3. Función percentilar
4. Esperanza
5. Varianza

Este archivo fue descargado de https://filadd.com


6. Desvío estándar
7. Mediana
8. No hay modo
2. Distribución Exponencial: Una variable aleatoria continua X definida para todo número
real positivo, tiene distribución exponencial si su función de densidad de probabilidad es:
(parámetro matemático)
1. Cumple con condición de no negatividad y con la condición de cierre

OM
2. Función de distribución
3. Función percentilar
4. Esperanza
5. Varianza
6. Desvío estándar
3. Distribución Normal: Una variable aleatoria continua X definida para todos los números

.C
reales, tiene distribución normal, si su función de densidad de probabilidad es: (parámetro
matemático)
DD
1. Alcanza un máximo relativo cuando: x=m
2. Tiene dos puntos de inflexión cuando: x=m-o y x=x+o
3. Es simétrica con respecto al punto de máxima ordenada
4. Es asíntota al eje de abscisas
5. Los parámetros matemáticos son el desvío y la media
LA

6. Simétrica y mesocrática

1. Cumple con condición de no negatividad y con la condición de cierre


2. Función de distribución
FI

3. Varianza
4. Desvío estándar
5. Mediana
6. Modo


7. Medidas de forma

4. Variable normal estandarizada: El valor de la función de distribución de una variable


aleatoria con distribución normal, para el valor x, es igual al valor de la función de
distribución de la variable estandarizada Z con distribución normal para el correspondiente
valor.
5. Cálculo de probabilidad: Para calcular la probabilidad de que el valor de una variable
aleatoria distribuida normalmente pertenezca a un determinado intervalo, primero hay que

Este archivo fue descargado de https://filadd.com


estandarizar los valores de la variable original X y con el valor de Z, obtener el valor de
probabilidad en la tabla de Z.
6. Cálculo de percentiles: Para calcular el percentil de orden k de una variable aleatoria
continua X, distribuida normalmente, se utiliza la tabla de fractiles de la variable
estandarizada Z, ubicando el orden del percentil, expresado en probabilidad, en la columna
F(Z), y localizar el valor de Zk.
8. Suma de variables aleatorias normales independientes: Toda combinación lineal de

OM
variables aleatorias normales independientes, tiene distribución normal.
La combinación lineal, es una suma de producto de variables por constantes no nulas.

• La esperanza matemática de la suma de variables aleatorias independientes es igual


a la suma de las esperanzas matemáticas individuales de cada una de las variables.
• La varianza de la suma de variables aleatorias independientes es igual a la suma de

.C
las varianzas individuales de cada una de las variables.
• La suma de variables aleatorias normales independientes se distribuye
normalmente.
DD
9. Aproximación de la distribución binomial a la normal: Si la cantidad de observaciones es
suficientemente grande y la probabilidad de encontrar un elemento con un determinado
atributo está cerca de 0,50, los valores de probabilidad de distribución binomial se pueden
calcular con la distribución normal.
LA

10. Aproximación de la distribución de Poisson a la normal: Si el valor de λ es muy grande,


los valores de probabilidad de la distribución de Poisson, se puede calcular, con la normal.
11. Teorema central del límite: Sean n variables aleatorias independientes, cada una de
ellas con esperanza matemática finita y varianza finita X1;X2:….;Xn entonces la variable suma
FI

estandarizada bajo condiciones muy generales, se distribuye asintóticamente normal


estandarizada, cuando el número de variables que se suman crece indefinidamente,
cualesquiera sean las distribuciones de las variables aleatorias. Si todos los promedios son
iguales y todas las varianzas son iguales, entonces la variable suma estandarizada es y


también tiene distribución asintóticamente normal estandarizada cuando la cantidad de


variables que se suman tiende a infinito. Esto quiere decir que cuando hay que calcular una
probabilidad referida a la suma de variables independientes y no se específica cual es la
distribución, se puede utilizar la distribución normal siempre y cuando n sea
suficientemente grande. N>30.

Tomo II
Capítulo 1

Este archivo fue descargado de https://filadd.com


1. Introducción al muestreo
1.1. Definiciones básicas
Estadística: uno de sus propósitos es poder inferir las distribuciones de probabilidad, sus
propiedades y sus parámetros.
1.1.1. Universo, población y muestra
Universo: conjunto de unidades experimentales que poseen características comunes

OM
observables, y que se utilizan para obtener información sobre un hecho particular. Queda
determinado cuando se definen los objetivos del trabajo a realizar. Pueden ser finitos o
infinitos.
Población: cualquier variable particular que estudia a un universo. Cada universo puede
generar varias poblaciones. Pueden ser finitas o infinitas.

.C
Censo: es la medición, en la totalidad de las unidades de las unidades experimentales que
conforman el universo, de todas las variables que previamente hayan sido declaradas
relevantes para la investigación a llevar a cabo.
DD
N: tamaño del universo o de la población cuando corresponda.
Muestra: subconjunto o parte de una población tomada de forma tal que con ella se pueda
hacer un juicio acerca de esa población completa. (n)
Fracción de muestro: cociente entre el tamaño de la muestra y el tamaño de la población.
LA

(n/N)
1.1.2. Inferencia estadística
Inferencia estadística: es cualquier afirmación que se realiza sobre una determinada
FI

población, basándose en los datos obtenidos con una muestra, pudiéndose obtener a partir
del cálculo de probabilidad una determinada medida de la incertidumbre que se genera.
Significa que infiere la población a partir de la muestra.
1.1.3. Muestreo


Muestreo: procedimiento mediante el cual se obtienen una o más muestras de una


población dada.
Unidad de muestreo: es cada unidad experimental, o grupo de unidades experimentales,
que son tomadas para obtener una muestra.
1.1.3.1. Muestreo probabilístico: lo es cuando las unidades experimentales que componen
la muestra son tomadas al azar, pudiéndose calcular a priori la probabilidad que tiene cada
muestra. Es un muestreo objetivo porque como la obtención de las unidades
experimentales es al azar, la inconclusión de cada una de ellas no depende del sujeto.

Este archivo fue descargado de https://filadd.com


1.1.3.2. Muestreo intencional: lo es cuando las unidades experimentales que componen la
muestra son obtenidas siguiendo una regla reestablecida. Cada elemento que integre la
muestra es “elegido” por el sujeto bajo su criterio. Es subjetivo porque carece de una base
teórica satisfactoria. La representatividad depende de la intención del sujeto.
1.1.3.3. Muestreo sin norma: lo es cuando la obtención de las unidades experimentales que
componen la muestra se realiza sin una norma o criterio definido. Cada elemento que
integre la muestra es elegido por el sujeto, pero sin un criterio fijado. Se considera que la
obtención es casi aleatoria, y el muestreo es casi objetivo. Se puede usar cuando hay

OM
elementos de juicio suficientes como para suponer que la población es homogénea.
1.1.4. Métodos de obtención de muestras: para garantizar que la obtención de cada uno
de los elementos sea realmente aleatoria, es conveniente la utilización de una tabla de
dígitos al azar.
Muestra: {X1; X2; …; Xn} → F(X1) = F(X2) = … = F(Xn) o P(X1) = P(X2) = … = P(Xn)

.C
1.1.4.1. Muestreo simple al azar (sin reemplazo): consiste en obtener al azar, una muestra
de n elementos, de entre los N que constituyen el universo. Hay que tener en cuenta que
DD
todas las muestras posibles de tamaño n deben tener la misma probabilidad de ser tomada.
Es una combinación de N elementos tomados de a n. se calcula: n/N
1.1.4.2. Muestreo estratificado al azar: cuando la población presenta gran variedad, se
utiliza este método. Consiste en particionar al universo en estratos dentro de los cuales sí
la variable debe presentar homogeneidad. De cada uno de los estratos se obtiene una
LA

muestra simple al azar.


¿Cuánto del total n deberá asignarse a cada uno de los estratos? La asignación del tamaño
de la muestra a cada uno de los distintos estratos se llama afijación:
FI

a. Afijación igual o uniforme: el tamaño de muestra que le corresponde a cada estrato


es igual para todos. Se calcula haciendo el cociente entre el tamaño de la muestra
n, y la cantidad de estratos h. → n/h
b. Afijación proporcional: el tamaño de la muestra correspondiente a cada estrato es


proporcional al tamaño del estrato. Se calcula haciendo el producto entre la fracción


de muestreo y el tamaño de cada estrato. → nh = n/N. Nh
c. Afijación óptima: el tamaño de la muestra correspondiente a cada estrato es
proporcional al tamaño del estrato y al desvío estándar correspondiente. Se tiene
en cuenta la falta de homogeneidad entre las subpoblaciones.
1.1.4.3. Muestre por conglomerados polietápico: Este método tiene como particularidad
que la unidad de muestreo está formada por un grupo de unidades experimentales.
Consiste en agrupar los elementos que conforman el universo en conglomerados de modo
tal que entre ellos haya la suficiente homogeneidad como para representar a la población.
Se usa cuando las unidades experimentales están naturalmente agrupadas en

Este archivo fue descargado de https://filadd.com


conglomerados y cada una de ellas, a su vez, puede ser considerada como unidad de
muestreo. Generalmente son superficies o áreas.
1.1.4.4. Muestreo sistemático al azar: consiste en ordenar a las N unidades experimentales
que conforman el universo de acuerdo a como se fueron presentando, y obtener la muestra
eligiendo sistemáticamente un elemento cada C unidades.
1.2. Características poblacionales y muestrales
1.2.1. Parámetro estadístico: toda población es una variable aleatoria, entonces su

OM
comportamiento probabilístico está explicado por una función de probabilidad. Existen
medidas que caracterizan a estas funciones y se las define distinguiendo dos tipos de
universos.
1.2.1.1. universo finito y pequeño: si se tiene un universo finito y suficientemente pequeño
como para que el comportamiento probabilístico de las poblaciones no esté explicado por

.C
un modelo teórico específico, se define:
Parámetro estadístico: toda medida que resume información calculada con las variables
poblacionales.
DD
12.1.2. Universo finito y grande o universo infinito: si una población es finita y lo
suficientemente grande, o infinita, como para que su comportamiento probabilístico esté
explicado por una función de probabilidad, se define:
Parámetro estadístico: todo parámetro matemático de una función de probabilidad o de
LA

densidad de probabilidad, que brinda información acerca de una población.


Parámetros: son números reales que pueden asumir cualquier valor que se encuentre
dentro de un conjunto específico.
FI

Espacio métrico: conjunto de números reales específico.


1.2.2. Estadígrafo y estimador
Estadígrafo: toda función escalar, h (X1; X2; …; Xn), generada con las variables muestrales.


Son funciones generadas por variables aleatorias, entones, también son variables
aleatorias.
Estimado de un parámetro: es todo estadígrafo que proporcione información acerca de
dicho parámetro.
Estadígrafo de transformación: es aquel que permite transformar al estimador en una
variable que tenga una determinada distribución de probabilidad.
1.2.3. Estimación: como los parámetros de las poblaciones son desconocidos, se lleva a
cabo el proceso de inferir o sacar conclusiones acerca de éstos a través de las variables
muestrales. Hay dos métodos:

Este archivo fue descargado de https://filadd.com


a. Estimación puntual: consiste en calcular el valor numérico único que asume el
estimador, luego de tomar la muestra y realizar las mediciones correspondientes. El
valor numérico se llama punto de estimación.
b. Estimación por intervalo: consiste en calcular con los datos de la muestra los límites
de un conjunto cerrado y acotado de números reales. Este conjunto se llama
intervalo de estimación.
1.2.4. distribución de los estimadores: todo estimador es una variable aleatoria.

OM
Distribución de probabilidad del estimador: aquella función de densidad de probabilidad,
o función de probabilidad, que describe su comportamiento probabilístico. Si se considera
al muestreo probabilístico como un experimento aleatorio, y si para cada muestra se puede
calcular el valor numérico del estimador, estos valores constituyen la distribución de
probabilidad del estimador.
Sesgo: la diferencia entre la esperanza matemática del estimador y el parámetro a estimar.

.C
Error medio cuadrático: es la esperanza matemática del cuadrado de la diferencia ente el
estimador y el parámetro. Mide la variabilidad del estimador respecto al parámetro que
DD
está estimando.
1.3. Propiedades de los buenos estimadores:
a. insesgamiento
b. eficiencia
LA

c. consistencia.
d. suficiencia.
Estimador insesgado: lo es sí, y solo si la esperanza matemática del estimador es igual al
parámetro. El estimador es insesgado si su sesgo es igual a 0.
FI

Asintóticamente insesgado: lo es sólo si el límite de la esperanza matemática del


estimador, cundo el tamaño de la muestra n tiende a infinito, es igual al parámetro.
Si el estimador del parámetro es insesgado o asintóticamente insesgado, el error medio


cuadrático es igual a la varianza del estimador, directamente o en el límite, cuando n tiende


a infinito.
Estimador consistente: lo es sólo si se cumple que el estimador converge en probabilidad
al parámetro, cuando el tamaño de la muestra n tiende a infinito. Es consistente si, a medida
que el tamaño de la muestra crece indefinidamente, la probabilidad de que la diferencia
entre el estimador y el valor del parámetro pueda hacerse tan pequeña como se quiera,
tiende a la unidad.
Teorema sobre la verificación de la consistencia:

Este archivo fue descargado de https://filadd.com


a. Si la varianza del estimador tiende a cero cuando el tamaño de la muestra tiende a
infinito, es el caso de las poblaciones infinitas.
b. Si la varianza del estimador tiende a cero cuando el tamaño de la muestra tiende al
tamaño de la población, es el caso de las poblaciones finitas.
Estimador eficiente: lo es sólo s se cumple que el estimador tiene la menor varianza que
puede tener un estimador del parámetro.
Estimador suficiente: lo es sólo si se cumple que el estimador utiliza toda la información

OM
relevante acerca del parámetro, contenida en la muestra aleatoria.
1.4. Grados de libertad: es la cantidad de variables libres, o estadísticamente
independientes, que intervienen en un problema o en una distribución asociada a un
problema.
1.5. Algunos estimadores importantes

.C
1.5.1. Media aritmética muestral: es un estimador de la media poblacional, que se genera
haciendo el cociente entre la suma de las variables muestrales y el tamaño de la muestra.
DD
1.5.2. Varianza muestral: es un estimador de la varianza poblacional que se genera
haciendo el cociente entre la suma del cuadrado de las desviaciones con respecto a la media
aritmética muestral y los correspondientes grados de libertad.
1.5.3. Proporción muestral: es un estimador de la proporción poblacional, que se genera
mediante el cociente entre la cantidad de elementos que sí poseen un determinado atributo
LA

en la muestra y el tamaño de la muestra.


1.6. Distribución de algunos estimadores. Poblaciones normales.
Definiciones:
FI

✓ La suma del cuadrado V variables normales estandarizadas independientes tiene


distribución ji – cuadrado con V grados de libertad.
✓ El cociente entre una variable normal estandarizada y la raíz cuadrada de una
variable ji – cuadrada con V grados de libertad, dividida por V, tiene distribución


t de Student con V grados de libertad.


✓ El cociente entre una variable ji – cuadrado con V1 grados de libertad, dividida
por V1, y otra variable ji – cuadrado, pero con V2 grados de libertado, dividida
por V2, tiene distribución F de Snedecor con V1 grados de libertad en el
numerador y V2 grados de libertad en el denominador.
1.6.3. Distribución de la media aritmética muestral cuándo la varianza poblacional es
desconocida: el cociente entre una variable normal estandarizada y la raíz cuadrada de una
variable ji – cuadrado dividida por sus correspondientes grados de libertad se llama t de

Este archivo fue descargado de https://filadd.com


Student y tiene como parámetro matemático los grados de libertad de la ji – cuadrado
empleada.
1.7. Distribución de algunos estimadores. Poblaciones no normales.
17.1. Distribución de la media muestral de poblaciones no normales. En muestras
grandes: Se considera que el tamaño de la muestra tiende a infinito cuando n > 30
1.7.2. Distribución de la proporción muestral: sea una muestra aleatoria de tamaño n,
tomada de un universo infinito, (fórmulas página 45). Para el cálculo de probabilidad y para

OM
toda tarea inferencial referida a la proporción muestral, hay que utilizar la distribución
normal estandarizada.

Capítulo 2: Intervalo de confianza:


• Intervalo de confianza para el parámetro: método de estimación que consiste en

.C
determinar un conjunto cerrado y acotado de posibles valores del parámetro, cuyos límites
inferior y superior, son funciones del estimador, y la correspondiente probabilidad de que
dicho intervalo cubra el verdadero valor del parámetro. En estimadores no uso intervalo
porque tengo el dato poblacional.
DD
• Intervalo de confianza: se llama así a la probabilidad de que el intervalo de confianza
cubra el verdadero valor del parámetro. Luego de obtener la muestra y asignar los
correspondientes valores numéricos a las variables, el intervalo dejará de ser variable. Los
límites asumirán un determinado valor. El intervalo posiblemente cubrirá al verdadero valor
LA

del parámetro. Esta posibilidad se mide con el nivel de confianza.


• Nivel de confianza 1-ε: probabilidad de que el intervalo cubra al verdadero valor del
parámetro.
• Nivel de riesgo ε: probabilidad de que el intervalo no cubra el verdadero valor del
FI

parámetro.
• Intervalos de confianza aditivos: aquel intervalo que permite que la probabilidad de que
la estimación difiera del parámetro en a lo sumo h veces el desvío estándar del estimador,


sea igual al nivel de confianza. Si se conocen los límites de un intervalo aditivo, la estimación
puntual se puede calcular haciendo la semisuma de los límites del intervalo.
• Error de muestreo: se llama así a la máxima diferencia que se está dispuesto a tolerar
entre el estimador y el parámetro. El error de muestreo mide la precisión de la estimación.
Tamaño de muestra para estimar la media poblacional.
Varianza poblacional conocida: Se realiza teniendo en cuenta:

• El error de muestreo: este factor es proporcionado por el usuario de la muestra. Él


debe indicar cuál es la máxima diferencia entre la media muestral y la media

Este archivo fue descargado de https://filadd.com


poblacional está dispuesto a aceptar. El error de muestreo debe estar expresado en
la misma unidad de medida de la variable.
• La confianza en la estimación: este factor es proporcionado por el usuario de la
muestra. Él debe indicar cuál es la probabilidad deseada de que el intervalo de
confianza cubra al verdadero valor de la media poblacional.
• La varianza de la población: este factor indica el grado de variabilidad de la
población.
• El tamaño de la población: en caso de poblaciones finitas, este factor es una

OM
restricción para el tamaño de la muestra. Población infinita y finita.
Varianza poblacional desconocida:

• Se toma una muestra de tamaño arbitrario no y se calcula el valor de la varianza


muestral.
• Se calcula el tamaño de la muestra inicial.

.C
• Se obtiene un segundo valor de muestra y después un tercer valor.
• Se repite hasta que dos tamaños de muestra consecutivos sean iguales.
DD
Tamaño de muestra para estimar la proporción poblacional. Se realiza teniendo en cuenta:

• El error de muestreo: este factor es proporcionado por el usuario de la muestra. Él


debe indicar cuál es la máxima diferencia entre la proporción muestral y la
proporción poblacional que está dispuesto a aceptar. El error de muestreo debe
estar expresado en tanto por uno.
LA

• La confianza en la estimación: este factor es proporcionado por el usuario de la


muestra. Él debe indicar cuál es la probabilidad deseada de que el intervalo de
confianza cubra al verdadero valor de la proporción poblacional.
• La proporción: este factor proporciona información sobre el grado de concentración
FI

de los elementos que tienen el atributo A.


• El tamaño de la población: en caso de poblaciones finitas, este factor es una
restricción para el tamaño de la muestra.

Capítulo 3. Prueba de hipótesis:




Se infiere a partir de la muestra, para contrastar empíricamente, una afirmación respecto


de un parámetro población.

• Hipótesis estadística: cualquier afirmación o aseveración que se formula acerca de


cualquier característica poblacional.
• Hipótesis paramétrica: aquella hipótesis estadística planteada para controlar o
verificar el valor numérico de un parámetro.
Posibles situaciones del valor numérico del parámetro:

Este archivo fue descargado de https://filadd.com


• Desigualdad equivalente a la igualdad: aquella desigualdad entre el parámetro θ y
el valor postulado θ0, que provoca el mismo curso de acción que se llevaría a cabo
con la igualdad entre el valor del parámetro y el valor postulado θ0.
• Desigualdad no equivalente a la igualdad: aquella desigualdad entre el parámetro
y el valor postulado, que provoca un curso de acción distinto al que se llevaría a cabo
con la igualdad entre el valor del parámetro y el valor postulado.
1. Hipótesis nula: es aquella que establece que la diferencia entre el verdadero
valor del parámetro, y el valor que se postula (creencia) es cero. Debe plantearse

OM
como la igualdad entre el valor del parámetro y el valor postulado; puede estar
acompañada o no por alguna de las dos desigualdades, según sea el curso de
acción a seguir y la existencia o no de alguna desigualdad equivalente.
Tipos:
1. Hipótesis nula única: cuando no hay desigualdad equivalente. Se postula un único

.C
valor posible para el parámetro.
2. Hipótesis nula múltiple: cuando hay desigualdad equivalente.
• Si la desigualdad equivalente es la desigualdad menor, entonces la hipótesis nula
DD
múltiple es H0: q ≤ q0
• Si la desigualdad equivalente es la desigualdad mayor, entonces la hipótesis nula
múltiple es H0: q ≥ q0
3. Hipótesis alternativa: es aquella hipótesis que debería cumplirse si la hipótesis nula
no es cierta.
LA

Tipos:
1. Hipótesis alternativa única: cuando hay un solo valor alternativo del parámetro,
que debería ser en el caso de que la hipótesis nula no sea cierta.
FI

2. Hipótesis alternativa múltiple: cuando hay un conjunto abierto de posibles valores


alternativos del parámetro q, en caso de que se rechace la hipótesis nula.
• Si la hipótesis nula es única, no hay desigualdad equivalente, se plantea H1:
q ≠ q0
• Si la hipótesis nula no es única, y la desigualdad equivalente es la desigualdad


menor, se plantea H1: q > q0


• Si la hipótesis nula no es única, y la desigualdad equivalente es la desigualdad
mayor, se plantea H1: q < q0
• Prueba de hipótesis nula: método estadístico con el cual, a partir de los datos de
una muestra aleatoria, se decide acerca de la veracidad o falsedad de la hipótesis
nula formulada, puede calcular la probabilidad de cometer n error en la decisión
tomada.

Este archivo fue descargado de https://filadd.com


• Estadígrafo de prueba: realiza la prueba de hipótesis, que mida la discrepancia,
entre el parámetro a probar y el estimador correspondiente y, además tiene una
distribución de probabilidad conocida. Compara teoría y evidencia empírica.
• Región crítica: subconjunto del dominio con el que se rechaza la hipótesis nula, con
el tamaño de la región crítica.
o Si hay una desigualdad equivalente, región crítica está formada por un
subconjunto semicerrado. La prueba es unilateral.
o Si no hay una desigualdad equivalente, región crítica está formada por dos

OM
subconjuntos semicerrados mutuamente excluyentes de igual tamaño. La
prueba es bilateral.
• Región de no rechazo, Ra = (D-RC): subconjunto del dominio D con el que no se
rechaza la hipótesis nula.
• Punto crítico PC: frontera de la región crítica.
o Cuando la prueba es unilateral hay un solo pc.

.C
o Cuando al prueba es bilateral hay dos pc.
• Regla de decisión: establece las pautas para rechazar la hipótesis nula y se enuncia:
si el valor numérico del estadígrafo de prueba pertenece a la región crítica, entonces
DD
se rechaza la hipótesis nula, en caso contrario, si el valor numérico del estadígrafo
de prueba no pertenece a la región crítica entonces no se rechaza la hipótesis nula.
o Si ep ε Rc → se rechaza H0
o Si ep Ɇ Rc → no se rechaza H0
• Error de tipo I: hecho de rechazar la hipótesis nula cuando la hipótesis nula es cierta.
LA

• Error de tipo II: hecho de no rechazar la hipótesis nula cuando la hipótesis nula es
falsa.
• Nivel de significación: probabilidad de cometer el error de tipo I, o sea, a la
probabilidad de rechazar la hipótesis nula cuando es cierta. El nivel de significación
se simboliza con la letra α y mide el tamaño de la región crítica.
FI

• Potencia de la prueba: probabilidad de no cometer el error de tipo II, o sea, a la


probabilidad de rechazar la hipótesis nula cuando es falsa. La potencia de la prueba
se simboliza con la letra π.


• Acción derivada: acción que se lleva a cabo según el resultado de la decisión


estadística que se tome, rechazar o no rechazar la hipótesis nula.
Estadígrafos de prueba para la prueba de hipótesis de la comparación de dos poblaciones:

• Parámetro diferencia de medias poblacionales: diferencia es distinta o


significativamente distinta de cero.
• Parámetro cociente entre las varianzas: cociente entre las varianzas poblacionales
es igual a uno o no.
• Parámetro diferencia de proporciones poblacionales: diferencia entre las
proporciones es cero o no.

Este archivo fue descargado de https://filadd.com


Capítulo 7: análisis de regresión y correlación
7.2. Análisis de regresión
Análisis de regresión: método estadístico que permite explicar el comportamiento de una
variable cuantitativa, a partir del comportamiento de otra u otras variables que puedan
estar relacionadas, estableciendo la expresión funcional del modelo matemático que
describa dicho comportamiento.

OM
Variable explicada (Y): variable cuantitativa cuyo comportamiento se desea describir a
partir del comportamiento de otra u otras variables.
Variables explicativas (X): variables que explican el comportamiento de la variable
explicada.
El análisis de regresión consiste en construir un modelo que permita predecir el valor de la

.C
variable explicada, utilizando valores de k variables explicativas. El modelo tiene dos partes:
la primera, es una función real y la otra es la variable aleatoria que representa la variabilidad
no controlada por las k variables explicativas.
DD
Función de regresión: modelo matemático que interviene en el modelo estadístico de
regresión. F (X1; X2; …; Xk)
Residuo aleatorio: variable aleatoria que forma parte del modelo estadístico de regresión.
Supuestos básicos de la regresión: para poder aplicar el análisis al modelo estadístico de
LA

regresión se plantean los siguientes supuestos sobre la variable aleatoria residual:


1) Tiene distribución normal.
2) La esperanza matemática de la variable aleatoria residual es cero.
3) La varianza de la variable aleatoria residual se mantiene constante.
FI

4) Las variables aleatorias residuales u1; u2, para dos k-erna (X1; X2; …; Xk) son
independientes. La covarianza entre ellas es cero.
5) Es independiente de cada una de las variables explicativas.


Se considera que la variable explicada y las variables explicativas son variables aleatorias
representan poblaciones. Por esto, la función de regresión es una función que relaciona
poblaciones. Es una función poblacional.
7.2.1. Análisis de regresión simple:
Análisis de regresión simple: análisis que se realiza cuando a cada unidad experimental de
un determinado universo se le miden sólo dos variables, una explicativa y una explicada.
Los valores individuales de cada una de ellas se representan como pares ordenados (x;y).
Diagrama de dispersión: representación gráfica de los pares ordenados de los valores de
las variables que intervienen en el análisis de regresión simple.

Este archivo fue descargado de https://filadd.com


Cuando todos los promedios de la variable explicada Y, para cada valor de la variable
explicativa X, pertenecen a una misma recta, entonces se admite que la relación entre las
dos poblaciones correspondientes a un mismo universo está explicada a través de una recta.
Modelo de regresión lineal simple: modelo de regresión que se forma cuando la función
de regresión es una función afín, o sea, una recta. ŷ = β0 + β1 . Xi + uij
- Y: variable explicada
- X: variable explicativa

OM
- ŷ = β0 + β1 . Xi: recta de regresión.
- β0: ordenada al origen. Indica el valor de Y cuando X es igual a cero.
- β1: Pendiente de la recta. Indica la variación promedio de Y cuando X varía en una
unidad.
- uij: variable aleatoria residual.

.C
Un valor individual de la variable residual es la diferencia entre un valor de la variable
explicada y el valor de la recta de regresión para un valor dado de la variable explicativa.
DD
LA
FI


Si cada valor de recta de regresión es el promedio o valor esperado de la variable explicada


para cada valor de la variable explicativa, la recta de regresión pasa entre los puntos del
diagrama de puntos compensando los desvíos que se producen.

Este archivo fue descargado de https://filadd.com


OM
7.2.2. Estimadores de los parámetros de regresión: Para estimar los parámetros se toma
una muestra al azar de n unidades experimentales. Esta muestra proporciona n pares de
valores.

.C
7.2.2.1. Variación individual y variación conjunta: Para hacer el análisis de datos, se
necesita medir la variabilidad total que presentan individualmente cada una de las variables
DD
involucradas, (X e Y) así como también se debe medir la variabilidad que se produce entre
ellas en forma conjunta.
1. Suma de cuadrados de X (SCX): la diferencia entre un valor particular de la variable
explicativa X0 y su media X raya es una desviación de la variable X. si se toman todos
los valores de la variable se puede calcular la suma del cuadrado de las desviaciones
LA

de la variable X con respecto a la media.


2. Suma de cuadrados de Y (SCY): es la diferencia entre un valor particular de la
variable explicada Y0 y su media Y raya es una desviación de la variable Y. si se toman
todos los valores de la variable se pude calcular la suma del cuadrado de las
FI

desviaciones de la variable Y con respecto a la media.


3. Suma del producto XY (SPXY): el producto de la diferencia entre un valor particular
de la variable X0 y su media X raya por la diferencia entre un valor particular de la
variable explicada Y0 y su media Y raya es una desviación conjunta.


7.2.2.2. Diagrama de puntos muestral: con los puntos que representan los pares de valores
(X;Y) correspondientes a la muestra de tamaño n, se puede graficar un diagrama de puntos
muestral.
7.2.2.3. Estimadores:
Si se simboliza al estimador de la ordenada al origen y al estimador de la pendiente:
- β 0 = b0
- β 1 = b1
- ŷ = b0 + b1 . Xi + ei

Este archivo fue descargado de https://filadd.com


- Recta de regresión estimada: ŷ = b0 + b1 . Xi
- Residuo muestral: ei = {Yi – (b0 + b1 . Xi)}
La recta de regresión estimada tiene la propiedad de compensar los desvíos que se
producen en cada valor muestral de la variable explicativa y el correspondiente valor de la
recta.
Para construir los estimadores de la regresión se utiliza el método de mínimos cuadrados:
consiste en calcular los valores b0 y b1 de modo tal que minimice el cuadrado de los residuos.

OM
7.2.3. Medidas de variabilidad en la regresión: para determinar en que medida el
comportamiento de la variable explicada Y puede estar descrito por el comportamiento de
la variable explicativa X, es necesario desarrollar medidas de variación entre cada valor
muestral de la variable Y, y los correspondientes valores de la recta de regresión estimada.
Desviación total: la diferencia entre un valor individual de Y, y el promedio.

.C
Desviación explicada por la regresión: la diferencia entre el valor de la recta de regresión
estimada, correspondiente al valor X0 y el promedio de la variable Y.
DD
Desviación residual: la diferencia entre un valor individual de Y, y el valor de la recta de
regresión estimada correspondiente al valor X0.
7.2.3.1. Partición de la suma de cuadrados total: la suma de cuadrado de las n desviaciones
totales es una medida de los valores de Y en torno a su media Y raya, es la suma del
cuadrado de las desviaciones de la variable explicada con respecto a su media, o suma de
LA

cuadrados total.
Suma de cuadrados explicada: el primer sumando del segundo término es la suma del
cuadrado de las n desviaciones explicadas por la regresión. Es una medida de la variabilidad
de los valores de la recta de regresión muestral en torno a su medida Y raya.
FI

Suma de cuadrados residual: el segundo sumando del término de la suma de cuadrados


total es la suma del cuadrado de las n desviaciones residuales. Es una medida de la variación
de los valores de variable explicada y los correspondientes de la recta de regresión muestral.


Grados de libertad: n – 2
7.2.3.2. Varianza residual muestral: es el cociente entre la suma de cuadrados residual y
sus correspondientes grados de libertad. Es un estimador insesgado de la varianza residual
poblacional.
7.2.3.3. Coeficiente de determinación (R2): es el cociente entre la suma de cuadrado
explicada y la suma de cuadrados total. Mide la proporción de la variación total que está
explicada por la regresión.

Este archivo fue descargado de https://filadd.com


7.2.5. Intervalos de confianza: se construyen para estimar los parámetros de la recta de
regresión y los valores de la recta poblacional para un valor dado de la variable explicativa
X. son intervalos aditivos. Generalmente la varianza poblacional es desconocida, entonces
hay que usar un estimador Se2. Las varianzas que se usan son estimadas, y en el factor de
confianza se usa t de Student con n – 2.
7.3. Análisis de correlación entre variables cuantitativas: permite medir el grado de
asociación que hay entre las variables cuantitativas.

OM
7.3.1. Análisis de correlación lineal simple: se lleva a cabo cuando la función de regresión
que explica el comportamiento conjunto de las variables es la función afín, o sea, la recta.
7.3.1.1. Coeficiente de correlación lineal poblacional: es el cociente entre la covarianza
entre las variables y el producto de los desvíos estándares de cada una de ellas. Es un
número que está entre -1 y 1:

.C
Rho = -1: perfecta relación lineal inversa entre las variables. Todos los puntos poblacionales
pertenecen a una recta de pendiente negativa.
DD
LA

Rho = 1: perfecta relación lineal directa entre las variables. Todos los puntos poblacionales
pertenecen a una recta de pendiente positiva.
FI


Rho = 0: no hay relación lineal entre las variables. Ya sea porque las variables no están
asociadas o porque la relación entre ellas no es lineal.

Este archivo fue descargado de https://filadd.com


OM
0 < Rho < 1: La relación entre x e y es directamente imperfecta.
-1 < Rho < 0: La relación entre x e y es inversa imperfecta.
7.3.1.2. coeficiente de correlación muestral: se usa para estimar el parámetro de
coeficiente de correlación lineal poblacional. Como no es normal, se realiza la
transformación logarítmica para que tenga distribución normal. Es la transformación de

.C
Fisher.

Capítulo 9. Series cronológicas:


DD
Serie cronológica: conjunto de datos estadísticos correspondientes a una misma variable
cuantitativa, recopilados sistemáticamente en intervalos equidistantes en el tiempo.
Componentes: de una serie cronológica a los factores que caracterizan su dinamismo.
a. Movimiento de tendencia (componente fijo)
LA

b. Movimiento estacional (componente fijo)


c. Movimiento cíclico (componente fijo)
d. Componente residual (componente aleatorio)
Hay que encontrar un modelo estadístico tal que explique el comportamiento de la variable
FI

en estudio, identificando a los respectivos componentes: Llamando:

• Y(t): valor de la variable en el momento t


• T(t): valor de la tendencia en el momento t


• E(t): valor de la estacionalidad en el momento t. Puede ser + - 0


• C(t): valor de la ciclicidad en el momento t. Puede ser + - 0
• u(t): valor residual en el momento t. Con distribución normal. Puede ser + - 0
• ɛ(t): coeficiente de participación estacional e indica el grado de influencia que tiene
el t-ésimo período en el valor de la variable dentro del año.
• ς(t): coeficiente de participación cíclica e indica el grado de influencia que tiene el t-
ésimo período en el valor de la variable dentro del lapso total analizado.
Movimiento de tendencia: ley simple que pone de manifiesto la evolución media de la
serie.

Este archivo fue descargado de https://filadd.com


Promedios móviles: son promedios que se calculan con los datos de una serie periódica de
n elementos, utilizando para promediar siempre una misma cantidad m de datos m < n.
1. m par: promedios se calculan en una sola etapa.
2. m impar: promedios se calculan en dos etapas. En la primera se calculan promedios
móviles transitorios, en la segunda se promedia dos promedios móviles
consecutivos.
Movimiento estacional: fluctuaciones periódicas que pueden ocurrir regularmente dentro

OM
del año. Se representa con un coeficiente, llamado coeficiente estacional, que mide la
proporción que el valor de la variable en cada período es mayor o menor al valor de
tendencia o valor medio de la serie.
Movimiento cíclico: fluctuaciones periódicas que pueden ocurrir regularmente dentro de
un lapso de varios años.

.C
Componente residual o aleatoria: factor que provoca variaciones con respecto a modelo,
que no son provocadas por las otras componentes.
Intervalo de predicción: intervalo que se construye con el valor extrapolado de la
DD
tendencia, que posiblemente contenga el valor futuro de la variable, y la correspondiente
probabilidad de que ello ocurra.

Capítulo 10: Números Índices


LA

10.1. Conceptos básicos


10.1.1. Definiciones
FI

Números índices: aquellas medidas estadísticas que ponen de manifiesto, en forma


cuantitativa. Las variaciones relativas de un fenómeno complejo, a través del tiempo, del
espacio o cualquier otra circunstancia. Indican la variación porcentual de una variable o
grupo de variables, entre una situación inicial (base) y otra situación final.


Se estudian específicamente las variaciones que se producen en tres tipos de variables:


- Precios de los distintos bienes económicos
- Las cantidades demandadas de cada uno de los bienes económicos
- El valor de lo gastado en los bienes económicos
Canasta: conjunto de bienes económicos que intervienen en la construcción de un número
índice.
Las variaciones que se estudian son a través del tiempo, entonces se presentan formando
series cronológicas, distinguiendo:

Este archivo fue descargado de https://filadd.com


Período base: período cronológico que se utiliza como situación inicial o base de la
comparación.
Período actual: período cronológico que se quiere comparar con el período base. Es un
momento particular en el tiempo. Un número índice construido en ese momento mide el
tamaño relativo de la variable con el tamaño que tenían en el período base.
Para lograr que un número índice ponga de manifiesto con mayor objetividad, los cambios
relativos en los valores de las variables, al seleccionar el período base se debe tener en

OM
cuenta dos reglas:
- El período base debe ser un período de normalidad o estabilidad económica, sino
no reflejan adecuadamente los aspectos dinámicos de las variables que se están
analizando.
- El período base no debería estar muy alejado de los períodos que van a ser objeto
de comparación.

.C
10.1.2. Clasificación de los números índices:
Según la variable cuya variación se pretende medir:
DD
✓ Índice de precios: refleja el cambio porcentual de los precios de uno o más
bienes, en un determinado período de tiempo.
✓ Índice de cantidad: refleja el cambio porcentual de las cantidades demandadas
de uno o más bienes, en un determinado período de tiempo.
LA

✓ Índice de valor: refleja el cambio porcentual de lo gastado en uno o más bienes,


en un determinado período de tiempo.
10.2. Construcción de números índices
Consiste en medir cronológicamente, a intervalos de tiempos iguales, el precio y las
FI

correspondientes cantidades de los bienes que intervienen en la canasta.


10.2.1. Nomenclatura:


Este archivo fue descargado de https://filadd.com


10.2.3.3. Índices especiales:
Índice de Laspeyres:

Índice de Paasche:

OM
Índice de Fischer: es el promedio geométrico calculado entre el índice de Laspeyres y el
índice de Paasche.

.C
DD
10.3. Método para la construcción de números índices:
1. Definir la canasta (bienes económicos necesarios para evaluar la evolución de los
LA

precios y/o cantidades a lo largo de un determinado lapso).


2. Determinar cuál de los períodos del lapso será el período base.
3. Mediante muestreo, establecer el precio por unidad y la cantidad demandada de los
bienes de la canasta.
4. Decidir cuál es el índice que proporciona la mejor información.
FI

10.4. Aplicaciones
10.4.1. Deflactación estadística


Las variables, generalmente, están expresadas en dinero. Las variaciones que pueden tener
se deben a dos factores:
- Factores reales: variaciones debidas a los cambios en las cantidades demandadas
de los bienes asociadas a los valores monetarios.
- Factores monetarios: variaciones debidas a los cambios en los precios.
Deflactación estadística: método estadístico que permite eliminar los efectos que las
variaciones de los precios, entre el período base y el período actual, provocan sobre las
variaciones de los valores monetarios.

Este archivo fue descargado de https://filadd.com


Un valor monetario antes de la Deflactación se llama valor nominal o corriente, y después
de la Deflactación se llama valor real o valor constante del año base.
Índice deflactor: es un determinado número índice que se usa para realizar una
Deflactación estadística.
Para realizar una Deflactación se divide un valor nominal por el índice deflactor:

OM
Una serie cronológica expresada en valores nominales puede ser transformada en una serie
de valores reales o valores constantes del año base. Un índice deflactor debe ser un índice

.C
de precios de aquellos bienes que estén asociados con los valores que se quiere deflactar.
10.4.2. Cambio de base: dada una serie cronológica formada por índices de precios, es
posible confeccionar una nueva serie con otro período base de modo tal que se mantenga
DD
la proporcionalidad en los cambios relativos. El método para realizar un cambio de base
consiste en dividir el valor de cada índice de la serie por el índice del período que será
utilizado como nueva base y multiplicar el resultado por 100.
LA
FI

10.4.3. Empalme de series de índices: el índice de Laspeyres es el utilizado para medir las
variaciones de precios. Este índice no tiene en cuenta los cambios tecnológicos, o gustos de
los consumidores. Se debe actualizar periódicamente la canasta. Esta actualización genera


una nueva serie de índice de precios, cuya base será el período en el cual se cambian los
bienes de la canasta. Para mantener la serie histórica, se empalma la serie original con una
nueva serie: Se realiza un cambio de base, recalculando las variaciones tomando ahora
como referencia el nuevo período.

Este archivo fue descargado de https://filadd.com

También podría gustarte