Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Tomo I
Capítulo 1: Introducción
Estadística: ciencia o disciplina científica que crea, desarrolla y aplica métodos para
ordenar, juntar y analizar datos para transformarlos en información útil para la toma de
decisiones y una visión más objetiva.
OM
Experimento: observación planeada de un fenómeno de cualquier tipo con el objetivo de
conocer su comportamiento, poder describirlo y/o tomar una decisión. Se controlan uno o
más de los factores que influyen en una característica específica.
Unidad experimental: cada uno de los entes que son observados en el experimento.
.C
Medición: asignación de valores a cada una de las características que poseen las unidades
experimentales.
Escala de medición: regla preestablecida que consiste en un conjunto de valores que se
DD
asignarán a una característica específica que poseen las unidades experimentales.
- Nominal: se usa únicamente para clasificar a los entes en distintas categorías. Se
usan datos cualitativos.
- Ordinal: clasifica en distintas categorías, y se los clasifica de acuerdo con su rango.
LA
Dato estadístico: valor asignado a una de las características de una unidad experimental,
conforme a la escala de medición que utiliza.
- Cualitativos: valores correspondientes a los atributos o propiedades categóricas que
OM
Muestra: subconjunto de una población sobre la base de la cual se puede hacer un juicio
sobre ésta.
.C
- Estadístico lineal: se utiliza para representar valores de dos variables cuantitativas
presentadas conjuntamente, o mostrar la evolución de una variable cuantitativa. Se
utiliza un sistema de coordenadas cartesianas. El diagrama está formado por líneas
rectas que unen los puntos del plano.
DD
- Estadístico de barras: se usa cuando una de las variables es cualitativa. Consiste en
rectángulos dibujados en un sistema de coordenadas cartesianas. Cada rectángulo
tiene el nombre de barra.
- Gráficos circulares (torta): se usa para comparar partes de un total y su evolución
LA
• Ojiva
OM
Frecuencia absoluta: es la cantidad de datos, o valores observados de una variable, que
pertenecen a una misma clase de equivalencia.
Frecuencia relativa: es el cociente entre la frecuencia absoluta y la cantidad total de
observaciones.
.C
Distribución de frecuencias: es una relación de clasificación de datos que asigna a cada
valor, o grupo de valores que formen una misma clase de equivalencia, de una o más
variables, su correspondiente frecuencia. Se usa para tener los datos estadísticos
DD
organizados, clasificados y distribuidos en distintas clases.
Amplitud total del recorrido: diferencia entre el valor máximo y el valor mínimo.
Intervalos de clase: la amplitud total se divide en clases de equivalencia que deben ser
intervalos.
LA
- Con variable discreta: el rango percentilar para un valor dado queda determinado
directamente por la frecuencia relativa acumulada hasta dicho valor.
- Con variable continua: por un lado, cuando el valor dado coincide con el límite
OM
- Polimodales: si tienen más de un modo
Mediana: el valor que supera y es superado por, a lo sumo, igual cantidad de observaciones.
La ubicación de la mediana dentro del recorrido de la variable se llama orden mediano.
- Para determinar la mediana de una variable cuando los datos están agrupados en
.C
una distribución de frecuencias, se utiliza el orden absoluto de la mediana (OAM).
- Orden relativo de la mediana (ORM): es un valor de frecuencia relativa acumulada.
Características de la mediana:
DD
- El valor de la mediana es igual al Percentil 50.
- El valor de la mediana no se ve afectada por la presencia de valores extremos de la
variable.
- La suma del módulo de las desviaciones con respecto a la mediana es mínima.
LA
OM
Coeficiente de variación: es el cociente entre el desvío estándar y la media aritmética de
dicha variable.
- Si CV < 0,10: la variable es representativa, los datos son homogéneos y poco
dispersos.
- Si CV > 0,10: la variable no es representativa, los datos no son homogéneos y están
.C
dispersos.
Curtosis o apuntamiento: una determinada relación entre la amplitud total y la máxima
frecuencia, que presenta una distribución de frecuencia.
DD
Coeficiente de asimetría: es el cociente entre el momento centrado de orden 3 y la potencia
tercera del desvío estándar.
- Si AS(X) = 0: la distribución es simétrica.
- Si AS(X) > 0: es asimetría positiva. La distribución es asimétrica a la derecha.
LA
Capítulo 4: Probabilidad
OM
Suceso complementario (S): aquel suceso que ocurre si no se presenta el suceso S.
Suceso conjunto: suceso que ocurre si se presentan conjuntamente dos o más de los
sucesos que forman el espacio muestral.
Suceso de unión incluyente: aquel suceso que ocurre si sólo ocurre alguno de los sucesos
que forman el espacio muestral.
.C
Suceso de unión excluyente: suceso que ocurre si sólo ocurre sólo uno de los sucesos que
forman el espacio muestral.
DD
Sucesos compatibles: lo son si y sólo si es posible que se presenten en forma conjunta.
Sucesos incompatibles: la presentación de uno de ellos impide la presentación del o de los
otros.
Axiomas: el número real que se utilizará para medir la tendencia a presentarse que tienen
LA
suceso se le asigna 1.
- Tercer axioma: sean S1 y S2 dos sucesos mutualmente excluyentes a un mismo
espacio muestral, la probabilidad de que se presente alguno de los dos es igual a la
probabilidad de que presente el suceso S1, más la probabilidad de que se presente
el suceso S2.
- Cuarto axioma: sean S1…Sk K sucesos mutuamente excluyentes de a pares,
pertenecientes a un mismo espacio muestral, la probabilidad de que se presente
alguno de ellos es igual a P(S1) + P(S2) + …… P(SK).
Teoremas:
1) Si S es el conjunto vacío, la probabilidad de ocurrencia es 0.
2) La probabilidad de S más la probabilidad de su complemento es igual a 1.
3) Si S1 y S2 son sucesos de un mismo espacio muestral, la probabilidad de que se
presente alguno de los dos, es igual a P(S1) + P(S2) – P(S1S2).
OM
experimento.
Probabilidad condicional: la probabilidad de que se presente el suceso 1 con la condición
de que previamente se presente el suceso 2. →P(S1/S2)
Regla del producto: se usa para calcular la probabilidad conjunta a partir de la probabilidad
condicional. La probabilidad conjunta se saca multiplicando la probabilidad marginal de uno
.C
de ellos y la probabilidad condicional del otro.
Regla de la suma: se calcula la probabilidad de S1 o S2 sumándolos.
DD
Sistema exhaustivo: la suma de las probabilidades marginales correspondientes es igual a
1.
Probabilidad total: P(B) = sumatoria de P(Si) . P(B/Si)
Teorema de Bayes: es la probabilidad de las causas. Solo uno de los sucesos debe ocurrir.
LA
Analiza la probabilidad de que la causa de la presentación del suceso sea uno particular.
Sucesos probabilísticamente independientes: la presentación de uno de ellos no modifica
el valor de probabilidad de presentación del otro o de los otros sucesos.
Si P(S1/S2) = P(S1) y P(S2/S1) = P(S2); lo son.
FI
Probabilidad clásica: cociente entre los casos favorables al suceso aleatorio y los casos
posibles del experimento aleatorio.
Probabilidad frecuencial: frecuencia relativa estabilizada correspondiente a dicho suceso.
Probabilidad subjetiva: valor personal que un sujeto asigna a la ocurrencia del suceso,
basado en su mejor saber y entender.
OM
estos valores, a través del recorrido de la variable, debe ser igual a la unidad. Debe cumplir
con 2 condiciones:
1. Condición de no negatividad: el número real asignado por la función de probabilidad
puntual, al i-ésimo valor de la variable discreta, debe ser no negativo.
2. Condición de cierre: la suma de todos los números reales asignados por la función
.C
de probabilidad puntual, a cada valor de la variable discreta, debe ser igual a uno.
2) Función de Distribución: Se llama así a una función que asigna a cada valor del recorrido,
un número real que representa la suma de todas las probabilidades puntuales, desde el
DD
primero hasta el valor en cuestión. Se gráfica con el escalonado.
3) Función de Distribución Complementaria: función que asigna a cada valor del recorrido,
un número real que representa la suma de todas las probabilidades puntuales, desde el
valor en cuestión hasta el último.
LA
4) Percentiles de Variables Aleatorias Discretas: Se llama percentil de orden k (0 < k < 100
^ kϵR) de una variable aleatoria discreta a un valor xk tal que, hasta el valor de variable
inmediato anterior, se acumule, a lo sumo, una probabilidad igual a k/100 y, desde el valor
de variable inmediato posterior se acumule, a lo sumo, una probabilidad igual a (1-k/100).
FI
OM
3) Función de Distribución Complementaria: Sea X una variable aleatoria continua con
función de densidad de probabilidad f(x) definida en el intervalo de números reales [a;b].
Modelo matemático o función no creciente, que asigna a cada valor de la variable aleatoria
un valor de probabilidad acumulada desde un valor de la variable hasta el límite superior
del recorrido.
4) Percentiles de Variables Aleatorias Continuas: Se llama percentil de orden k (0 < k<100
.C
^ kϵR) de una variable aleatoria continua al valor de la variable xk donde se acumule, una
probabilidad igual a k/100.
DD
Momentos teóricos:
Se llama momento de una variable aleatoria al valor esperado o esperanza matemática de
una función de la variable.
Se llama momento o esperanza matemática de una función generada con una variable
LA
aleatoria discreta, a la suma del producto de cada valor numérico de la función por el
correspondiente valor de probabilidad puntual, a través del recorrido de la variable.
Se llama esperanza matemática de una función generada con una variable aleatoria
continua, a la integral a través del recorrido de la variable, del producto de la función dada
FI
➢ Se llama mediana de una variable aleatoria discreta a un valor tal que, hasta el
valor de variable inmediato anterior, se acumule, a lo sumo, una probabilidad de 0.50 y
desde el valor de variable inmediato posterior se acumule, a lo sumo, una probabilidad de
0.50.
➢ Se llama modo de una variable aleatoria continua a valor de la variable con el que
la función de densidad de probabilidad alcanza un máximo relativo.
Coeficiente de Asimetría:
OM
• Una distribución de probabilidad de una variable discreta es simétrica, si las
probabilidades puntuales correspondientes a valores de la variable que equidistan
de la Media Aritmética Esperada son iguales.
• Una distribución de probabilidad de una variable continua es simétrica, si las
imágenes de la función de densidad de probabilidad correspondientes a valores de
la variable que equidisten de la Media Aritmética Esperada son iguales.
.C
Propiedades de la media y la varianza:
1. El promedio esperado de una constante es la constante misma y la varianza
DD
esperada de una constante es nula.
2. El promedio esperado de la suma de una constante más una variable, es igual a la
constante más el promedio esperado de la variable y la varianza de la suma de una
constante más una variable es igual a la varianza más la variable.
3. La esperanza matemática o promedio del producto de una constante por una
LA
OM
euclidiano R=R(X1) x R(X2), a un modelo matemático o función f(X1 ; X2) que satisfacen las
siguientes condiciones:
1. Condición de no negatividad.
2. Condición de cierre: la suma de estas probabilidades, a través del recorrido de las
dos variables, debe ser igual a la unidad.
.C
Funciones Marginales:
a. Función de Probabilidad Marginal:
DD
Se llama Función de Probabilidad Marginal, de una variable aleatoria discreta X1 cuando se
presenta conjuntamente con otra variable aleatoria discreta X2 a la función de probabilidad
puntual, p(X1), que le asigna a cada valor de la variable aleatoria X1, los valores de
probabilidad, sin tener en cuenta la variación de la variable X2.(Idem con X invertidos).
1. Condición de no negatividad.
LA
1. Condición de no negatividad.
2. Condición de cierre: la suma de estas probabilidades, a través del recorrido de las
dos variables, debe ser igual a la unidad.
Funciones Condicionales:
a. Función de Probabilidad Condicional: Se llama Función de Probabilidad Condicional
de una variable aleatoria discreta, cuando se presenta conjuntamente con otra
variable aleatoria discreta, al cociente entre la función de probabilidad conjunta y la
función de probabilidad marginal de la variable condicionante.
OM
conjunta es igual al producto de las funciones de probabilidad marginal.
2. Si dos variables continuas no son estadísticamente independientes, se
cumple que la función de densidad de probabilidad condicional es igual a
la función de densidad de probabilidad marginal. Por lo tanto, la función
de probabilidad conjunta es igual al producto de las dos funciones de
densidad de probabilidad marginal.
.C
Momento conjunto: Se llama momento conjunto de una variable aleatoria bidimensional a
la esperanza matemática de una función bivariada generada con las variables aleatorias.
DD
Covarianza: Se llama covarianza entre dos variables aleatorias que forman una variable
aleatoria bidimensional, a la esperanza matemática del producto de las desviaciones de
cada una de las variables con respecto a la correspondiente media aritmética esperada.
• Si una variable crece y la otra variable también crece, o si una variable decrece y la
otra también decrece, entonces las variaciones son en el mismo sentido. Las
LA
los promedios esperados más la covarianza entre dichas variables. si las variables
aleatorias son estadísticamente independientes, la covarianza es igual a cero, entonces la
esperanza matemática del producto de dos variables aleatorias es igual al producto de los
promedios esperados de cada una de ellas.
Varianza: La varianza de la suma de dos variables aleatorias es igual a la suma de las
varianzas de dichas variables más el duplo de la covarianza entre ellas.
Si las variables aleatorias son estadísticamente independientes, la covarianza es igual a
cero, entonces la varianza de la suma de dos variables aleatorias es igual a la suma de las
varianzas de cada una de ellas.
OM
determinado atributo A. Los sucesos aleatorios correspondientes son: se presenta o no
presenta.
Permutaciones: Dado un conjunto formado por n elementos, se llama permutación
de n a cualquier arreglo ordenado de los n elementos. La cantidad de permutaciones
que se puedan forman ordenando los n elementos de distinta manera, se calcula
.C
con un número llamado factorial de n. Símbolo: n!
Espacio Continuo: recinto de infinitos puntos donde en cualquiera ellos es posible
encontrar un elemento.
DD
1. Repetición de un experimento aleatorio dicotómico: Cada vez que el experimento
aleatorio dicotómico se repite, los elementos que tengan el atributo que se está
considerando pueden presentarse, o no, es aleatorio, entonces, en las n
repeticiones, pueden aparecer elementos que tengan el atributo o que no lo tengan,
LA
• Parámetros matemáticos: R, N y n.
• Sucesos pendientes.
3. Distribución Binomial: Las n observaciones son independientes. La probabilidad de
que se presente un elemento con un determinado atributo permanece constante a
través de las n pruebas. La probabilidad conjunta es igual al producto de las
probabilidades marginales. La cantidad de elementos con un determinado atributo
que se presentan en n observaciones independientes de un experimento aleatorio
dicotómico es una variable aleatoria discreta, ȓ cuya función de probabilidad es
llamada Distribución Binomial: calcula la propiedad De ocurrencia de sucesos
dicotómicos repetidos independiente.
OM
elementos con cierto atributo.
• Suceso aleatorio dicotómico
• Variable independiente
• Universo infinito desconocido
• parámetros matemáticos: p y r
5. Distribución Poisson: La cantidad de elementos que se presentan al azar en un
.C
continuo de extensión t, y con un promedio de presentación en el continuo igual a
λ, es una variable aleatoria discreta r cuya función de probabilidad es llamada
Distribución de Poisson: probabilidad de encontrar r-éxitos en un espacio continuo
DD
de extensión t. PM: Y
6. Relación entre la distribución de Pascal y la Binomial: La probabilidad puntual de la
distribución pascal se puede calcular utilizando la distribución binomial.
7. Aproximación de Hipergeométrica a binomial: Se hace cuando N es una cantidad
grande en relación a la cantidad de observaciones n, aun cuando sean sin reposición,
LA
probabilidad para una variable con distribución binomial, puede ocurrir que la
cantidad de observaciones n, sea grande y la probabilidad de encontrar un elemento
con el atributo p, sea pequeña. Si n es muy grande el número combinatorio es
incalculable.
OM
2. Función de distribución
3. Función percentilar
4. Esperanza
5. Varianza
6. Desvío estándar
3. Distribución Normal: Una variable aleatoria continua X definida para todos los números
.C
reales, tiene distribución normal, si su función de densidad de probabilidad es: (parámetro
matemático)
DD
1. Alcanza un máximo relativo cuando: x=m
2. Tiene dos puntos de inflexión cuando: x=m-o y x=x+o
3. Es simétrica con respecto al punto de máxima ordenada
4. Es asíntota al eje de abscisas
5. Los parámetros matemáticos son el desvío y la media
LA
6. Simétrica y mesocrática
3. Varianza
4. Desvío estándar
5. Mediana
6. Modo
7. Medidas de forma
OM
variables aleatorias normales independientes, tiene distribución normal.
La combinación lineal, es una suma de producto de variables por constantes no nulas.
.C
las varianzas individuales de cada una de las variables.
• La suma de variables aleatorias normales independientes se distribuye
normalmente.
DD
9. Aproximación de la distribución binomial a la normal: Si la cantidad de observaciones es
suficientemente grande y la probabilidad de encontrar un elemento con un determinado
atributo está cerca de 0,50, los valores de probabilidad de distribución binomial se pueden
calcular con la distribución normal.
LA
Tomo II
Capítulo 1
OM
observables, y que se utilizan para obtener información sobre un hecho particular. Queda
determinado cuando se definen los objetivos del trabajo a realizar. Pueden ser finitos o
infinitos.
Población: cualquier variable particular que estudia a un universo. Cada universo puede
generar varias poblaciones. Pueden ser finitas o infinitas.
.C
Censo: es la medición, en la totalidad de las unidades de las unidades experimentales que
conforman el universo, de todas las variables que previamente hayan sido declaradas
relevantes para la investigación a llevar a cabo.
DD
N: tamaño del universo o de la población cuando corresponda.
Muestra: subconjunto o parte de una población tomada de forma tal que con ella se pueda
hacer un juicio acerca de esa población completa. (n)
Fracción de muestro: cociente entre el tamaño de la muestra y el tamaño de la población.
LA
(n/N)
1.1.2. Inferencia estadística
Inferencia estadística: es cualquier afirmación que se realiza sobre una determinada
FI
población, basándose en los datos obtenidos con una muestra, pudiéndose obtener a partir
del cálculo de probabilidad una determinada medida de la incertidumbre que se genera.
Significa que infiere la población a partir de la muestra.
1.1.3. Muestreo
OM
elementos de juicio suficientes como para suponer que la población es homogénea.
1.1.4. Métodos de obtención de muestras: para garantizar que la obtención de cada uno
de los elementos sea realmente aleatoria, es conveniente la utilización de una tabla de
dígitos al azar.
Muestra: {X1; X2; …; Xn} → F(X1) = F(X2) = … = F(Xn) o P(X1) = P(X2) = … = P(Xn)
.C
1.1.4.1. Muestreo simple al azar (sin reemplazo): consiste en obtener al azar, una muestra
de n elementos, de entre los N que constituyen el universo. Hay que tener en cuenta que
DD
todas las muestras posibles de tamaño n deben tener la misma probabilidad de ser tomada.
Es una combinación de N elementos tomados de a n. se calcula: n/N
1.1.4.2. Muestreo estratificado al azar: cuando la población presenta gran variedad, se
utiliza este método. Consiste en particionar al universo en estratos dentro de los cuales sí
la variable debe presentar homogeneidad. De cada uno de los estratos se obtiene una
LA
OM
comportamiento probabilístico está explicado por una función de probabilidad. Existen
medidas que caracterizan a estas funciones y se las define distinguiendo dos tipos de
universos.
1.2.1.1. universo finito y pequeño: si se tiene un universo finito y suficientemente pequeño
como para que el comportamiento probabilístico de las poblaciones no esté explicado por
.C
un modelo teórico específico, se define:
Parámetro estadístico: toda medida que resume información calculada con las variables
poblacionales.
DD
12.1.2. Universo finito y grande o universo infinito: si una población es finita y lo
suficientemente grande, o infinita, como para que su comportamiento probabilístico esté
explicado por una función de probabilidad, se define:
Parámetro estadístico: todo parámetro matemático de una función de probabilidad o de
LA
Son funciones generadas por variables aleatorias, entones, también son variables
aleatorias.
Estimado de un parámetro: es todo estadígrafo que proporcione información acerca de
dicho parámetro.
Estadígrafo de transformación: es aquel que permite transformar al estimador en una
variable que tenga una determinada distribución de probabilidad.
1.2.3. Estimación: como los parámetros de las poblaciones son desconocidos, se lleva a
cabo el proceso de inferir o sacar conclusiones acerca de éstos a través de las variables
muestrales. Hay dos métodos:
OM
Distribución de probabilidad del estimador: aquella función de densidad de probabilidad,
o función de probabilidad, que describe su comportamiento probabilístico. Si se considera
al muestreo probabilístico como un experimento aleatorio, y si para cada muestra se puede
calcular el valor numérico del estimador, estos valores constituyen la distribución de
probabilidad del estimador.
Sesgo: la diferencia entre la esperanza matemática del estimador y el parámetro a estimar.
.C
Error medio cuadrático: es la esperanza matemática del cuadrado de la diferencia ente el
estimador y el parámetro. Mide la variabilidad del estimador respecto al parámetro que
DD
está estimando.
1.3. Propiedades de los buenos estimadores:
a. insesgamiento
b. eficiencia
LA
c. consistencia.
d. suficiencia.
Estimador insesgado: lo es sí, y solo si la esperanza matemática del estimador es igual al
parámetro. El estimador es insesgado si su sesgo es igual a 0.
FI
OM
relevante acerca del parámetro, contenida en la muestra aleatoria.
1.4. Grados de libertad: es la cantidad de variables libres, o estadísticamente
independientes, que intervienen en un problema o en una distribución asociada a un
problema.
1.5. Algunos estimadores importantes
.C
1.5.1. Media aritmética muestral: es un estimador de la media poblacional, que se genera
haciendo el cociente entre la suma de las variables muestrales y el tamaño de la muestra.
DD
1.5.2. Varianza muestral: es un estimador de la varianza poblacional que se genera
haciendo el cociente entre la suma del cuadrado de las desviaciones con respecto a la media
aritmética muestral y los correspondientes grados de libertad.
1.5.3. Proporción muestral: es un estimador de la proporción poblacional, que se genera
mediante el cociente entre la cantidad de elementos que sí poseen un determinado atributo
LA
OM
toda tarea inferencial referida a la proporción muestral, hay que utilizar la distribución
normal estandarizada.
.C
determinar un conjunto cerrado y acotado de posibles valores del parámetro, cuyos límites
inferior y superior, son funciones del estimador, y la correspondiente probabilidad de que
dicho intervalo cubra el verdadero valor del parámetro. En estimadores no uso intervalo
porque tengo el dato poblacional.
DD
• Intervalo de confianza: se llama así a la probabilidad de que el intervalo de confianza
cubra el verdadero valor del parámetro. Luego de obtener la muestra y asignar los
correspondientes valores numéricos a las variables, el intervalo dejará de ser variable. Los
límites asumirán un determinado valor. El intervalo posiblemente cubrirá al verdadero valor
LA
parámetro.
• Intervalos de confianza aditivos: aquel intervalo que permite que la probabilidad de que
la estimación difiera del parámetro en a lo sumo h veces el desvío estándar del estimador,
sea igual al nivel de confianza. Si se conocen los límites de un intervalo aditivo, la estimación
puntual se puede calcular haciendo la semisuma de los límites del intervalo.
• Error de muestreo: se llama así a la máxima diferencia que se está dispuesto a tolerar
entre el estimador y el parámetro. El error de muestreo mide la precisión de la estimación.
Tamaño de muestra para estimar la media poblacional.
Varianza poblacional conocida: Se realiza teniendo en cuenta:
OM
restricción para el tamaño de la muestra. Población infinita y finita.
Varianza poblacional desconocida:
.C
• Se obtiene un segundo valor de muestra y después un tercer valor.
• Se repite hasta que dos tamaños de muestra consecutivos sean iguales.
DD
Tamaño de muestra para estimar la proporción poblacional. Se realiza teniendo en cuenta:
OM
como la igualdad entre el valor del parámetro y el valor postulado; puede estar
acompañada o no por alguna de las dos desigualdades, según sea el curso de
acción a seguir y la existencia o no de alguna desigualdad equivalente.
Tipos:
1. Hipótesis nula única: cuando no hay desigualdad equivalente. Se postula un único
.C
valor posible para el parámetro.
2. Hipótesis nula múltiple: cuando hay desigualdad equivalente.
• Si la desigualdad equivalente es la desigualdad menor, entonces la hipótesis nula
DD
múltiple es H0: q ≤ q0
• Si la desigualdad equivalente es la desigualdad mayor, entonces la hipótesis nula
múltiple es H0: q ≥ q0
3. Hipótesis alternativa: es aquella hipótesis que debería cumplirse si la hipótesis nula
no es cierta.
LA
Tipos:
1. Hipótesis alternativa única: cuando hay un solo valor alternativo del parámetro,
que debería ser en el caso de que la hipótesis nula no sea cierta.
FI
OM
subconjuntos semicerrados mutuamente excluyentes de igual tamaño. La
prueba es bilateral.
• Región de no rechazo, Ra = (D-RC): subconjunto del dominio D con el que no se
rechaza la hipótesis nula.
• Punto crítico PC: frontera de la región crítica.
o Cuando la prueba es unilateral hay un solo pc.
.C
o Cuando al prueba es bilateral hay dos pc.
• Regla de decisión: establece las pautas para rechazar la hipótesis nula y se enuncia:
si el valor numérico del estadígrafo de prueba pertenece a la región crítica, entonces
DD
se rechaza la hipótesis nula, en caso contrario, si el valor numérico del estadígrafo
de prueba no pertenece a la región crítica entonces no se rechaza la hipótesis nula.
o Si ep ε Rc → se rechaza H0
o Si ep Ɇ Rc → no se rechaza H0
• Error de tipo I: hecho de rechazar la hipótesis nula cuando la hipótesis nula es cierta.
LA
• Error de tipo II: hecho de no rechazar la hipótesis nula cuando la hipótesis nula es
falsa.
• Nivel de significación: probabilidad de cometer el error de tipo I, o sea, a la
probabilidad de rechazar la hipótesis nula cuando es cierta. El nivel de significación
se simboliza con la letra α y mide el tamaño de la región crítica.
FI
OM
Variable explicada (Y): variable cuantitativa cuyo comportamiento se desea describir a
partir del comportamiento de otra u otras variables.
Variables explicativas (X): variables que explican el comportamiento de la variable
explicada.
El análisis de regresión consiste en construir un modelo que permita predecir el valor de la
.C
variable explicada, utilizando valores de k variables explicativas. El modelo tiene dos partes:
la primera, es una función real y la otra es la variable aleatoria que representa la variabilidad
no controlada por las k variables explicativas.
DD
Función de regresión: modelo matemático que interviene en el modelo estadístico de
regresión. F (X1; X2; …; Xk)
Residuo aleatorio: variable aleatoria que forma parte del modelo estadístico de regresión.
Supuestos básicos de la regresión: para poder aplicar el análisis al modelo estadístico de
LA
4) Las variables aleatorias residuales u1; u2, para dos k-erna (X1; X2; …; Xk) son
independientes. La covarianza entre ellas es cero.
5) Es independiente de cada una de las variables explicativas.
Se considera que la variable explicada y las variables explicativas son variables aleatorias
representan poblaciones. Por esto, la función de regresión es una función que relaciona
poblaciones. Es una función poblacional.
7.2.1. Análisis de regresión simple:
Análisis de regresión simple: análisis que se realiza cuando a cada unidad experimental de
un determinado universo se le miden sólo dos variables, una explicativa y una explicada.
Los valores individuales de cada una de ellas se representan como pares ordenados (x;y).
Diagrama de dispersión: representación gráfica de los pares ordenados de los valores de
las variables que intervienen en el análisis de regresión simple.
OM
- ŷ = β0 + β1 . Xi: recta de regresión.
- β0: ordenada al origen. Indica el valor de Y cuando X es igual a cero.
- β1: Pendiente de la recta. Indica la variación promedio de Y cuando X varía en una
unidad.
- uij: variable aleatoria residual.
.C
Un valor individual de la variable residual es la diferencia entre un valor de la variable
explicada y el valor de la recta de regresión para un valor dado de la variable explicativa.
DD
LA
FI
.C
7.2.2.1. Variación individual y variación conjunta: Para hacer el análisis de datos, se
necesita medir la variabilidad total que presentan individualmente cada una de las variables
DD
involucradas, (X e Y) así como también se debe medir la variabilidad que se produce entre
ellas en forma conjunta.
1. Suma de cuadrados de X (SCX): la diferencia entre un valor particular de la variable
explicativa X0 y su media X raya es una desviación de la variable X. si se toman todos
los valores de la variable se puede calcular la suma del cuadrado de las desviaciones
LA
7.2.2.2. Diagrama de puntos muestral: con los puntos que representan los pares de valores
(X;Y) correspondientes a la muestra de tamaño n, se puede graficar un diagrama de puntos
muestral.
7.2.2.3. Estimadores:
Si se simboliza al estimador de la ordenada al origen y al estimador de la pendiente:
- β 0 = b0
- β 1 = b1
- ŷ = b0 + b1 . Xi + ei
OM
7.2.3. Medidas de variabilidad en la regresión: para determinar en que medida el
comportamiento de la variable explicada Y puede estar descrito por el comportamiento de
la variable explicativa X, es necesario desarrollar medidas de variación entre cada valor
muestral de la variable Y, y los correspondientes valores de la recta de regresión estimada.
Desviación total: la diferencia entre un valor individual de Y, y el promedio.
.C
Desviación explicada por la regresión: la diferencia entre el valor de la recta de regresión
estimada, correspondiente al valor X0 y el promedio de la variable Y.
DD
Desviación residual: la diferencia entre un valor individual de Y, y el valor de la recta de
regresión estimada correspondiente al valor X0.
7.2.3.1. Partición de la suma de cuadrados total: la suma de cuadrado de las n desviaciones
totales es una medida de los valores de Y en torno a su media Y raya, es la suma del
cuadrado de las desviaciones de la variable explicada con respecto a su media, o suma de
LA
cuadrados total.
Suma de cuadrados explicada: el primer sumando del segundo término es la suma del
cuadrado de las n desviaciones explicadas por la regresión. Es una medida de la variabilidad
de los valores de la recta de regresión muestral en torno a su medida Y raya.
FI
Grados de libertad: n – 2
7.2.3.2. Varianza residual muestral: es el cociente entre la suma de cuadrados residual y
sus correspondientes grados de libertad. Es un estimador insesgado de la varianza residual
poblacional.
7.2.3.3. Coeficiente de determinación (R2): es el cociente entre la suma de cuadrado
explicada y la suma de cuadrados total. Mide la proporción de la variación total que está
explicada por la regresión.
OM
7.3.1. Análisis de correlación lineal simple: se lleva a cabo cuando la función de regresión
que explica el comportamiento conjunto de las variables es la función afín, o sea, la recta.
7.3.1.1. Coeficiente de correlación lineal poblacional: es el cociente entre la covarianza
entre las variables y el producto de los desvíos estándares de cada una de ellas. Es un
número que está entre -1 y 1:
.C
Rho = -1: perfecta relación lineal inversa entre las variables. Todos los puntos poblacionales
pertenecen a una recta de pendiente negativa.
DD
LA
Rho = 1: perfecta relación lineal directa entre las variables. Todos los puntos poblacionales
pertenecen a una recta de pendiente positiva.
FI
Rho = 0: no hay relación lineal entre las variables. Ya sea porque las variables no están
asociadas o porque la relación entre ellas no es lineal.
.C
Fisher.
OM
del año. Se representa con un coeficiente, llamado coeficiente estacional, que mide la
proporción que el valor de la variable en cada período es mayor o menor al valor de
tendencia o valor medio de la serie.
Movimiento cíclico: fluctuaciones periódicas que pueden ocurrir regularmente dentro de
un lapso de varios años.
.C
Componente residual o aleatoria: factor que provoca variaciones con respecto a modelo,
que no son provocadas por las otras componentes.
Intervalo de predicción: intervalo que se construye con el valor extrapolado de la
DD
tendencia, que posiblemente contenga el valor futuro de la variable, y la correspondiente
probabilidad de que ello ocurra.
OM
cuenta dos reglas:
- El período base debe ser un período de normalidad o estabilidad económica, sino
no reflejan adecuadamente los aspectos dinámicos de las variables que se están
analizando.
- El período base no debería estar muy alejado de los períodos que van a ser objeto
de comparación.
.C
10.1.2. Clasificación de los números índices:
Según la variable cuya variación se pretende medir:
DD
✓ Índice de precios: refleja el cambio porcentual de los precios de uno o más
bienes, en un determinado período de tiempo.
✓ Índice de cantidad: refleja el cambio porcentual de las cantidades demandadas
de uno o más bienes, en un determinado período de tiempo.
LA
Índice de Paasche:
OM
Índice de Fischer: es el promedio geométrico calculado entre el índice de Laspeyres y el
índice de Paasche.
.C
DD
10.3. Método para la construcción de números índices:
1. Definir la canasta (bienes económicos necesarios para evaluar la evolución de los
LA
10.4. Aplicaciones
10.4.1. Deflactación estadística
Las variables, generalmente, están expresadas en dinero. Las variaciones que pueden tener
se deben a dos factores:
- Factores reales: variaciones debidas a los cambios en las cantidades demandadas
de los bienes asociadas a los valores monetarios.
- Factores monetarios: variaciones debidas a los cambios en los precios.
Deflactación estadística: método estadístico que permite eliminar los efectos que las
variaciones de los precios, entre el período base y el período actual, provocan sobre las
variaciones de los valores monetarios.
OM
Una serie cronológica expresada en valores nominales puede ser transformada en una serie
de valores reales o valores constantes del año base. Un índice deflactor debe ser un índice
.C
de precios de aquellos bienes que estén asociados con los valores que se quiere deflactar.
10.4.2. Cambio de base: dada una serie cronológica formada por índices de precios, es
posible confeccionar una nueva serie con otro período base de modo tal que se mantenga
DD
la proporcionalidad en los cambios relativos. El método para realizar un cambio de base
consiste en dividir el valor de cada índice de la serie por el índice del período que será
utilizado como nueva base y multiplicar el resultado por 100.
LA
FI
10.4.3. Empalme de series de índices: el índice de Laspeyres es el utilizado para medir las
variaciones de precios. Este índice no tiene en cuenta los cambios tecnológicos, o gustos de
los consumidores. Se debe actualizar periódicamente la canasta. Esta actualización genera
una nueva serie de índice de precios, cuya base será el período en el cual se cambian los
bienes de la canasta. Para mantener la serie histórica, se empalma la serie original con una
nueva serie: Se realiza un cambio de base, recalculando las variaciones tomando ahora
como referencia el nuevo período.