Está en la página 1de 24

ESTADISTICA – RESUMEN TEORICO.

DEFINICION: La Estadística es una ciencia con base matemática referente a la recolección, análisis e
interpretación de datos, numéricos o no, a través del método científico con el fin de contribuir a tomar
decisiones racionales. En su origen, la estadística estuvo asociada a datos utilizados por el gobierno y
cuerpos administrativos, actualmente es aplicable en una amplia variedad de disciplinas

CONCEPTOS BASICOS:

- POBLACION: Es el conjunto de elementos de referencia, generalmente inaccesible y que reúne


características determinadas, sobre el que se realizan las observaciones. Puede estar constituida
por animales, plantas, artículos o cosas. También es llamada universo o colectivo.

- MUESTRA ESTUDIADA: Es el grupo de elementos en el que se recogen los datos y se realizan las
observaciones, debe ser un subconjunto representativo de la población, accesible y limitado.

- PARAMETRO: Es una medida descriptiva de alguna característica de la población.

- ESTADISTICO: Es una medida descriptiva que resume una característica de una muestra de la
población.

RAMAS DE LA ESTADISTICA

- ESTADISTICA DESCRIPTIVA: Se dedica a los métodos de recolección, tabulación, análisis,


presentación e interpretación de datos originados a partir de los fenómenos en estudio, a fin de
describir en forma apropiada sus principales y diversas características. Los datos pueden ser
resumidos numérica o gráficamente.

- INFERENCIA ESTADISTICA: Se dedica a la generación de los modelos y predicciones asociadas a


los fenómenos en cuestión teniendo en cuenta la aleatoriedad de las observaciones muestrales.
Se usa para modelar patrones en los datos y extraer conclusiones acerca de la población.

ESTADISTICA DESCRIPTIVA

Dos formas de recolección:

- CENSO: Recuento de individuos que conforman una población estadística, definida como un
conjunto de elementos de referencia sobre el que se realizan las observaciones. Consiste en
obtener el numero total de individuos mediante diversas técnicas de recuento. Trabaja sobre la
población muestral.

- MUESTRA: Es el grupo de sujetos que se utilizaran como objeto de estudio en una investigación.
Estudiar muestras en lugar de poblaciones ahorra tiempo y costos, sirve cuando es inaccesible
estudiar la población completa, aumenta la calidad del estudio, reduce la heterogeneidad de una
población al indicar criterios de inclusión y exclusión.
TIPOS DE MUESTRAS

MUESTREO ALEATORIO SIMPLE: Cada uno de los elementos de una población


tiene la misma posibilidad de ser elegido, de lo contrario la muestra está viciada.
Tiene poca o nula utilidad práctica cuando la población objetivo es muy grande y
heterogénea.

MUESTREO ALEATORIO SISTEMÁTICO: Los elementos son seleccionados en una


manera ordenada que depende del numero de elementos incluidos en la
población y el tamaño de la muestra. El riesgo de este tipo de muestreo está en
los casos en que se dan periodicidades en la población, ya que al elegir a los
miembros de la muestra con una periodicidad constante (k) puede ocurrir que se
introduzca una homogeneidad que no se da en la población.

MUESTREO ALEATORIO ESTRATIFICADO: Una muestra es estratificada cuando los


MUESTRAS elementos de la muestra son proporcionales a su presencia en la población con el
PROBABILISTICA fin de dar representatividad a los distintos factores que integran la población
S estudiada. La presencia de un elemento en un estrato excluye su presencia en
otro. Se clasifican en:

Afijación Simple: A cada estrato le corresponde igual número de elementos


muestrales.
Afijación Proporcional: La distribución se hace de acuerdo con el peso de la
población en cada estrato.
Afijación Optima: Se considera la proporción y la desviación típica. Tiene poca
aplicación.

MUESTREO POR CONGLOMERADOS: En el muestreo por conglomerados la


unidad muestral es un grupo de elementos de la población que forman una
unidad a la que se llama conglomerado. El muestreo por conglomerados consiste
en seleccionar aleatoriamente un cierto numero de conglomerados y en
investigar después todos los elementos pertenecientes a los conglomerados
elegidos. Usualmente produce un mayor error muestral.

MUESTREO INTENCIONADO El investigador selecciona los elementos que a su


juicio son representativos, lo que exige un conocimiento previo de la población
que se investiga.

MUESTRAS NO MUESTREO POR CUOTAS: Se divide a la población en estratos o categorías y se


PROBABILISTICA asigna una cuota para las diferentes categorías en relación con la poblacion, y a
S juicio del investigador se selecciona las unidades de muestreo. Se presta a
distorsiones al quedar a criterio del investigador la selección de las categorías.

MUESTRO BOLA DE NIEVE: Se localiza a algunos individuos, los cuales conducen a


otros, y estos a otros, hasta conseguir una muestra suficiente. Se usa en
poblaciones marginales.
VARIABLE: Una variable es una característica que varia de un elemento a otro de la población o de la
muestra, y es lo que se estudia en cada individuo de la misma. Los datos son los valores que toma la
variable en cada caso. Se debe además concretar la escala de medición que se aplica a cada variable. Se
simboliza con letra mayúscula y sus valores con la misma letra en minúscula y subíndices .

CLASIFICACION SEGÚN SU NATURALEZA ESCALA DE MEDICIÓN:

CUALITATIVAS: Aquellas que no son susceptibles ESCALA NOMINAL: Se utiliza cuando las
de medición numérica. Representan cualidades y categorías de una variable cualitativa no tienen
atributos que se expresan en categorías. naturalmente un orden establecido.

ESCALA ORDINAL: Se utiliza cuando las categorías


de una variable cualitativa tienen naturalmente
un orden o jerarquía establecidos.

CUANTITATIVAS: Aquellas susceptibles de ESCALA DE INTERVALO: Se caracteriza por


medición numérica. Sus valores provienen de la existencia del cero convencional que no
medir o de contar los elementos de la población o significa “ausencia de…”, y porque la escala de
de la muestra. Según que se generen contando o intervalo no permite establecer proporciones
midiendo, estas variables se clasifican en entre los valores de la variable.
discretas y continuas.
ESCALA DE RAZÓN: Se caracteriza por la
- Variables cuantitativas DISCRETAS: Sus existencia del cero natural, que significa
valores provienen de contar y asumen números “ausencia de…”, y porque la escala de razón
enteros. permite establecer proporciones entre los valores
de las variables.
- Variables cuantitativas CONTINUAS:
Provienen de efectuar mediciones. Se
caracterizan porque entre dos valores
cualesquiera de la variable existen infinitos otros
valores. Sus valores pueden asumir números con
cifras decimales.

TABULACION DE DATOS

SERIE SIMPLE: Es un conjunto de pocos datos (generalmente n < 30 datos). Una forma adecuada de
representar y ordenar una serie simple es mediante el diagrama de tallo y hojas.

DIAGRAMA DE TALLO Y HOJAS: Cada número se divide en dos partes, una que llamaremos
"Tallo", formado por uno o más dígitos principales (cifras más significativas), ubicados a la izquierda del
número y la otra denominada "ramas u hojas”, resto de los números (cifras secundarias) ubicadas a la
derecha.
Objetivos: Representación visual de la información, descubrir un patrón de comportamiento de los
datos, identificar si hay valores extremos o datos anormales en la muestra.
DISTRIBUCIONES DE FRECUENCIA: Es una tabla de resumen en la que los datos se agrupan o
arreglan en clases o categorías ordenadas en forma numérica, establecidas de modo conveniente.

- Datos agrupados sin intervalos: se utiliza cuando la variable, sea discreta o continua, presenta
pocos valores diferentes entre sí, repetidos muchas veces cada uno.

- Datos agrupados en intervalos: se utiliza esta forma de distribución de frecuencias, cuando la variable,
sea discreta o continua, presenta muchos valores diferentes entre sí repetidos muchas veces.

-
REPRESENTACION GRAFICA

Variable cualitativa: Generalmente se usan barras horizontales.

Variable cuantitativa:

- Datos agrupados sin intervalos: Gráfico de bastones.

- Datos agrupados en intervalos: Histograma y polígono de frecuencias.

El gráfico de barras adyacentes constituye el histograma de frecuencias absolutas, y la línea quebrada que
une los puntos medios de los lados superiores de los rectángulos es el polígono de frecuencias absolutas.

FRECUENCIAS RELATIVAS: Se utilizan para saber qué proporción o porcentaje de observaciones tiene
un determinado valor, o están comprendidas en un intervalo determinado, respecto al total de las observaciones
realizadas. Se simboliza ri y se obtiene dividiendo la frecuencia absoluta por n. ri= fi/ n

FRECUENCIAS ACUMULADAS: Las Fi ↓ se utilizan cuando se desea averiguar cuántas observaciones de


la variable son menores o iguales que una de ellas determina, mientras que las F i ↑ son más apropiadas cuando
se necesita saber qué cantidad de observaciones de la variable son mayores o iguales que alguna de ellas.

REPRESENTACION GRAFICA:

- En datos agrupados sin intervalos: La representación gráfica es un diagrama escalonado, en


este caso el escalón más alto le corresponde a una ordenada igual a n. Fi ↓ genera un gráfico
escalonado creciente, mientras que Fi↑ genera una escalera descendente. El punto de
intersección de ambas curvas corresponde a la Mediana.

- En datos agrupado con intervalos: La representación gráfica es un diagrama con una línea curva
llamado polígono de frecuencias acumuladas u “ojiva”. Si se genera un gráfico con ambos tipos
de frecuencias acumulativas, el punto de intersección de las ojivas corresponde a la Mediana.

DIAGRAMA DE CAJA O BOXPLOTS: Es un gráfico que basado en cuartiles que suministra información
sobre la mediana, el cuartil Q1 y Q3, la existencia de valores atípicos y la simetría de la distribución.
Este diagrama se usa cuando se necesita la mayor información acerca de la distribución de los datos.
La ventaja que posee con respecto a los demás diagramas es que este grafico posee características como
centro y dispersión de los datos, y la principal desventaja que posee es que no presenta ninguna
información acerca de las frecuencias que presentan los datos.
MEDIDAS DESCRIPTIVAS

MEDIDAS DE TENDENCIA CENTRAL: Indican los valores centrales de la variable hacia los cuales tienden
a agruparse las observaciones. Comúnmente se los llama promedios.

MEDIA ARITMETICA: Calculable en distribuciones con escala relativa e intervalar


Es el valor obtenido sumando las Todos los valores son incluidos en el cómputo de la media
observaciones y dividiéndolas por Se puede hallar solo para variables cuantitativas
el número de observaciones. Es muy sensible a observaciones extremas
No se puede calcular si hay un intervalo abierto
Es sensible a cualquier cambio en los datos.

MEDIANA: Aquel valor que divide Su aplicación se ve limitada ya que solo considera el orden
al conjunto en dos partes iguales, jerárquico de los datos y no alguna propiedad propia de los datos.
de forma que el numero de Los valores extremos no tienen efectos importantes sobre esta
valores mayor o igual a la Es de cálculo rápido e interpretación sencilla
mediana es igual al número de Calculable, aunque el intervalo inferior o superior no tenga limites
valores menores o igual a estos. Es difícil de utilizar en inferencia estadística.

MODA: Es el valor mas frecuente. No tiene sentido en muestras pequeñas en las que la aparición de
coincidencias en los valores es con gran frecuencia mas producto
del azar que de otra cosa.
Su cálculo es simple, pero es el estadístico de mayor varianza.
Puede no existir y cuando existe no es necesariamente única.

MEDIA GEOMETRICA: La media Se usa para promediar porcentajes, índices y cifras relativas
geométrica de un conjunto de n Se usa para determinar el incremento porcentual promedio en
números positivos se define ventas, producción o series económicas de un periodo a otro.
como la raíz enésima del El logaritmo de la media geométrica es igual a la media aritmética
producto de los n números. de los logaritmos de los valores de la variable.
Considera todos los valores de la distribución y es menos sensible
que la media aritmética a los valores extremos.
Es difícil de calcular e interpretar.

MEDIA ARMONICA: La media Se puede pasar de media armónica a media aritmética.


armónica de una cantidad finita Considera todos los valores de la distribución
de números es igual al inverso de Es sensible a los valores más pequeños
la media aritmética de los No se puede determinar en las distribuciones con valores nulos
inversos de dichos valores.

Otras medidas de posición: CUARTILES: Separa en cuatro partes iguales el conjunto ordenado
de observaciones, cada división se conoce como Cuartil.
QUINTILES: Separa en cinco partes iguales la población.
DECILES: Separan en diez partes iguales la población.
PERCENTILES: Separa en cien partes iguales la población
MEDIDAS DE DISPERSIÓN: Miden la cantidad de variación, desperdigamiento o diseminación de los
datos alrededor de los valores centrales.

RANGO O RECORRIDO Se simboliza con R.


ESTADISTICO: Es la diferencia El medio rango de un conjunto de valores numéricos es la media
entre el valor mínimo y el valor del menor y mayor valor.
máximo en un grupo de números El rango intercuartílico es la diferencia entre el tercer y el primer
aleatorios. Mide la variabilidad de cuartil e indica en cuantas unidades de los valores que toma la
la mitad central de los datos. variable se concentra el cincuenta por ciento centrales de los
casos.

VARIANZA: Es una medida Es siempre positiva.


estadística que mide la dispersión Para su cálculo se utilizan todos los datos de la distribución por lo
de los valores respecto a un valor que cualquier cambio de valor es detectado.
central (media). Cuanto mas se alejan los datos de la media, mayor es su valor.
Al aumentar el tamaño de la muestra disminuye la varianza.
Es difícil de interpretar.

DESVIACION TIPICA O Se halla como la raíz cuadrada positiva de la varianza.


ESTANDAR: Cuanto mayor sea su valor, más dispersos estarán los datos.
Informa sobre la dispersión de Se representa con S.
los datos respecto a la media.

COEFICIENTE DE VARIACIÓN: Es una medida de dispersión relativa de los datos que permite comparar
la dispersión o variabilidad de dos o más grupos y se calcula dividiendo la desviación típica muestral
por la media y multiplicando por 100.

DESVIACIÓN MEDIA: Es la media aritmética de las desviaciones absolutas de los valores de la variable
con respecto a la media.

DESVIACIÓN MEDIANA: Es la media aritmética de las desviaciones absolutas de los valores de la


variable con respecto a la mediana.

MEDIDAS DE DISTRIBUCION: Describen la manera en que los datos tienden a reunirse de acuerdo con
la frecuencia con que se hallen dentro de la información.

COEFICIENTE DE ASIMETRÍA: Asimétrica positiva: Cuando la mayoría de los datos se


Permite identifica si los datos se encuentran por encima del valor de la media.
distribuyen de forma uniforme Simétrica: Cuando se distribuyen aproximadamente la misma
alrededor del punto central. cantidad de valores en ambos lados de la media.
Asimétrica negativa: Cuando la mayor cantidad de datos se
aglomeran en los valores menores que la media.

COEFICIENTE DE CURTOSIS: Leptocúrtica: Existe una gran concentración de valores.


Determina el grado de Mesocúrtica: Concentración normal de valores.
concentración que presentan los Platicúrtica: Concentración baja de valores.
valores en la región central de la
distribución.

TABLAS ESTADISTCIAS: Son más útiles que los gráficos cuando se desea obtener un valor exacto de los
hechos, ya que la gráfica solo aporta una aproximación del valor.

- Tablas para propósitos generales: Proporcionan información para referencia o uso general,
sirven como deposito de información. Incluyen información detallada.
- Tabla para propósitos especiales: Proporcionan información para una exposición particulares.
Debe ser diseñada de manera que un lector pueda dirigirse fácilmente a la tabla para
comparación, análisis o énfasis concerniente a la exposición particular.

Partes principales:

- Título: Es una descripción del contenido de a la tabla o del cuadro. Debe ser compacto y
completo.

- Encabezado: Es el titulo de la parte superior de una columna. A veces se incluye subencabezado.

- Concepto o columna matriz: Usualmente representan las clasificaciones de las cifras incluidas en
el cuerpo de la tabla. Pueden dividirse en subconceptos de ser necesario.

- Cuerpo: Es el contenido de los datos estadísticos que están arreglados de acuerdo a las
descripciones o clasificaciones de los encabezados y conceptos.

- Nota de encabezado: Se usan para explicar ciertos puntos relacionados con la tabla completa
que no han sido incluidos en el titulo ni en los encabezados ni en los conceptos.

- Nota de pie: Son usadas para clarificar algunas partes incluidas en la tabla que no son explicadas
en otras partes.

- Fuente: Indica el origen de los datos presentados.

GRAFICOS: Proporcionan una apreciación integral del fenómeno en estudio y permite sacar
conclusiones a simple vista que difícilmente podrían extraerse de un cuadro estadístico.

Partes de un gráfico:

- Título: Es una descripción del contenido del gráfico. Debe ser compacto y completo.

- Escalas: Es la relación entre la unidad del dibujo y de la variable que desea representarse.

- Diagramas: Son los dibujos que se utilizan para representar gráficamente los datos estadísticos;
pueden ser líneas, barras, áreas geométricas, símbolos, mapas, etc.

- Fuente: La Fuente es una nota que indica de donde provienen los datos tomados como base para
construir la gráfica. Se colocará en la parte inferior de la gráfica.
TIPOS DE GRAFICOS:

Gráficos de LINEAS: Se utilizan para graficar la evolución de la variable a través del tiempo. En un
sistema de ejes coordenados se hace corresponder al eje de abscisas el tiempo y al eje de ordenadas se
hace corresponder la variable cuya evolución se estudia.

Gráfico de FAJAS: Este tipo de gráfico se utiliza para representar la evolución de un fenómeno y de sus
partes componentes. Una variante son las fajas porcentuales.

Gráficos de BARRAS O BASTONES: Se utilizan cuando se trata de representar atributos que no tienen
variación continua. Las barras son rectángulos, cuyo ancho es el mismo para todas las barras dibujadas,
mientras que la longitud de cada barra indica los datos representados. Hay espacios de igual amplitud
entre barras individuales, pudiendo ser esa amplitud desde la mitad del ancho de las barras hasta el
ancho mismo de las barras. Pueden ser verticales u horizontales, superpuestas, comparativas, etc.

Comparación entre gráficos de líneas y gráficos de barras:

- Las gráficas de barras son efectivas para enfatizar unos pocos ítems de una o dos series de
datos, mientras que las gráficas de líneas son preferibles para representar muchos ítems en una
o varias series de datos.

- Los gráficos de barras enfatizan las diferencias entre ítems individuales, pero los gráficos de
líneas enfatizan los cambios continuos o tendencia general entre los ítems.

- Las gráficas de barras son usadas frecuentemente para representar datos clasificados mediante
cualquier base, las gráficas de líneas se usan principalmente para representar datos clasificados
por tiempo, o sea, series de tiempo o series cronológicas.

- Se necesita más tiempo para dibujar barras en una gráfica de barras que para marcar puntos y
conectarlos mediante líneas rectas en una gráfica de líneas.

Gráficos de SILUETAS: Son especialmente útiles para representar las variaciones positivas y negativas
respecto de un valor fijo. Pueden ser verticales u horizontales.

Gráfico de SECTORES CIRCULARES: Se utilizan cuando se quiere representar la distribución de un


atributo en sus partes componentes. También se los llama gráficos de pastel. Se divide un círculo en sus
partes componentes proporcionales de acuerdo a las cifras porcentuales que se quieren representar.

Gráficos ANGULARES: Se utilizan en casos especiales para representar datos mensuales en el transcurso
de un año. Se construyen trazando una circunferencia cuyo radio es equivalente al promedio aritmético
de los valores observados, los cuales se representan gráficamente sobre 12 radios vectores
correspondientes a cada uno de los meses del año. Luego se unen los puntos obtenidos con una línea
quebrada.
Gráfico en Z: El gráfico en Z consiste en representar datos mensuales, conjuntamente con los datos
acumulados en el año y totales acumulados procedentes de años anteriores. Se necesitan dos escalas,
una para los datos mensuales y acumulados del año y otra para los acumulados totales. Se utiliza el
diagrama de líneas para representar cada ítem
NUMEROS INDICES: Es una cifra descriptiva del cambio en el volumen de un agregado dado con el
tiempo o de un lugar a otro. Los números índices relacionan una o varias variables de un periodo dado
con la misma variable o variables en otro periodo, llamado periodo base.

CLASIFICACIÓN:

INDICES UNIVEARIABLES: Su función principal es transformar las magnitudes absolutas de una variable
en un numero relativo, para facilitar la comparación de los cambios en la variable con el transcurso del
tiempo. Se los suele llamar precios relativos y cantidades relativas. La variación porcentual representa el
cambio registrado en una variable entre dos periodos en cifras porcentuales.

INDICES COMPUESTOS:

INDICES SIMPLES

ÍNDICES AGREGADOS: Un índice Considera a cada articulo como de igual importancia por lo que los
de precios agregado simple para artículos mas costosos tienen influencia excesiva.
el periodo n, es el cociente Carece de sentido cuando los precios están referidos a distintas
entre la suma de precios en unidades del producto.
dicho periodo y la suma de
precios en el periodo base,
expresado como un porcentaje.

PROMEDIOS DE RELATIVOS: Evitan la dificultad de estar influidos por las unidades en que se
Pueden ser aritmético o cotizan los precios o por el nivel absoluto de los precios individuales.
geométrico. Se construyen Al considerar todos los relativos igualmente importantes no son
calculando promedios de los significativos como medida de la forma en la cual los cambios en los
relativos de precios o de precios afectan grandes grupos de consumidores.
cantidades. Sufren la influencia excesiva de grandes aumentos en porcentaje de
los precios.

INDICES PONDERADOS: Una ponderación representa la importancia relativa del articulo con respecto
a los otros artículos incluidos en el cálculo. Los números índices mejoran sensiblemente cuando se
introducen en su construcción sistemas de ponderación apropiados.

INDICES PONDERADOS AGREGADOS

ÍNDICES DE LASPEYRES: El índice de precios de Laspeyres indica el cambio en el valor


Se calculan utilizando como agregado de la lista de productos del periodo base, cuando son
ponderaciones las cantidades o valuados a precios del periodo base y del periodo dado.
los precios del periodo base. Siempre pueden hacerse comparaciones de precios entre un
periodo y otro.
Tiene un patrón estático de consumo o de producción, el cual se
desactualiza y se vuelve más irreal cuanto más tiempo transcurre.

ÍNDICE DE PAASCHE: El índice de precios de Paasche indica el cambio en el valor


Se calculan utilizando como agregado de la lista de productos del periodo dado, cuando son
ponderaciones los precios o las valuados a precios del periodo base y del periodo dado.
cantidades del periodo dado, o Se refleja mejor la importancia relativa d ellos artículos, así como
actual. los cambios en las condiciones económicas de producción,
ventas, compras.
Solo pueden hacerse comparaciones apropiadas entre cada
periodo y el periodo base, no entre periodos cualquiera
Obtener una lista adecuada de ponderaciones en cada periodo
seria muy laborioso y costoso.

ÍNDICE DE PONDERACION FIJA: Evitan los sesgamientos de precios inherentes en los índices de
Establecidas en un punto Laspeyres y Paasche, y permiten una comparación directa entre
particular en el tiempo o un periodo y otro de los movimientos de precios, además de las
desarrolladas como un promedio comparaciones entre cada periodo y la base. R
de varios periodos de tiempo.

ÍNDICE IDEAL DE FISHER: Mientras que el índice de Laspeyres tiende a dar mayor peso a los
Es el promedio geométrico entre artículos cuyos precios aumentaron y el Índice de Paasche tiende
el Índice de Laspeyres y el Índice a restar peso a los artículos cuyos pesos aumentaron; el Índice
de Paasche. ideal de Fisher corrige esas tendencias y logra un índice más real.

INDICES DE PROMEDIOS DE RELATIVOS: Se calculan de la misma manera que los índices promedios
simples de relativos, con la variante de que se introducen ponderaciones apropiadas. Las fórmulas son
idénticas a las de los índices agregados ponderados.

INDICES DE VALORES: Es el cambio en el valor de un agregado de valores. Permite realizar la prueba


de consistencia de los índices de precios y de cantidades, la cual significa que el producto de precios y
de cantidades debe producir un índice de valores. Si el índice de precios se pondera con las cantidades
del periodo base, el de cantidades debe ponderarse con los precios del periodo actual, y viceversa.
INDICES DE PRODUCTIVIDAD: La productividad es la eficiencia en la producción y se mide por la
división entre producción e insumos. En la practica se acostumbra calcular con un solo insumo: La
mano de obra, las unidades la misma se miden en horas-hombre.

AJUSTES DE NUMEROS INDICES

Cambio de base: Se debe procurar que el período base elegido sea lo más representativo posible, y no
muy alejado del período actual. Cuando dicho período base pierde representatividad con el tiempo, es
necesario cambiarlo por uno más reciente. Para obtener los números índices con el período base
cambiado, se utiliza el método de la regla proporcional, que consiste en: “dividir cada uno de los índices
anteriores por el índice correspondiente al nuevo período base, y multiplicando por 100”.

Empalme de índices: Cuando las ponderaciones de un número índice quedan inadecuadas, se puede
obtener otro índice con nuevas ponderaciones. Así se presenta el problema de empalmar las dos series
de números índices a partir del nuevo periodo base. Se debe establecer que la nueva serie de índices
tenga un valor de 100 en el período base nuevo deseado, y se compara con el valor correspondiente a la
serie de índices antigua para el mismo período. Se puede reconstruir la nueva serie de índices hacia
atrás en el tiempo, utilizando la ecuación de cambio de base.

APLICACIONES DE LOS INDICES DE PRECIOS

- Clausulas ajustadas al costo de vida: Proporcionan un cambio de salario automático


proporcional al cambio de los precios al consumidor, protege el nivel de vida.

- Condiciones de intercambio: Cuando en el cambio internacional intervienen muchos artículos,


las condiciones de intercambio se definen como la razón del índice de precios de importación al
índice de precios de exportación.

- Poder adquisitivo del dinero: Se obtiene mediante la inversa del índice de precios al
consumidor. A medida que aumenta el IPC, disminuye el poder adquisitivo del dinero.

- Salario real: Para medir el poder de compra del salario en dinero puede deflacionarse mediante
el índice de precios al consumidor.

- Deflación estadística: Es un método mediante el cual los efectos de los cambios de precios en los
valores de vienes y servicios se eliminan empleando un índice adecuado de precios denominado
deflactor. La técnica de la deflación implica dividir los montos monetarios nominales por el IPC
elegido como deflactor adecuado
- Actualización de montos monetarios de un periodo anterior: Consiste en determinar un
coeficiente de actualización mediante el cociente entre el índice de precios del periodo actual y
el índice de precios vigente al momento de contraer la deuda, y ese coeficiente se multiplica por
el monto inicial de la deuda.
PROBABILIDAD

EXPERIMENTOS O FENOMENOS ALEATORIOS: Son los que pueden dar lugar a varios resultados, sin que
puede ser previsible enunciar con certeza cuál de estos va a ser observado en la realización del
experimento.

ESPACIO MUESTRAL: Es el conjunto formado por todos los posibles resultados de un experimento
aleatorio, es decir, es el conjunto de todos los puntos muestrales. Se designa S.

PUNTO MUESTRAL: Cada resultado posible de un experimento aleatorio.

DIAGRAMA DE ARBOL: Es una forma grafica de representar un espacio muestral correspondiente a un


experimento aleatorio.

SUCESO ALEATORIO: Es un acontecimiento que ocurrirá o no, dependiendo del azar. Es un subconjunto
del espacio muestral. Cada uno de los subconjuntos del espacio muestral S es un suceso.

OPERACIONES CON SUCESOS:

Dados dos sucesos, A y B:

- Unión: Es el suceso formado por todos los elementos de A y todos los elementos de B.

- Intersección: Es el suceso formado por todos los elementos que son, a la vez, de A y de B.

- Diferencia: Es el suceso formado por todos los elementos de A que no son de B.

- Suceso contrario: El suceso A = E – A se llama suceso contrario de A.

- Sucesos incompatibles: No tienen ningún elemento en común.


LEYES DE MORGAN:

- El suceso contrario de la unión de dos sucesos es la intersección de sus sucesos contrarios

- El suceso contrario de la intersección de dos sucesos es la unión de sus sucesos contrarios

SUCESOS COLECTIVAMENTE EXHAUSTIVOS: Cuando entre todos constituyen el espacio muestral.

DEFINICION DE PROBABILIDAD:

TEORÍA CLASICA - Definición de Laplace: En el caso de que todos los sucesos elementales del espacio
muestral E sean equiprobables, Laplace define la probabilidad del suceso A como el cociente entre el
numero de resultados favorables a que ocurra el suceso A en el experimento y el numero de resultados
posibles del experimento.

TEORÍA DE LA FRECUENCIA RELATIVA: La probabilidad de un suceso es el numero al que tiende la


frecuencia relativa asociada al suceso a medida que el numero de veces que se realiza el experimento
crece. Presenta el inconveniente de tener que realizar el experimento un gran numero de veces y
además siempre obtendremos un valor aproximado a la probabilidad.

TEORÍA PERSONALISTA: Considera la probabilidad como una medida de la confianza personal en la


ocurrencia de un suceso. Un subjetivista asigna un peso entre cero y uno a un suceso, según su grado de
creencia en su posible ocurrencia.

DEFINICIÓN AXIOMATICA: La definición axiomática de probabilidad se debe a Kolmogorov, quien


consideró la relación entre la frecuencia relativa de un suceso y su probabilidad cuando el numero de
veces que se realiza el experimento es muy grande.
TEOREMAS:

- Ley de no negatividad

- Ley aditiva especial

- Ley aditiva general

Para tres sucesos

- Ley de complementación

- Ley multiplicativa especial

- Ley multiplicativa general


PROBABILIDAD CONDICIONAL: En el cálculo de las probabilidades de algunos sucesos, el valor de dicha
probabilidad variara en función del conocimiento de determinadas informaciones relativas a estos
sucesos. El hecho de disponer de información adicional tiene como consecuencia la reducción del
espacio muestral a un subconjunto del mismo.

Para determinar la probabilidad de B, conociendo que el elemento seleccionado pertenece a A, no es


necesario utilizar el espacio muestral S, sino una porción del mismo, el espacio muestral reducido, A.

PROBABILIDAD CON SUCESO INDEPENDIENTES Y DEPENDIENTES

Sucesos independientes: Decimos que dos sucesos A y B son independientes entre sí si la ocurrencia de
uno de ellos no modifica la probabilidad del otro. Cuando la selección aleatoria es con reposición.

Sucesos dependientes: Decimos que dos sucesos A y B son dependientes entre sí si la ocurrencia de uno
de ellos modifica la probabilidad del otro. Cuando la selección aleatoria es sin reposición.

PROBABILIDAD TOTAL
SISTEMA COMPLETO DE SUCESOS: Una familia de sucesos que no se intersectan entre sí y que entre
todos ellos forman el suceso seguro.

TEOREMA DE LA PROBABILIDAD TOTAL: Sea un sistema completo de sucesos tales que la probabilidad
de cada uno de ellos es distinta de cero, y sea B un suceso cualquier del que se conocen las
probabilidades condicionales P(B/A), entonces la probabilidad del suceso B viene dada por la expresión:

P(B) = P(A1). P(B/A1) + P(A2). P(B/A2) +… P(An). P(B/an)

TEOREMA DE BAYES: Sea un sistema completo de sucesos, tales que la probabilidad de cada uno de
ellos es distinta de cero, y sea B un suceso cualquiera del que se conocen las probabilidades
condicionales P(B/A), entonces la probabilidad P(A/B) viene dada por la expresión:

P(A1/B) = P(A1). P (B/A1)


P(A1). P(B/A1) + P(A2). P(B/A2) + … P(An). P(B/An)
VARIABLE ALEATORIA: Una variable es aleatoria si toma diferentes valores como resultado de un
experimento aleatorio. Puede ser discreta o continua. Si puede tomar solo un numero limitado de
valores, entonces es una variable aleatoria discreta, mientras que, si puede tomar cualquier valor dentro
de un intervalo dado, entonces es una variable aleatoria continua. Los valores de una variable aleatoria
son los valores numéricos correspondientes a cada posible resultado de un experimento aleatorio.

FUNCIÓN DE PROBABILIDAD: Asigna probabilidades a cada uno de los valores de la variable aleatoria
discreta, la suma de todas las probabilidades es igual a 1.

FUNCIÓN DE DENSIDAD DE PROBABILIDAD: Mide la concentración de probabilidad alrededor de los


valores de una variable aleatoria continua. El área bajo la función es igual a 1.

DISTRIBUCION DE PROBABILIDAD: Una distribución de probabilidad es un listado de las probabilidades


de todos los posibles resultados que podrían obtenerse si el experimento se lleva a cabo. Son modelos
teóricos que describen la forma en que varían los resultados de un experimento aleatorio. Pueden ser
continuas o discretas.

MEDIDAS DESCRIPTIVAS DE UNA VARIABLE ALEATORIA

- VALOR ESPERADO DE UNA VARIABLE ALEATORIA: Es un promedio pesado de los resultados que
se esperan en el futuro, caracteriza la posición de la distribución de probabilidades y su fórmula
de cálculo depende del tipo de variable aleatoria.

- VARIANZA DE UNA VARIABLE ALEATORIA: Es un operador que caracteriza la dispersión de la


distribución.

DISTRIBUCION DE PROBABILIDAD DISCRETAS:

DISTRIBUCION En cada prueba solo son posibles dos resultados, éxito y fracaso.
BINOMIAL Los resultados son independientes entre sí.
La probabilidad de un suceso A es constante.

DISTRIBUCION Cada prueba tiene más de dos posibles resultados mutuamente excluyentes.
MULTINOMIAL La distribución binomial es un caso particular de distribución multinomial.

DISTRIBUCION Las pruebas no son independientes entre sí.


HIPERGEOMETRICA Los parámetros de distribución son n, N y K.
Muestra n, sin reemplazamiento, de un conjunto finito de N objetos.
K éxitos y N- K fracasos; X éxitos obtenidos en la muestra.

DISTRIBUCION DE Cuenta éxitos que ocurren en un intervalo del espacio o del tiempo.
POISSON Probabilidad de éxito proporción al tamaño del espacio o del tiempo.
La suma de variables Poisson independientes es otra Poisson con media igual a
la suma de las medias.
La probabilidad de éxitos en una región del tiempo o del espacio tiende a cero a
medida que se reducen las dimensiones de la región en estudio.
Las variables Poisson típicas son variables en las que se cuentan sucesos raros.

DISTRIBUCIONES DE PROBABILIDAD CONTNUAS: Las distribuciones de probabilidad son idealizaciones


de los polígonos de frecuencias. En el caso de una variable estadística continua consideramos el
histograma de frecuencias relativas, y se comprueba que al aumentar el numero de datos y el numero
de clases el histograma tiende a estabilizarse llegando a convertirse su perfil en la gráfica de una
función.

FUNCION DE DENSIDAD: En la función de densidad la probabilidad viene dada por el área bajo la curva
cuyo valor es 1 y la probabilidad de sucesos puntuales es 0.

DISTRIBUCION NORMAL: Una variable es normal cuando se ajusta a la ley de los grandes números, es
decir, cuando sus valores son el resultado de medir reiteradamente una magnitud sobre la que influyen
infinitas causas de efecto infinitesimal. Esta distribución es usada frecuentemente en las aplicaciones
estadísticas debido a la frecuencia o normalidad con la que ciertos fenómenos tienden a parecerse en su
comportamiento a esta distribución. (Caracteres morfológicos, fisiológicos, psicológicos, etc.…)

Las variables normales tienen una función de densidad con forma de campana a la que se llama
Campana de Gauss. La curva normal cumple las siguientes propiedades:

- El máximo de la curva coincide con la media


- Es perfectamente simétrica respecto a la media
- La curva tiene dos puntos de inflexión situados a una desviación típica de la media.
- Sus colas son asintóticas al eje X
- Un cambio en la media desplaza la curva y un cambio en la varianza cambia la forma.

FUNCION DE DISTRIBUCION ACUMULADA:


- Puede tomar cualquier valor de infinito negativo a positivo.
- Son mas probables los valores cercanos a la media
- Conforme se aleja de la media la probabilidad va decreciendo simétricamente
- Conforme se aleja de la media la probabilidad va decreciendo más o menos rápidamente
dependiendo de un parámetro que es la desviación típica.

DISTRIBUCION NORMAL TIPIFICADA (Z): Cualquiera que sea la variable X, se puede establecer una
correspondencia de sus valores con los de otra variable con distribución normal, media 0 y varianza 1, a
la que se llama variable normal tipificada o Z. La transformación de la variable X en la variable Z produce
el efecto de reducir Z a unidades en términos de desviaciones estándares alejadas de la media.

CARACTERISTICAS DE LA DISTRIBUCION NORMAL TIPIFICADA:

- No depende de ningún parámetro


- Su media es 0, su varianza es 1 y su desviación típica es 1
- La curva es simétrica respecto del eje OY
- Tiene un máximo en este eje
- Tiene dos puntos de inflexión en z = 1 y z = -1
TEOREMA CENTRAL DEL LIMITE: Indica que, bajo condiciones muy generales, la suma de variables
aleatorias independientes e idénticamente distribuidas tiende a una distribución normal cuando la
cantidad de variables es muy grande. La importancia de este teorema es que es valido cualquiera sea la
distribución de las variables aleatorias.

DISTRIBUCIONES MUESTRALES: Dada una población finita de tamaño N o infinita, si en ella se definen
variables, X, Y, …. Y se extraen muestras aleatorias de igual o distinto tamaño ni, las estadísticas
calculadas con las observaciones muestrales varían de una muestra a otra, por lo tanto, son variables
aleatorias con una determinada distribución de probabilidad.

DE LA MEDIA Si de una población con media μ y desviación típica δ, se extraen


aleatoriamente todas las posibles muestras, todas ellas de tamaño n, y se
obtienen las medias de todas estas muestras, considerando una
distribución de datos (la distribución muestral de medias), se comprobaría
que:

- La media de las medias muestrales es la media μ de la población.


- Las medias se distribuyen alrededor de la media de la población con
una desviación típica, llamada error típico de la media.
- La distribución de las medias muestrales es una distribución de tipo
“normal”, siempre que la población lo sea o si el tamaño de las
muestras es mayor de 30.

DE LA PROPORCION Si de una población finita de tamaño N se extrae una muestra aleatoria de


tamaño n, con K éxitos en la población y X éxitos en la muestra; se define
una proporción poblacional como π = K/N y una proporción muestral como
p = x/n, considerándose p como una proporción de éxitos.
DE LA DIFERENCIA DE Cuando se deben comparar dos proporciones se extraen dos muestras al
DOS PROPORCIONES azar independientes de dos poblaciones binomiales, una con proporción
poblacional π1 y la otra con proporción poblacional π2. La diferencia de las
dos proporciones muestrales se define como Δp = p1 – p2, y es también una
estadística de muestra.

DE LA DIFERENCIA DE Se consideran dos poblaciones distintas, en las cuales se define una variable
DOS MEDIAS con distribución normal y se extraen muestras aleatorias independientes de
tamaños n1 y n2, y se estiman los parámetros.
Se define una variable diferencia Δμ = μ1 – μ2 en la población, con las
observaciones muestrales con: Δx = X1 – X2.

INFERENCIA ESTADISTICA: La teoría clásica de la inferencia estadística se refiere a los métodos por los
cuales se selecciona una muestra aleatoria de una población, y basándose en las observaciones
muestrales se obtienen conclusiones con respecto a toda la población.
Tiene dos aspectos principales: Estimación de parámetros parámetros, puntual y por intervalos de
confianza, y prueba de hipotesis.

ESTIMACION DE PARAMETROS: Consiste en calcular medidas descriptivas utilizando observaciones


muestrales, para representar a los parámetros desconocidos.

ESTIMACION PUNTUAL: Consiste en estimar el valor del parámetro desconocido con un solo numero

ESTIMADOR PUTUAL: Es una función de las observaciones muestrales, que no se debe incluir al
parámetro desconocido ni depender de él. Puede definírselo como una regla que indica como calcular la
estimación basándose en las observaciones muestrales y generalmente expresado mediante una
fórmula matemática.

PROPIEDADES DE UN BUEN ESTIMADOR

INSESGABILIDAD Un estimador es un estimador insesgado del parámetro si el valor esperado del


estimador es igual al parámetro. Cumplen con esta propiedad la media y la
proporción muestrales, y la diferencia de dos proporciones muestrales. En el
caso de la varianza muestral, es un estimador insesgado o no según la formula
que se utilice para calcularla.

INSESGABILIDAD DE Un estimador será tanto mas eficiente cuando menos varíe de muestra a
VARIANZA MINIMA muestra de una misma población. Dados dos estimadores insesgados de un
O EFICIENCIA parámetro uno es mas eficiente si su varianza es menor

CONSISTENCIA Un estimador es consistente si puede lograrse que la probabilidad de que un


estimador difiera del valor real del parámetro más que cualquier cantidad
arbitrariamente elegida sea tan pequeña como se quiera, incrementando
suficientemente la muestra.

DISTRIBUCION Un estimador es asintóticamente normal del parámetro si además de ser


ASINTOTICAMENTE insesgado y consistente tiene distribución normal cuando aumenta el tamaño
NORMAL de la muestra. La diferencia entre el estimador y el parámetro es el error de
estimación. Tanto la media como la proporción y la varianza muestrales tienen
distribución asintóticamente muestral, es decir que su distribución muestral se
aproxima a la normal cuando n aumenta.

SUFICIENCIA Un estimador es suficiente si brinda toda la información posible acerca del


parámetro, de manera que, ni con otros estimadores, ni con las observaciones
muestrales, podría obtenerse mayor información.

PRECISION DE La precisión de un estimador insesgado se mide por el error estándar del


ESTIMACION estimador, de manera que cuanto menor es este error tanto mas preciso es el
estimador.

ESTIMACION POR INTERVALOS DE CONFIANZA: es la estimación de un parámetro por un intervalo al


azar, llamado intervalo de confianza, cuyos límites superior e inferior son funciones de las variables
aleatorias observadas tales que la probabilidad de que se cumpla la desigualdad Li < ϴ < Ls, se expresa
en términos de un numero predeterminado, 1 -α, llamado coeficiente de confianza. SI la distribución del
estimador es normal o aproximadamente normal, el multiplicador de confianza es un valor de la variable
estandarizada Z.

PRECISION DE ESTIMACION: La precisión es directamente proporcional al tamaño de la muestra e


inversamente proporcional a la desviación estándar de la variable.

ERROR DE MUESTREO: Está presente en la estimación de parámetros por intervalo de confianza. El


error máximo que se está dispuesto a cometer es la mitad de la longitud del Intervalo de Confianza.

TAMAÑO DE LA MUESTRA: Depende del nivel de confianza que se desee para los resultados y de la
amplitud del intervalo de confianza, es decir, del error máximo que se este dispuesto a admitir.

SINTESIS DEL PROCESO DE ESTIMACION DE PARAMETROS:

- Definir la población de acuerdo a la variable de interés


- Seleccionar una muestra aleatoria de tamaño adecuado, según el parámetro que se desea
estimar
- Estimar puntualmente el parámetro
- Estimar el parámetro por un intervalo de confianza
- Comentar con respecto a la precisión de las estimaciones

PRUEBA DE HIPOTESIS: Sirve para decidir si una afirmación relativa a un parámetro es verdadera o falsa.
Para llegar a una conclusión el tomador de decisiones querrá cerciorarse de que ha tomado la decisión
correcta, basada en la información que le brinda una muestra aleatoria extraída de la población de
interés. Para ello deberá probar hipotesis con respecto a los parámetros de interés.
ETAPAS DE UNA PRUEBA DE HIPOTESIS

1- FORMULAR LAS HIPOTESIS


2- ESPECIFICAR EL NIVEL DE SIGNIFICACION
3- SELECCIONAR EL ESTADISTICO DE PRUEBA
4- FIJAR CRITERIOS DE DECISION
5- CALCULAR EL ESTADISTICO DE PRUEBA
6- TOMAR UNA DECISION
7- ESTABLECER CONCLUSIONES.

ETAPAS DE UNA PRUEBA DE HIPOTESIS

FORMULACION DE HIPOTESIS: Una hipótesis estadística es un supuesto con respecto a la distribución


de una variable aleatoria. Según su naturaleza pueden clasificarse en simples o compuestas; y también
pueden clasificarse en paramétricas y no paramétricas. Generalmente se concentra la atención en dos
hipotesis: la hipotesis nula, donde va lo que se desea rechazar, y la alternativa, que indica lo contrario.

Tipos de prueba según la forma en que se formule la hipotesis:

- Prueba bilateral o de dos colas: Cuando el valor de un parámetro puede ser demasiado pequeño
o demasiado grande para algún fin especifico.

- Prueba unilateral o de cola izquierda: Cuando el valor de un parámetro no es bastante pequeño


para algún fin especifico.

- Prueba unilateral o de cola derecha: Cuando se duda de que el valor de un parámetro es


bastante grande para una meta determinada.

ESPECIFICACIÓN DE NIVEL DE SIGNIFICACIÓN: Al probar la Hipotesis Nula se pueden cometer dos


errores: Rechazar la hipotesis nula cuando en realidad es verdadera y aceptarla cuando es en realidad es
falsa. La probabilidad de rechazar la hipotesis nula cuando en realidad es verdadera se llama nivel de
significación y se representa por α.

SELECCIÓN DEL ESTADISTICO DE PRUEBA: El estadístico de prueba es una función de las n


observaciones muestrales, tal que su distribución por muestro sea conocida bajo el supuesto de que la
hipotesis nula es verdadera.

ESTABLECIMIENTO DE CRITERIOS DE DECISION: Establecer un criterio de decisión consiste en dividir la


amplitud del estimador en dos partes, que son dos subconjuntos desunidos: R, región de rechazo o
critica, y A, región de no rechazo. De tal manera que si z pertenece a R se rechaza la hipotesis nula y si
pertenece a A se dice que no existen evidencias suficientes para rechazarla.

La división se realiza teniendo en cuenta la hipotesis alternativa, el nivel de significación y la distribución


muestral del estadístico de prueba. Para estadísticos distribuidos normalmente se distinguen tres casos
de criterios de decisión: Si z es mayor o menor que Zα/2, si es mayor que Zα y si es menor que Zα.

REALIZACION DE CALCULOS: Se calculan los valores del estadístico de prueba y su desviación estándar,
de tal manera que el estadístico de prueba estandarizado pueda compararse con el valor o los valores
críticos.

TOMA DE DECISION: Si z pertenece a R se rechaza la hipotesis nula y si pertenece a A se dice que no


existen evidencias suficientes para rechazarla. Esta decisión es puramente estadística y sirve como guía
para la toma de decisiones efectivas.

CONCLUSION: En esta etapa se debe interpretar la decisión tomada en la etapa anterior en términos del
problema particular que se intenta resolver mediante una prueba de hipotesis estadística. Es decir, se da
respuesta al problema.

ASOCIACION ENTRE VARIABLES CUANTITATIVAS:

Las poblaciones de datos pueden clasificarse en: Univariable, bivariables y multivariables.


El análisis de datos bivariables o multivariables implica descubrir y medir la asociación o covariación
entre las variables, es decir, determinar cómo varían juntas.

En el estudio de la asociación entre variables hay dos aspectos distintos pero relacionados:

- Análisis de regresión: Establece la naturaleza de la relación entre las variables y proporciona un


mecanismo de predicción.
- Análisis de correlación: Determina el grado de la relación entre las variables.

CLASIFICACION:

Según el número de variables - Simple (dos variables)


- Múltiple (más de dos variables)

Según el tipo de relación - Lineal (relación lineal)


entre variables - No lineal (relación curvilineal).

ESTIMACION POR ASOCIACION: Si puede establecerse una relación media entre las variables, en cierta
forma matemáticamente funcional, se puede estimar con mucha precisión, en promedio, el valor de una
de las variables sobre la base de la otra u otras.

DIAGRAMA DE DISPERSION DE LOS DATOS OBSERVADOS: Consiste en una representación grafica de los
pares ordenados en un sistema de coordenadas cartesianas, donde en el eje de abscisas se colocan los
valores de X y en el eje de ordenadas los valores de la variable Y.
ANALISIS DE REGRESION BIVARIABLE LINEAL: Una variable Y, dependiente, se relaciona con una
variable X, independiente, por la siguiente expresión.

Yi = (α + β Xi) + ε i

sistemática estocástica

La parte estocástica hace que el modelo sea probabilista y no determinista.


Implica que el valor de Y nunca puede predecirse con exactitud como en un caso determinista.
La variable εi puede representar errores de medición en Y o puede surgir por la exclusión de otras
variables explicativas importantes y relevantes en el modelo, o por ambas causas.
La inclusión de otras variables conduciría a un modelo de regresión múltiple.

SUPUESTOS BASICOS:

1- La variable independiente X toma valores fijados por el investigador y para cada valor existe una
subpoblación de valores Y con distribución normal.
2- El error εi es una variable aleatoria cuya distribución de probabilidades se supone que es normal.
3- La varianza condicional de Y dada por X se llama varianza de la regresión y es constante para
todo X e igual a la varianza del error.
4- La variable εi es independiente de xi, y de otra εj

ECUACION DE REGRESION DE POBLACION DE Y SOBRE X: Da valor medio de Y dado un valor fijo de X,


donde α es el valor medio de Y cuando X = 0; β mide el cambio en el valor medio de Y correspondiente a
una unidad de cambio en X.

ESTIMACION DE LOS PARAMETROS DE REGRESION: Si de una población bivariable se extrae una


muestra al azar de tamaño n, se obtienen observaciones (xi, yi) para i = n.

El modelo de regresión lineal de la muestra es:


Y la ecuación de regresión de Y sobre X de la muestra es:

En estas dos ecuaciones “y” y “y” indican el valor individual de Y y el valor calculado de Y,
respectivamente.

METODO DE MINIMOS CUADRADOS: Busca el mejor estimador insesgado lineal. Selecciona valores
para “a” y “b” que minimizan la suma de cuadrados de las diferencias entre los valores realmente
observados y los valores estimados. Esto significa que las estimaciones a y b proporcionan la ecuación
de la recta de regresión de Y sobre X, que “pasa más cerca de todos los puntos” del diagrama de
dispersión.

REGRESION BIVARIABLE NO LINEAL: El procedimiento usual es inspeccionar el diagrama de dispersión


construido con datos muestrales, puesto que el patrón general de la dispersión puede sugerir un
modelo apropiado de regresión.

ANALISIS DE REGRESION LINEAL MULTIPLE: Se manejan datos que constan de mas de dos coordenadas
constituidas por n observaciones, r variables independientes y una variable dependiente.

ANALISIS DE CORRELACION LINEAL BIVARIABLE: El análisis de correlación es aplicable para determinar


el grado de relación que existe entre las variables en problemas en los cuales tanto las x como las y son
valores asumidos por variables aleatorias.

SUPUESTOS BASICOS

- X e Y son variables aleatorias, por lo tanto, no es necesario establecer si una es independiente y


la otra dependiente.
- La población bivariable es normal. X e Y están normalmente distribuidas.
- La relación entre X e Y es lineal. Todas las medias de Y asociadas con valores X caen sobre una
línea recta que es la recta de regresión de X sobre Y.

COEFICIENTE DE REGRESION DE LA POBLACION: Se define como la covarianza entre X e Y, dividida por


el producto de las desviaciones estándares de las variables.

Se simboliza p y tiene las siguientes propiedades:

- La ecuación contiene los cinco parámetros de una población bivariable normal.


- Es simétrico con respecto a Y y X, si se intercambian no cambia el coeficiente de correlación.
- El campo de variación del coeficiente de correlación simple es -1 < p < 1

COEFICIENTE DE CORRELACION MUESTRAL: Es el estimador de la población máxima de p, representado


por r, cuando se cumple el supuesto de una población normal bivariable. El coeficiente r tiene las
mismas características que p, y valores cercanos a -1 o a 1 indican alta correlación lineal entre las
variables.

SERIES DE TIEMPO: Es un conjunto de observaciones de una variable ordenadas según transcurre el


tiempo. Pueden servir para predecir acontecimientos futuros en base a ciertos comportamientos de
determinadas variables.

COMPONENTES DE UNA SERIE DE TIEMPO


TENDENCIA Es un movimiento de larga duración que muestra la evolución general de la serie en
el tiempo. Puede ser estacionario o ascendente, y su recorrido una línea o una curva

VARIACIONES Cuando el comportamiento de la variable en el tiempo esta relacionado con la época


ESTACIONALE o un periodo particular en menos de un año.
S
VARIACIONES Oscilaciones a lo largo de una serie con un periodo superior al año. El ciclo sugiere la
CICLICAS idea de que este tipo de movimiento se repite cada cierto periodo de forma similar.

VARIACIONES Cuando aparecen hechos o imprevistos que afecten las variables en estudios que no
RESIDUALES O se pueden prever, provocadas por factores externos y aleatorios.
IRREGULARES

ANALISIS DE LA TENDENCIA: Se puede hacer por método grafico o de mano alzada, trazando una línea
que ajuste la tendencia, pero resulta impreciso. También se puede hacer a través del método de las
medias móviles, calculando las medias y luego uniéndolas, aunque esto produce un suavizado de la
tendencia que no permite determinar una función matemática.

También podría gustarte