Está en la página 1de 25

REPBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA EDUCACIN


UNIVERSIDAD NACIONAL EXPERIMENTAL
SUER DEL LAGO
JESS MARA SEMPREUM
SANTA BRBARA DEL ZULIA

Estadstica
II

Seccin: B Santa Brbara del Zulia

INTRODUCCIN.

Uno de los aspectos ms relevantes de la Estadstica es el anlisis de la relacin o


dependencia entre variables. Frecuentemente resulta de inters conocer el efecto
que una o varias variables pueden causar sobre otra, e incluso predecir en mayor
o menor grado valores en una variable a partir de otra. Por ejemplo, supongamos
que la altura de los padres influye significativamente en la de los hijos. Podramos
estar interesados en estimar la altura media de los hijos cuyos padres presentan
una determinada estatura. En este Tema abordaremos el modelo de regresin
lineal, que tiene lugar cuando la dependencia es de tipo lineal, y daremos
respuesta a dos cuestiones bsicas:
Es significativo el efecto que una variable X causa sobre otra Y? Es
significativa la dependencia lineal entre esas dos variables?
De ser as, utilizaremos el modelo de regresin lineal simple para explicar y
predecir la variable dependiente (Y) a partir de valores observados en la
independiente (X).
Muchas de las investigaciones que se realizan estudian el efecto o la influencia
cuando una variable ejerce sobre la otra, bien sea el caso de una variable
dependiente y la independiente. Se designa como variable independiente aquella
cuyas presencias originan un determinado efecto sobre otra variable que es
designada variable dependiente, para poder explicar o representar los efectos de
estas variables utilizamos los mtodos de regresin ya que estos darn
respuestas a la dependencia que hay entre estas mismas.

REGRESIN LINEAL SIMPLE O


AJUSTE LINEAL.
Tiene como objeto estudiar cmo los cambios en una variable, no aleatoria,
afectan a una variable aleatoria, en el caso de existir una relacin funcional entre
ambas variables que puede ser establecida por una expresin lineal, es decir, su
representacin grfica es una lnea recta. Cuando la relacin lineal concierne al
valor medio o esperado de la variable aleatoria, estamos ante un modelo de
regresin lineal simple. La respuesta aleatoria al valor x de la variable controlada
se designa por Yx y, segn lo establecido, se tendr

De manera equivalente, otra formulacin del modelo de regresin lineal


simple sera: si xi es un valor de la variable predictora e Yi la variable respuesta
que le corresponde, entonces

Ei es el error o desviacin aleatoria de Yi. ANLISIS ESTADSTICO: REGRESIN


LINEAL SIMPLE
En el estudio de la relacin funcional entre dos variables poblacionales, una
variable X, llamada independiente, explicativa o de prediccin y una variable Y,
llamada dependiente o variable respuesta, presenta la siguiente notacin:
Y=a+bX+e
Dnde:
a es el valor de la ordenada donde la lnea de regresin se intercepta con el eje Y.
b es el coeficiente de regresin poblacional (pendiente de la lnea recta)
e es el error

SUPOSICIONES DE LA REGRESIN LINEAL:

Los valores de la variable independiente X son fijos, medidos sin error.


La variable Y es aleatoria
Para cada valor de X, existe una distribucin normal de valores de Y
(subpoblaciones Y)
Las variancias de las subpoblaciones Y son todas iguales.
Todas las medias de las subpoblaciones de Y estn sobre la recta.
Los valores de Y estn normalmente distribuidos y son estadsticamente
independientes.

Tambin se dice que en estadstica la regresin lineal o ajuste lineal: es un


mtodo matemtico que modela la relacin entre una variable dependiente Y, las
variables independientes X y un trmino aleatorio . Este modelo puede ser
expresado como:

: Variable dependiente, explicada o regresando.


: Variables explicativas, independientes o regresin
: Parmetros, miden la influencia que las variables explicativas
tienen sobre el regresando.
Donde
es la interseccin o trmino "constante", las
son los
parmetros respectivos a cada variable independiente, y es el nmero de
parmetros independientes a tener en cuenta en la regresin. La regresin lineal
puede ser contrastada con la regresin no lineal.

VARIABLE DEPENDIENTE O INDEPENDIENTE

Existen diferentes conceptos de lo que puede ser una variable segn diferentes
autores entre ellos tenemos:
-Segn Juan Rivas Suazo. El trmino variable se puede definir como toda aquella
caracterstica o cualidad que identifica a una realidad y que se puede medir,
controlar y estudiar mediante un proceso de investigacin. Una variable puede
tomar diferentes valores dependiendo del enfoque, que le d, el investigador.
Estos valores pueden ser desde el enfoque cuantitativo o desde el enfoque
cualitativo.
-Las variables en la investigacin, representan un concepto de vital importancia
dentro de un proyecto. Las variables, son los conceptos que forman enunciados
de un tipo particular denominado hiptesis. (Autor: Jacqueline Wigodski).
La variable, segn Bavaresco (1996), "son las diferentes condiciones,
cualidades, caractersticas o modalidades que asumen los objetos en estudio
desde el inicio de la investigacin. Constituyen la imagen inicial del concepto dado
dentro del marco" (p.76).
Es importante mencionar que se refiere a la variable como aquellos aspectos
relevantes que aparecen en dicho trabajo de investigacin que le van dando
cuerpo, y principalmente son el objeto de estudio de la misma.
Desde el inicio de la investigacin es necesario saber cules son los tipos, de
variables o clases de variables que existen. En la prctica existen tres tipos de
variables de las cuales desglosaremos 2 como lo son: la variable pendiente y la
independiente.

La variable independiente: es aquella propiedad, cualidad o caracterstica de


una realidad, evento o fenmeno, que tiene la capacidad para influir, incidir o
afectar a otras variables. Se llama independiente, porque esta variable no
depende de otros factores para estar presente en esa realidad en estudio. Algunos
ejemplos de variables independientes son; el sexo, la raza, la edad, entre otros.
Observemos un ejemplo de hiptesis donde est presente la variable
independiente: Los nios que hacen tres aos de educacin preescolar,
aprenden a leer ms rpido en primer grado. En este caso la variable
independiente es hacen tres aos de educacin preescolar. Porque para que los
nios de primer grado aprendan a leer ms rpido, depende de que hagan tres
aos de educacin preescolar.
Tambin existen variables independientes en algunos estudios que hasta cierto
punto dependern de algo, como en el ejemplo siguiente: Los ingresos
econmicos de un hospital pblico puede depender de la asignacin en el
presupuesto nacional del pas. Como podemos observar el objeto de estudio no
est influyendo en la variable independiente. De este modo, la variable
independiente en un estudio se cree que est influyendo en la variable
dependiente, el estudio Correlacional se centra precisamente en esa relacin.
La variable dependiente: Las variables dependientes son las que se crean como
resultado del estudio o experimento. Si se toma el ejemplo de un estudio de la
prdida de peso, donde la variable independiente son las caloras consumidas,
entonces una variable dependiente podra ser el peso total de los participantes del
estudio. As que el peso del participante en el estudio depende de la fluctuacin de
la variable independiente, que es lo que la hace dependiente.
Otro ejemplo de variable dependiente puede ser:
Los nios que hacen tres aos de educacin preescolar, aprenden a leer ms
rpido en primer grado.
En este caso la variable dependiente sera aprenden a leer ms rpido, pero
aprenden a leer ms rpido como consecuencia de que hacen tres ao de
educacin preescolar. Por esta razn se recomienda que en el ttulo de un
trabajo siempre debe aparecer la variable dependiente, pues est es el objeto de
estudio

QU ES UN DIAGRAMA DE DISPERSIN?
El diagrama de dispersin nos permite analizar si existe algn tipo de relacin
entre dos variables. Por ejemplo, puede ocurrir que dos variables estn
relacionadas de manera que al aumentar el valor de una, se incremente el de la
otra. En este caso hablaramos de la existencia de una correlacin positiva.
Tambin podra ocurrir que al producirse una en un sentido, la otra derive en el
sentido contrario; por ejemplo, al aumentar el valor de la variable x, se reduzca el
de la variable y. Entonces, se estara ante una correlacin negativa. Si los valores
de ambas variable se revelan independientes entre s, se afirmara que no existe
correlacin.
Tambin se dice que es una herramienta grfica que ayuda a identificar la posible
relacin entre dos variables. Representa la relacin entre dos variables de forma
grfica, lo que hace ms fcil visualizar e interpretar los datos.
De otro lado, calculando el coeficiente de correlacin entre dos variables, permite
cuantificar el grado de relacin entre ambas, as como su signo. El valor de este
coeficiente puede estar comprendido entre 1 y 1.
Cuando toma un valor prximo a 1, la correlacin es fuerte y negativa. Si el valor
es cercano a +1, la correlacin es fuerte y positiva.
Si el coeficiente de correlacin lineal presenta un valor prximo a 0, la correlacin
es dbil.
Un coeficiente de 0 indicara independencia total entre ambas variables. A su vez,
un coeficiente de correlacin lineal de 1 de -1 sealara que entre ambas
variables hay dependencia funcional, positiva o negativa segn el signo del
coeficiente.
Esta correlacin puede sealar, pero no por ello probar, una relacin causal, es
decir, no predice relaciones causa efecto, sino que muestra la intensidad de la

relacin entre dos variables. Por lo tanto, es importante no apresurarse a obtener


conclusiones sobre la relacin entre las variables, ya que puede ser otra tercera
que afecte a la relacin.

Ejemplo de diagrama de dispersin

SUPUESTO DE REGRESIN LINEAL


1. Linealidad: Si no se tiene linealidad se dice que tenemos un error de
especificacin. En el caso de que sean varias variables independientes, la
opcin Analizar-Regresin Lineal-Grficos-Generar todos los grficos
parciales nos da los diagramas de dispersin parcial para cada variable
independiente. En ellos se ha eliminado el efecto proveniente de las otras
variables y as la relacin que muestran es la relacin neta entre las
variables representadas.

2. Independencia: de la variable aleatoria residuos (especialmente


importante si los datos se han obtenidos siguiendo una secuencia
temporal).
Independencia entre los residuos mediante el estadstico de Durbin-Watson
que toma valor 2 cuando los residuos son completamente independientes
(entre 1.5 y 2.5 se considera que existe independencia), DW<2 indica
autocorrelacin positiva y DW>2 autocorrelacin negativa.

3. Homocedasticidad o igualdad de varianzas de los residuos y los


pronsticos. Esta condicin se estudia utilizando las variables:
ZPRED=pronsticos tipificados y ZRESID=residuos tipificados mediante:
el estadstico de Levene (ver explorar)
un grfico de dispersin .Que se obtiene en Analizar-RegresinLineal-Grficos.
El supuesto de homocedasticidad implica que la variacin de los
residuos sea uniforme en todo el rango de valores de los pronsticos
(grfico sin pautas de asociacin).

4. Normalidad: de los residuos tipificados. Podemos contrastarla mediante:


La prueba de Kolmogorff -Smirnov, con grficos de normalidad de
tipo Q-Q (cuantiles) o P-P (proporciones) (ver explorar).
grficamente en Analizar-Regresin-Lineal-Grficos. La opcin.
Histograma: aade una curva N(0,1)
Grfico de Probabilidad Normal de tipo P-P: Representa las proporciones
acumuladas de la variable esperada respecto a las proporciones
acumuladas de la variable observada.

5. No Colinealidad: es decir la inexistencia de colinealidad. Esta puede ser:


Colinealidad perfecta si una de las variables independientes tiene una relacin
lineal con otra/as independientes,

Colinealidad parcial si entre las variables independientes existen altas


correlaciones.

MTODO DEL MNIMO CUADRADO


El procedimiento ms objetivo para ajustar una recta a un conjunto de datos
presentados en un diagrama de dispersin se conoce como "el mtodo de los
mnimos cuadrados". La recta resultante presenta dos caractersticas importantes:
1. Es nula la suma de las desviaciones verticales de los puntos a partir de la recta
de ajuste
(Y - Y) = 0.

2. Es mnima la suma de los cuadrados de dichas desviaciones. Ninguna otra


recta dara una suma menor de las desviaciones elevadas al cuadrado
(Y - Y) 0 (mnima).
El procedimiento consiste entonces en minimizar los residuos al cuadrado Ci

La obtencin de los valores de a y b que minimizan esta funcin es un problema


que se puede resolver recurriendo a la derivacin parcial de la funcin en trminos
de a y b: llamemos G a la funcin que se va a minimizar:

Tomemos las derivadas parciales de G respecto de a y b que son las incgnitas y


las igualamos a cero; de esta forma se obtienen dos ecuaciones llamadas

ecuaciones normales del modelo que pueden ser resueltas por cualquier mtodo
ya sea igualacin o matrices para obtener los valores de a y b.

Derivamos parcialmente la ecuacin respecto de a

Primera ecuacin normal


Derivamos parcialmente la ecuacin respecto de b

Segunda ecuacin normal

Los valores de a y b se obtienen resolviendo el sistema de ecuaciones resultante.


Veamos el siguiente ejemplo:
En un estudio econmico se desea saber la relacin entre el nivel de instruccin
de las personas y el ingreso.
EJEMPLO 1
Se toma una muestra aleatoria de 8 ciudades de una regin geogrfica de 13
departamentos y se determina por los datos del censo el porcentaje de graduados
en educacin superior y la mediana del ingreso de cada ciudad, los resultados son
los siguientes:
CIUDAD: 1 2 3 4 5 6 7 8
% de (X)
Graduados: 7.2 6.7 17.0 12.5 6.3 23.9 6.0 10.2
Ingreso (Y)
Mediana: 4.2 4.9 7.0 6.2 3.8 7.6 4.4 5.4 (0000)
Tenemos las ecuaciones normales

y = na + bx
xy = ax + bx
Debemos encontrar los trminos de las ecuaciones
y, x, xy, x Por tanto procedemos de la siguiente forma:

XY

4.2

7.2

30.24

51.84

4.9

6.7

32.83

44.89

7.0

17.0 119.0
0

289.00

6.2

12.5 77.50

156.25

3.8

6.3

23.94

39.69

7.6

23.9 181.6
4

571.21

4.4

6.0

26.40

36.00

5.4

10.2 55.08

104.04

43.5

89.8 546.6
3

1292.92

Sustituyendo en las ecuaciones los resultados obtenidos tenemos: 43.50 = 8a +


89.8b
546.63 = 89.8a + 1292.92b
Multiplicamos la primera ecuacin por (-89.8) y la segunda por (8) as:
43.50 = 8a + 89.8b (-89.8) 546.63 = 89.8a + 1292.92b (8)
-3906.30 = -718.4a - 8064.04b 4373.04 = 718.4a + 10343.36b
466.74 = -0- 2279.32b

Este valor de b lo reemplazamos en cualquiera de las ecuaciones para obtener a


as:
Reemplazando b = 0.20477 en la primera ecuacin normal

43.5 = 8a + 89.8 (0.20477) 43.5 = 8a + 18.3880 43.5 - 18.3880 = 8a 25.1120 = 8a

Tenemos entonces que los coeficientes de regresin son : a = 3.139 y b =


0.20477. Por tanto la ecuacin de regresin nos queda:

Significa entonces que por cada incremento en una unidad en X el valor de


aumenta en 0.20477

se

Esta ecuacin permite estimar el valor de para cualquier valor de X, por ejemplo:
Una ciudad que tiene un porcentaje de graduados a nivel superior del 28% la
mediana de ingreso para la ciudad ser:

Los valores a y b tambin se pueden obtener de la siguiente forma: partiendo de


las ecuaciones normales tenemos:

Si dividimos todos los trminos de la ecuacin (1) entre n nos queda:

Tenemos entonces que el primer trmino es

el segundo trmino es la incgnita

a y el tercer trmino es la incgnita b multiplicada por

Entonces

por tanto nos queda:

Reemplazando a en la ecuacin (2) tenemos

a = 5.4375 0.20477 (11.2250) = 5.4375 2.2985 = 3.139

Se debe tener presente la diferencia entre el valor de

obtenido con la ecuacin

de regresin y el valor de Y observado. Mientras es una estimacin y su bondad


en la estimacin depende de lo estrecha que sea la relacin entre las
dos variables que se estudian; Y es el valor efectivo, verdadero obtenido
mediante la observacin del investigador. En el ejemplo Y es el valor mediano
del ingreso que obtuvo el investigador
Utilizando todos los ingresos observados en cada ciudad y es el valor estimado
con base en el modelo lineal utilizado para obtener la ecuacin de regresin
Los valores estimados y observados pueden no ser iguales por ejemplo la primera
ciudad tiene un ingreso mediano observado de Y = 4.2 al reemplazar en la
ecuacin el porcentaje
de graduados obtenemos un

estimado de

Grficamente lo anterior se puede mostrar as:

Claramente se observa en la grfica que hay una diferencia entre el valor efectivo
de Y y el valor estimado; esta diferencia se conoce como error en la estimacin,
este error se puede medir. A continuacin se ver el procedimiento.
Error estndar en la estimacin
El error estndar de la estimacin designado por sYX mide la disparidad
"promedio" entre los valores observados y los valores estimados de . Se utiliza la
siguiente formula.

Debemos entonces calcular los valores de para cada ciudad sustituyendo en la


ecuacin los valores de los porcentajes de graduados de cada ciudad estudiada.

4.2
4.9
7.0
6.2
3.8
7.6
4.4
5.4

Syx = 0.46 (decenas de miles $)


Como esta medida trata de resumir la disparidad entre lo observado y lo estimado,
es decir, trata de medir la diferencia promedio entre lo observado y lo estimado
esperado de acuerdo al modelo, puede considerarse como un indicador del grado
de precisin con que la ecuacin de regresin, describe la relacin entre las dos
variables. Este error estndar se ve afectado por las unidades y sus cambios ya
que es una medida absoluta, pues, se da en la misma unidad de medida que esta
dada la variable Y; en el ejemplo 0.46 sern decenas de miles de pesos, razn por
la cual no es posible comparar con las relaciones de variables dadas en distinta
unidad de medida. Es necesario entonces calcular una medida que interprete o
mida mejor el grado de relacin entre las variables.

ANLISIS DE LA VARIANZA PARA LA REGRESIN


Es un modo alternativo de hacer contrastes sobre el coeficiente a1. Consiste en
descomponer la variacin de la variable Y de dos componentes: uno la variacin
de Y alrededor de los valores predichos por la regresin y otro con la variacin de
los valores predichos alrededor de la media. Si no existe correlacin ambos
estimadores estimaran la varianza de Y y si la hay, no. Comparando ambos
estimadores con la prueba de la F se contrasta la existencia de correlacin.
Para el ejemplo 3

Obsrvese que el valor de p es igual que antes (son contrastes equivalentes) y el


valor de F es el cuadrado del de t.
Ejemplo 4: Se quiere investigar el efecto de la ingestin masiva de vitamina C
sobre el hgado de las cobayas. Se eligen dos grupos de 4 cobayas, a uno se le
administra y al otro no. Se sacrifica a los animales y se mide la concentracin de
lpidos en el hgado.
Grupo
control (=0)
23,8
15,4
21,7
18,0

Tratado
(=1)
13,8
9,3
17,2
15,1

Hay diferencia entre ambos grupos?


Se podra plantear un contraste sobre medias con la t de Student.

PRUEBA
DE

HIPTESIS PARA LA CORRELACIN


stas especifican las relaciones entre dos o ms variables. Corresponden a los
estudios correlacinales y pueden establecer la asociacin entre dos variables
(La inteligencia est relacionada con la memoria, La ex posicin por parte de los
adolescentes a videos musicales con alto contenido sexual, est asociada con la
manifestacin de estrategias en las relaciones interpersonales heterosexuales
para establecer contacto sexual, etc.); o establecer la asociacin entre ms de
dos variables (La atraccin fsica, las demostraciones de afecto, la similitud en
valores y la satisfaccin en el noviazgo, se encuentran vinculadas entre s, La
inteligencia, la memoria y las calificaciones obtenidas estn relacionadas, en
estudiantes de postgrado uruguayos de ciencias sociales, etc.).
Sin embargo, las hiptesis correlacinales pueden no slo establecer que dos o
ms variables se encuentran asociadas, sino cmo estn asociadas. stas son las
que alcanzan el nivel predictivo y parcialmente explicativo.
Ejemplo.
A mayor exposicin por parte de los adolescentes a videos musicales con alto
contenido sexual, mayor manifestacin de estrategias en las relaciones
interpersonales heterosexuales para establecer contacto sexual. [Aqu la hiptesis

nos indica que, cuando una variable aumenta la otra tambin y viceversa que
cuando una variable disminuye, la otra disminuye.]
A mayor autoestima, menor temor de logro. [Aqu la hiptesis nos indica que,
cuando una variable aumenta, la otra disminuye, y si sta disminuye aqulla
aumenta.]
Las telenovelas venezolanas muestran cada vez un mayor contenido de sexo en
sus escenas (en esta hiptesis se correlacionan las variables poca o tiempo en
que se producen las telenovelas y contenido de sexo).
En estos ejemplos, no slo se establece que hay relacin entre las variables, sino
tambin cmo es la relacin (qu direccin sigue). Como se comprender, es
diferente hipotetizar que dos o ms variables estn relacionadas a hipotetizar
cmo son estas relaciones. En el captulo Anlisis e interpretacin de los datos
se explica ms a fondo el tema de la correlacin y los tipos de correlacin entre
variables. Por el momento diremos que, cuando se correlacionan dos variables, se
le conoce como correlacin bivariada y, cuando se correlacionan varias
variables, se le llama correlacin mltiple.
Es necesario agregar que, en una hiptesis de correlacin, el orden en que
coloquemos las variables no es importante (ninguna variable antecede a la otra;
no hay relacin de causalidad). Es lo mismo indicar a mayor X, mayor Y que a
mayor Y, mayor X, o a mayor X, menor Y que a menor Y, mayor X.
Ejemplo
Quienes tienen ms altas puntuaciones en el examen de estadstica, tienden a
tener las puntuaciones ms elevadas en el examen de psicometra es igual que
Los que tienden a tener las puntuaciones ms elevadas en el examen de
psicometra son quienes tienen ms altas puntuaciones en el examen de
estadstica.
Es decir, como nos ensearon desde pequeos: el orden de los factores
(variables) no altera el producto (la hiptesis).. Desde luego, esto ocurre en la
correlacin mas no en las relaciones de causalidad, en donde vamos a ver que s
importa el orden de las variables. Pero en la correlacin no hablamos de variables
independiente y dependiente (cuando slo hay correlacin estos trminos carecen

de sentido). Los estudiantes que comienzan en sus cursos de investigacin suelen


indicar en toda hiptesis cul es la variable independiente y cul la dependiente.
Ello es un error. nicamente en hiptesis causales se puede hacer esto.
Por otro lado, es comn que cuando se pretende en la investigacin correlacionar
varias variables se tengan diversas hiptesis, y cada una de ellas relacione un par
de variables. Por ejemplo, si quisiramos relacionar las variables atraccin
fsica, confianza, proximidad fsica y equidad en el noviazgo (todas entre s),
estableceramos las hiptesis correspondientes.
Ejemplo.
H1 A mayor atraccin fsica, menor confianza.
H2 A mayor atraccin fsica, mayor proximidad fsica.
H3 A mayor atraccin fsica, mayor equidad.
H4 A mayor confianza, mayor proximidad fsica.
H5 A mayor confianza, mayor equidad.
H6 A mayor proximidad fsica, mayor equidad.
Estas hiptesis deben ser contextualizadas en su realidad (con qu novios) y
sometidas a prueba emprica.
Prueba de Hiptesis del Coeficiente de correlacin simple mltiple
Prueba de hiptesis del coeficiente de correlacin poblacional Rho, (letra griega)
se estima con r y responde a la siguiente hiptesis:
H0 : 0
H1 : 0
El estadstico de Contraste es una prueba t donde el:

calculador

n2
1r 2

Esta prueba se hace con n-2 grados de libertad.


Ejemplo con los datos del problema de regresin y correlacin con las asignaturas
de matemticas y espaol donde:

Calculado=0.915

102
=6.59
1.0 . 9152

El valor 6.59 es mayor que el valor t de tabla de 2.3, por lo tanto se acepta como
era de esperar la hiptesis alternativa, Rho es diferente de 0. En la regresin
mltiple, se deben quitar de la ecuacin aquellos parmetros no significativos,
junto con su variable asociada.

CONCLUSIN
Cuando denominamos una regresin y correlacin lineal, se dice que son
herramienta para investigar la dependencia de una variable dependiente y en
funcin de una variable independiente x. y = f(x). Dnde:
Y= variable dependiente que se desea explicar o predecir, tambin se llama
regresor o respuesta.
X= variable independiente, tambin se llama variable explicativa, regresar o
predictor.
Regresin lineal- la relacin entre X y Y se representa por medio de una lnea
recta.

Regresin curvilnea- la relacin entre X y Y se representa por medio de una


cuerva.
La serie de tiempo en estadstica es un procesamiento de seales, y econometra,
una serie temporal es una secuencia de puntos de datos, medidos tpicamente a
intervalos de tiempo sucesivos, y espaciados (con frecuencia) de forma uniforme.
El anlisis de series temporales comprende mtodos que ayudan a interpretar este
tipo de datos, extrayendo informacin representativa, tanto referente a los
orgenes o relaciones subyacentes como a la posibilidad de extrapolar y predecir
su comportamiento futuro.
De hecho uno de los usos ms habituales de las series de datos temporales es su
anlisis para prediccin y pronstico. Por ejemplo de los datos climticos, o de las
acciones de bolsa, o las series pluviomtricas.

REFERENCIA BIBLIOGRFICA

www.monografias.com/trabajos30/series-de-tiempo/series-de-tiempo.
Aranzamendi N.L. (2010) La Investigacin Jurdica. El Proyecto de Investigacin y
la estructura de la Tesis. Editorial Grijley. Lima Per.
Escuela superior de informtica - Prcticas de Estadstica
Sierra B.R (1979) Tcnicas de Investigacin Social. Teora y Ejercicios. Segunda
Edicin. Editorial Paraninfo. Madrid.

Canavos, George C.; Probabilidad y Estadstica. Aplicaciones y Mtodos. McGrawHill. Mxico. ISBN-10: 9684518560.
Juan Rivas Suazo on Jueves, mayo 17th, 2012.

También podría gustarte