Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Estadstica
II
INTRODUCCIN.
Existen diferentes conceptos de lo que puede ser una variable segn diferentes
autores entre ellos tenemos:
-Segn Juan Rivas Suazo. El trmino variable se puede definir como toda aquella
caracterstica o cualidad que identifica a una realidad y que se puede medir,
controlar y estudiar mediante un proceso de investigacin. Una variable puede
tomar diferentes valores dependiendo del enfoque, que le d, el investigador.
Estos valores pueden ser desde el enfoque cuantitativo o desde el enfoque
cualitativo.
-Las variables en la investigacin, representan un concepto de vital importancia
dentro de un proyecto. Las variables, son los conceptos que forman enunciados
de un tipo particular denominado hiptesis. (Autor: Jacqueline Wigodski).
La variable, segn Bavaresco (1996), "son las diferentes condiciones,
cualidades, caractersticas o modalidades que asumen los objetos en estudio
desde el inicio de la investigacin. Constituyen la imagen inicial del concepto dado
dentro del marco" (p.76).
Es importante mencionar que se refiere a la variable como aquellos aspectos
relevantes que aparecen en dicho trabajo de investigacin que le van dando
cuerpo, y principalmente son el objeto de estudio de la misma.
Desde el inicio de la investigacin es necesario saber cules son los tipos, de
variables o clases de variables que existen. En la prctica existen tres tipos de
variables de las cuales desglosaremos 2 como lo son: la variable pendiente y la
independiente.
QU ES UN DIAGRAMA DE DISPERSIN?
El diagrama de dispersin nos permite analizar si existe algn tipo de relacin
entre dos variables. Por ejemplo, puede ocurrir que dos variables estn
relacionadas de manera que al aumentar el valor de una, se incremente el de la
otra. En este caso hablaramos de la existencia de una correlacin positiva.
Tambin podra ocurrir que al producirse una en un sentido, la otra derive en el
sentido contrario; por ejemplo, al aumentar el valor de la variable x, se reduzca el
de la variable y. Entonces, se estara ante una correlacin negativa. Si los valores
de ambas variable se revelan independientes entre s, se afirmara que no existe
correlacin.
Tambin se dice que es una herramienta grfica que ayuda a identificar la posible
relacin entre dos variables. Representa la relacin entre dos variables de forma
grfica, lo que hace ms fcil visualizar e interpretar los datos.
De otro lado, calculando el coeficiente de correlacin entre dos variables, permite
cuantificar el grado de relacin entre ambas, as como su signo. El valor de este
coeficiente puede estar comprendido entre 1 y 1.
Cuando toma un valor prximo a 1, la correlacin es fuerte y negativa. Si el valor
es cercano a +1, la correlacin es fuerte y positiva.
Si el coeficiente de correlacin lineal presenta un valor prximo a 0, la correlacin
es dbil.
Un coeficiente de 0 indicara independencia total entre ambas variables. A su vez,
un coeficiente de correlacin lineal de 1 de -1 sealara que entre ambas
variables hay dependencia funcional, positiva o negativa segn el signo del
coeficiente.
Esta correlacin puede sealar, pero no por ello probar, una relacin causal, es
decir, no predice relaciones causa efecto, sino que muestra la intensidad de la
ecuaciones normales del modelo que pueden ser resueltas por cualquier mtodo
ya sea igualacin o matrices para obtener los valores de a y b.
y = na + bx
xy = ax + bx
Debemos encontrar los trminos de las ecuaciones
y, x, xy, x Por tanto procedemos de la siguiente forma:
XY
4.2
7.2
30.24
51.84
4.9
6.7
32.83
44.89
7.0
17.0 119.0
0
289.00
6.2
12.5 77.50
156.25
3.8
6.3
23.94
39.69
7.6
23.9 181.6
4
571.21
4.4
6.0
26.40
36.00
5.4
10.2 55.08
104.04
43.5
89.8 546.6
3
1292.92
se
Esta ecuacin permite estimar el valor de para cualquier valor de X, por ejemplo:
Una ciudad que tiene un porcentaje de graduados a nivel superior del 28% la
mediana de ingreso para la ciudad ser:
Entonces
estimado de
Claramente se observa en la grfica que hay una diferencia entre el valor efectivo
de Y y el valor estimado; esta diferencia se conoce como error en la estimacin,
este error se puede medir. A continuacin se ver el procedimiento.
Error estndar en la estimacin
El error estndar de la estimacin designado por sYX mide la disparidad
"promedio" entre los valores observados y los valores estimados de . Se utiliza la
siguiente formula.
4.2
4.9
7.0
6.2
3.8
7.6
4.4
5.4
Tratado
(=1)
13,8
9,3
17,2
15,1
PRUEBA
DE
nos indica que, cuando una variable aumenta la otra tambin y viceversa que
cuando una variable disminuye, la otra disminuye.]
A mayor autoestima, menor temor de logro. [Aqu la hiptesis nos indica que,
cuando una variable aumenta, la otra disminuye, y si sta disminuye aqulla
aumenta.]
Las telenovelas venezolanas muestran cada vez un mayor contenido de sexo en
sus escenas (en esta hiptesis se correlacionan las variables poca o tiempo en
que se producen las telenovelas y contenido de sexo).
En estos ejemplos, no slo se establece que hay relacin entre las variables, sino
tambin cmo es la relacin (qu direccin sigue). Como se comprender, es
diferente hipotetizar que dos o ms variables estn relacionadas a hipotetizar
cmo son estas relaciones. En el captulo Anlisis e interpretacin de los datos
se explica ms a fondo el tema de la correlacin y los tipos de correlacin entre
variables. Por el momento diremos que, cuando se correlacionan dos variables, se
le conoce como correlacin bivariada y, cuando se correlacionan varias
variables, se le llama correlacin mltiple.
Es necesario agregar que, en una hiptesis de correlacin, el orden en que
coloquemos las variables no es importante (ninguna variable antecede a la otra;
no hay relacin de causalidad). Es lo mismo indicar a mayor X, mayor Y que a
mayor Y, mayor X, o a mayor X, menor Y que a menor Y, mayor X.
Ejemplo
Quienes tienen ms altas puntuaciones en el examen de estadstica, tienden a
tener las puntuaciones ms elevadas en el examen de psicometra es igual que
Los que tienden a tener las puntuaciones ms elevadas en el examen de
psicometra son quienes tienen ms altas puntuaciones en el examen de
estadstica.
Es decir, como nos ensearon desde pequeos: el orden de los factores
(variables) no altera el producto (la hiptesis).. Desde luego, esto ocurre en la
correlacin mas no en las relaciones de causalidad, en donde vamos a ver que s
importa el orden de las variables. Pero en la correlacin no hablamos de variables
independiente y dependiente (cuando slo hay correlacin estos trminos carecen
calculador
n2
1r 2
Calculado=0.915
102
=6.59
1.0 . 9152
El valor 6.59 es mayor que el valor t de tabla de 2.3, por lo tanto se acepta como
era de esperar la hiptesis alternativa, Rho es diferente de 0. En la regresin
mltiple, se deben quitar de la ecuacin aquellos parmetros no significativos,
junto con su variable asociada.
CONCLUSIN
Cuando denominamos una regresin y correlacin lineal, se dice que son
herramienta para investigar la dependencia de una variable dependiente y en
funcin de una variable independiente x. y = f(x). Dnde:
Y= variable dependiente que se desea explicar o predecir, tambin se llama
regresor o respuesta.
X= variable independiente, tambin se llama variable explicativa, regresar o
predictor.
Regresin lineal- la relacin entre X y Y se representa por medio de una lnea
recta.
REFERENCIA BIBLIOGRFICA
www.monografias.com/trabajos30/series-de-tiempo/series-de-tiempo.
Aranzamendi N.L. (2010) La Investigacin Jurdica. El Proyecto de Investigacin y
la estructura de la Tesis. Editorial Grijley. Lima Per.
Escuela superior de informtica - Prcticas de Estadstica
Sierra B.R (1979) Tcnicas de Investigacin Social. Teora y Ejercicios. Segunda
Edicin. Editorial Paraninfo. Madrid.
Canavos, George C.; Probabilidad y Estadstica. Aplicaciones y Mtodos. McGrawHill. Mxico. ISBN-10: 9684518560.
Juan Rivas Suazo on Jueves, mayo 17th, 2012.