Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1.2 Matrices de Datos PDF
1.2 Matrices de Datos PDF
Matrices de Datos.
Medidas
Uno de los problemas fundamentales en Estadística es
cómo medir los aspectos de las personas, seres vivos u
objetos. Es decir, no es lo mismo tomar una población
cualquiera y medir la altura de las personas en dos clases:
altos y bajos, que tomar una escala métrica y dividirla en
segmentos, asignando a cada persona el número o medida
en cm. En un caso tendremos, en realidad, una variable
categórica (con dos categorías: altos y bajos) y en el otro,
una variable cuantitativa (1, 70; 1, 65; ...). En el primer caso
no tendrá sentido hallar una media (bajo − alto) pero sí una
moda y en el otro, sí será congruente hablar de la altura
media
Nadie pondrá en duda que determinar la medida de las
personas en altos o bajos es menos informativo que tomar
una escala métrica. De hecho, en Estadística, las técnicas
que se pueden aplicar varían según sea la información
recogida por las variables. De la misma forma, se puede
decir lo mismo en Análisis Multivariante. Técnicas como el
análisis discriminante se aplican en variables cuantitativas
distribuidas como una distribución normal, mientras que el
análisis log-lineal se aplica en variables categóricas en
exclusiva.
Como posible clasificación, según el grado de información
que contienen unas variables, se pueden dividir a éstas en:
› Variables Nominales: Sólo distinguen entre varias
categorías, sin que exista ninguna jerarquía entre ellas.
› Variables Ordinales Además de distinguir distintas
categorías para una variable, se puede distinguir una
relación de orden entre ellas. Por ejemplo, la variable
tamaño de letra en un procesador de texto: menuda,
pequeña, normal, grande y extragrande.
› Variables de Intervalo: Además de contener las
características de las dos anteriores (distingue entre
valores y entre la distinta jerarquía de valores) añade el
hecho de dotar de sentido a la diferencia entre los valores
de la variable. Es decir, la distancia o diferencia entre dos
valores consecutivos de la variable es siempre el mismo.
Un ejemplo típico sería la variable temperatura.
Sin embargo, estas variables no tienen un origen en la
medida. Por ejemplo, 0oC es el punto de congelación del
agua pura, no la ausencia de temperatura.
› Variables de razón: Son idénticas a las anteriores salvo
que presentan un origen absoluto de medida. En estas
variables tiene sentido tomar fracciones de sus valores o
razones.
Se puede decir que un valor es el doble que otro. Por ej. la
edad expresada en años: el 0 tendría el sentido de una
persona no nacida.
Covarianzas y correlaciones.
La covarianza mide la relación lineal entre dos variables.
Aunque la covarianza es similar a la correlación entre dos
variables, difieren de las siguientes maneras:
› Los coeficientes de correlación están estandarizados. Por
lo tanto, una relación lineal perfecta da como resultado un
coeficiente de 1. La correlación mide tanto la fuerza como
la dirección de la relación lineal entre dos variables.
› Los valores de covarianza no están estandarizados. Por
consiguiente, la covarianza puede ir desde infinito negativo
hasta infinito positivo. Por lo tanto, el valor de una relación
lineal perfecta depende de los datos. Puesto que los datos
no están estandarizados, es difícil determinar la fuerza de
la relación entre las variables.
Usted puede utilizar la covarianza para comprender la
dirección de la relación entre las variables. Los valores de
covarianza positivos indican que los valores por encima del
promedio de una variable están asociados con los valores
por encima del promedio de la otra variable y los valores por
debajo del promedio están asociados de manera similar. Los
valores de covarianza negativos indican que los valores por
encima del promedio de una variable están asociados con
los valores por debajo del promedio de la otra variable.
El coeficiente de correlación depende de la covarianza. El
coeficiente de correlación es igual a la covarianza dividida
entre el producto de las desviaciones estándar de las
variables. Por lo tanto, una covarianza positiva siempre
producirá una correlación positiva y una covarianza negativa
siempre generará una correlación negativa.
Hipótesis y variables.
Significado
Desde el punto de vista etimológico, la palabra hipótesis
significa una explicación supuesta que está bajo ciertos
hechos. Al descomponerse en sus raíces, resultan “hipo” y
“thesis”, siento hipo=bajo y thesis=posición o situación.
En general, una hipótesis es una suposición que permite
establecer relaciones entre variables, a raíz de haber
efectuado observaciones rigurosas.
Elementos de una hipótesis.
› Las unidades de análisis (individuos, grupos, viviendas,
escuelas).
› Las variables o sea las características y propiedades de
varían en las unidades de análisis.
› Los conectivos o elementos lógicos: influye, alcanza,
incide, limita, provoca, A mayor, A menor...
Ejemplo:
“Los estudiantes de nuevo ingreso a la Universidad que
reciban previamente el cursillo sobre técnicas y hábitos de
estudio alcanzarán un mejor rendimiento académico que
aquellos que no lo reciban”
› ¿Cuáles son las unidades de análisis?
› ¿Cuáles son las variables?
› ¿Cuál es el elemento lógico?
Respuestas:
› Las unidades de análisis son los estudiantes.
› Las variables son el cursillo sobre técnicas y hábitos de
estudio y rendimiento académico.
› Como elementos lógicos, en este caso, sólo cabe
mencionar “alcanzaran un”...
Tipos de relación entre las variables
› De asociación, por ejemplo, “El estrés contribuye al bajo
rendimiento en el trabajo”.
› De covarianza, como por ejemplo, “A mayor ingreso
familiar, mayor consumo”.
› De dependencia, tal como “si se agota la batería del
automóvil, no funciona el sistema eléctrico”.
Las variables en la hipótesis.
Una variable es cualquier condición o atributo susceptible de
modificarse o variar para tomar diferentes valores.
Ejemplo:
“Los estudiantes de último ciclo de Psicología de la
Universidad que sean entrenados utilizando la investigación
científica, desarrollarán en más corto tiempo su trabajo de
grado que aquellos que no la utilicen”.
En el ejemplo anterior, las variables son:
› Entrenamiento en utilizar la investigación científica. Esta
es la variable que se puede manipular al experimentar.
› Tiempo para desarrollar su trabajo de grado, en esta
variable se observan los efectos de la acción o
manipulación de la otra variable.
Tipos de variables.
Enunciado de X=Variable X1
la hipótesis independiente X2
Y=Variable Y1
dependiente Y2
Caso de Análisis.
HIPOTESIS:
“Mientras mayor sea la marginación socioeconómica de la
población rural que llega a vivir a la Ciudad de San
Salvador, mayor será el su rechazo hacia las normas y
patrones socioculturales de los sectores urbanos”.
VARIABLES:
› Variable independiente (X): marginación socioeconómica.
› Variable depencidente (Y): rechazo hacia las normas y
patrones socioculturales de los sectores urbanos.
› Elemento lógico: “A mayor...”
INDICADORES: DE LA INDICADORES: DE LA
VARIABLE INDEPENDIENTE. VARIABLE DEPENDIENTE
› X1: Escasa utilización de los › Y1: Rechazo de las
servicios públicos (educación, disposiciones fiscales.
atención médica).
› Y2: Delincuencia.
› X2: Difícil acceso a la estructura
ocupacional urbana. › Y3: Invasión de predios.