Está en la página 1de 36

1.

2 Matrices de Datos, Medidas, Covarianzas y


Correlaciones, Hipótesis y Variables, Transformaciones
Lineales, Teorema de la dimensión.

Matrices de Datos.
Medidas
Uno de los problemas fundamentales en Estadística es
cómo medir los aspectos de las personas, seres vivos u
objetos. Es decir, no es lo mismo tomar una población
cualquiera y medir la altura de las personas en dos clases:
altos y bajos, que tomar una escala métrica y dividirla en
segmentos, asignando a cada persona el número o medida
en cm. En un caso tendremos, en realidad, una variable
categórica (con dos categorías: altos y bajos) y en el otro,
una variable cuantitativa (1, 70; 1, 65; ...). En el primer caso
no tendrá sentido hallar una media (bajo − alto) pero sí una
moda y en el otro, sí será congruente hablar de la altura
media
Nadie pondrá en duda que determinar la medida de las
personas en altos o bajos es menos informativo que tomar
una escala métrica. De hecho, en Estadística, las técnicas
que se pueden aplicar varían según sea la información
recogida por las variables. De la misma forma, se puede
decir lo mismo en Análisis Multivariante. Técnicas como el
análisis discriminante se aplican en variables cuantitativas
distribuidas como una distribución normal, mientras que el
análisis log-lineal se aplica en variables categóricas en
exclusiva.
Como posible clasificación, según el grado de información
que contienen unas variables, se pueden dividir a éstas en:
› Variables Nominales: Sólo distinguen entre varias
categorías, sin que exista ninguna jerarquía entre ellas.
› Variables Ordinales Además de distinguir distintas
categorías para una variable, se puede distinguir una
relación de orden entre ellas. Por ejemplo, la variable
tamaño de letra en un procesador de texto: menuda,
pequeña, normal, grande y extragrande.
› Variables de Intervalo: Además de contener las
características de las dos anteriores (distingue entre
valores y entre la distinta jerarquía de valores) añade el
hecho de dotar de sentido a la diferencia entre los valores
de la variable. Es decir, la distancia o diferencia entre dos
valores consecutivos de la variable es siempre el mismo.
Un ejemplo típico sería la variable temperatura.
Sin embargo, estas variables no tienen un origen en la
medida. Por ejemplo, 0oC es el punto de congelación del
agua pura, no la ausencia de temperatura.
› Variables de razón: Son idénticas a las anteriores salvo
que presentan un origen absoluto de medida. En estas
variables tiene sentido tomar fracciones de sus valores o
razones.
Se puede decir que un valor es el doble que otro. Por ej. la
edad expresada en años: el 0 tendría el sentido de una
persona no nacida.
Covarianzas y correlaciones.
La covarianza mide la relación lineal entre dos variables.
Aunque la covarianza es similar a la correlación entre dos
variables, difieren de las siguientes maneras:
› Los coeficientes de correlación están estandarizados. Por
lo tanto, una relación lineal perfecta da como resultado un
coeficiente de 1. La correlación mide tanto la fuerza como
la dirección de la relación lineal entre dos variables.
› Los valores de covarianza no están estandarizados. Por
consiguiente, la covarianza puede ir desde infinito negativo
hasta infinito positivo. Por lo tanto, el valor de una relación
lineal perfecta depende de los datos. Puesto que los datos
no están estandarizados, es difícil determinar la fuerza de
la relación entre las variables.
Usted puede utilizar la covarianza para comprender la
dirección de la relación entre las variables. Los valores de
covarianza positivos indican que los valores por encima del
promedio de una variable están asociados con los valores
por encima del promedio de la otra variable y los valores por
debajo del promedio están asociados de manera similar. Los
valores de covarianza negativos indican que los valores por
encima del promedio de una variable están asociados con
los valores por debajo del promedio de la otra variable.
El coeficiente de correlación depende de la covarianza. El
coeficiente de correlación es igual a la covarianza dividida
entre el producto de las desviaciones estándar de las
variables. Por lo tanto, una covarianza positiva siempre
producirá una correlación positiva y una covarianza negativa
siempre generará una correlación negativa.
Hipótesis y variables.
Significado
Desde el punto de vista etimológico, la palabra hipótesis
significa una explicación supuesta que está bajo ciertos
hechos. Al descomponerse en sus raíces, resultan “hipo” y
“thesis”, siento hipo=bajo y thesis=posición o situación.
En general, una hipótesis es una suposición que permite
establecer relaciones entre variables, a raíz de haber
efectuado observaciones rigurosas.
Elementos de una hipótesis.
› Las unidades de análisis (individuos, grupos, viviendas,
escuelas).
› Las variables o sea las características y propiedades de
varían en las unidades de análisis.
› Los conectivos o elementos lógicos: influye, alcanza,
incide, limita, provoca, A mayor, A menor...
Ejemplo:
“Los estudiantes de nuevo ingreso a la Universidad que
reciban previamente el cursillo sobre técnicas y hábitos de
estudio alcanzarán un mejor rendimiento académico que
aquellos que no lo reciban”
› ¿Cuáles son las unidades de análisis?
› ¿Cuáles son las variables?
› ¿Cuál es el elemento lógico?
Respuestas:
› Las unidades de análisis son los estudiantes.
› Las variables son el cursillo sobre técnicas y hábitos de
estudio y rendimiento académico.
› Como elementos lógicos, en este caso, sólo cabe
mencionar “alcanzaran un”...
Tipos de relación entre las variables
› De asociación, por ejemplo, “El estrés contribuye al bajo
rendimiento en el trabajo”.
› De covarianza, como por ejemplo, “A mayor ingreso
familiar, mayor consumo”.
› De dependencia, tal como “si se agota la batería del
automóvil, no funciona el sistema eléctrico”.
Las variables en la hipótesis.
Una variable es cualquier condición o atributo susceptible de
modificarse o variar para tomar diferentes valores.

Ejemplo:
“Los estudiantes de último ciclo de Psicología de la
Universidad que sean entrenados utilizando la investigación
científica, desarrollarán en más corto tiempo su trabajo de
grado que aquellos que no la utilicen”.
En el ejemplo anterior, las variables son:
› Entrenamiento en utilizar la investigación científica. Esta
es la variable que se puede manipular al experimentar.
› Tiempo para desarrollar su trabajo de grado, en esta
variable se observan los efectos de la acción o
manipulación de la otra variable.
Tipos de variables.

Independientes Dependientes Intervinientes


La medición de las variables: los indicadores
Un indicador es una unidad de medida que se utiliza como
criterio para medición de una variable. Los indicadores que
especifican u operacionalizan una variable sirven para
elaborar las preguntas a responder ya sea a través de
cuestionarios, de observaciones o de pruebas
experimentales.
Ejemplo:
Algunas variables se pueden medir por procedimientos
sencillos, por ejemplo, si se tratara de medir la variable
“velocidad de un automóvil”, bastaría con utilizar el indicador
“kilómetro por hora”. Si intentaramos medir la variable
“economía” en el caso del mismo automóvil, podríamos
elegir los siguientes indicadores: kilómetro por galón, costos
de mantenimiento, precio de compra, depreciación, etc.
La medición de las variables: escalas de medición.
Son los criterios o reglas que se emplean para determinar
como expresar las variables en forma numérica, siempre
que ello sea posible.
Las escalas son: Nominales, Ordinales, y de Intervalo.
Variable NIVEL DE INGRESOS
Escala
Intervalo Más de De $500 a Menos de $500
$1,000 $1,000

Ordinal Alto Medio Bajo

Nominal Monto de ingresos que Monto de ingresos que


exige la declaración de no exige la declaración
de renta.
renta
Operacionalización de las hipótesis

Hipótesis Variables Indicadores

Enunciado de X=Variable X1
la hipótesis independiente X2
Y=Variable Y1
dependiente Y2
Caso de Análisis.

HIPOTESIS:
“Mientras mayor sea la marginación socioeconómica de la
población rural que llega a vivir a la Ciudad de San
Salvador, mayor será el su rechazo hacia las normas y
patrones socioculturales de los sectores urbanos”.
VARIABLES:
› Variable independiente (X): marginación socioeconómica.
› Variable depencidente (Y): rechazo hacia las normas y
patrones socioculturales de los sectores urbanos.
› Elemento lógico: “A mayor...”
INDICADORES: DE LA INDICADORES: DE LA
VARIABLE INDEPENDIENTE. VARIABLE DEPENDIENTE
› X1: Escasa utilización de los › Y1: Rechazo de las
servicios públicos (educación, disposiciones fiscales.
atención médica).
› Y2: Delincuencia.
› X2: Difícil acceso a la estructura
ocupacional urbana. › Y3: Invasión de predios.

› X3: Carencia de viviendas.


VARIABLE INDICADOR

Comportamiento social (forma Respeto a las normas


habitual de conducta) Tolerancia
Actitudes
Hábitos.

Valores (cualidades generales Moralidad


que tienden a generar actitudes) Libertad
Interés cultural
Justicia
VARIABLE INDICADOR
Imagen propia (idea que cada Estima personal
quien tiene de su propia Nivel de aspiraciones
persona) Nivel de tolerancia a las
frustraciones.
Creencias (firme asentimiento y Machismo/feminismo
conformidad con alguna cosa o Apego a lo religioso
acontecimiento). Subordinación de la mujer al
hombre
VARIABLE INDICADOR

Estrés (trastorno de origen Irritabilidad


psicológico que ejerce efecto Inquietud
sobre la salud y las actividades Ansiedad
que realizan las personas).
Entorpecimiento mental
Insomnio
Trastornos gastrointestinales
Cefaleas tensionales
Transformaciones Lineales
Las transformaciones lineales son las funciones con las que
trabajaremos en Algebra Lineal. Se trata de funciones entre
K-espacios vectoriales que son compatibles con la
estructura (es decir, con la operación y la acción) de estos
espacios.
Definiciones, ejemplos y propiedades básicas:
Introduciremos la noción de transformación lineal, así como
también ciertas nociones básicas asociadas a estas
funciones.
Teorema de la dimensión.

También podría gustarte