Está en la página 1de 20

Matriz de Congruencia y

Variables

Oscar Picardo Joao, PhD


De qué hablamos
La matriz de congruencia es una herramienta que brinda la
oportunidad de abreviar el tiempo dedicado a la investigación, su
utilidad permite organizar las etapas del proceso de la investigación de
manera que desde el principio exista una congruencia entre cada una
de las partes involucradas en dicho procedimiento.
Su presentación en forma de matriz permite apreciar a simple vista el
resumen de la investigación y comprobar si existe una secuencia lógica,
lo que elimina de golpe las vaguedades que pudieran existir durante los
análisis correspondientes para avanzar en el estudio.
¿Para qué sirve?
Una Matriz de Consistencia (MC): Es un cuadro horizontal, conformado
por columnas y filas, que consiste en presentar y resumir en forma
adecuada, panorámica y sucinta los elementos básicos del proyecto de
investigación, para comprender y evaluar la coherencia y conexión
lógica entre el problema, los objetivos, la hipótesis, las variables y
metodología en la investigación a realizar.

La congruencia, estudia el equilibrio y la proposición de los elementos


que integran el plan, para lo cual se analizan los objetivos en diferentes
niveles.
Características
Mide y evaluar el grado de relación (coherencia y conexión lógica) entre los
elementos esenciales del protocolo de investigación.

Presenta una visión panorámica de los principales elementos del proyecto de


investigación.

Es un documento que se elabora al inicio del proceso y se consolida después de


terminar el diseño.

A partir del planteamiento se elabora la matriz de consistencia porque sus


elementos son muy importantes pues proveen las directrices y componentes
fundamentales de la investigación además de dar coherencia a cada uno de esos
elementos.
Modelos
Existe una diversidad de modelos de Matriz de Congruencia,
dependiendo del problema de investigación.

Según (Rojas,2010): Es la herramienta que posibilita el análisis e


interpretación de la operatividad teórica del Proyecto de investigación,
que sistematiza al conjunto: Problema, objetivos, variables y
operacionalización de las variables.
Componentes de la Matriz
Variable Variable
Dependiente Independiente Sujetos
Problema Objetivo Teoría Hipótesis

Redacción concisa
Variables
De qué hablamos
Las variables en la investigación, representan un concepto de vital
importancia dentro de un proyecto. Las variables, son los conceptos
que forman enunciados de un tipo particular denominado hipótesis.
Variables independientes
Fenómeno a la que se le va a evaluar su capacidad para influir, incidir o
afectar a otras variables.

Su nombre lo explica de mejor modo en el hecho que de no depende de algo


para estar allí:

Es aquella característica o propiedad que se supone ser la causa del


fenómeno estudiado.

En investigación experimental se llama así, a la variable que el investigador


manipula. Que son manipuladas experimentalmente por un investigador.
Variables Dependientes
Cambios sufridos por los sujetos como consecuencia de la
manipulación de la variable independiente por parte del
experimentador. En este caso el nombre lo dice de manera explicita, va
a depender de algo que la hace variar.

Propiedad o característica que se trata de cambiar mediante la


manipulación de la variable independiente.

Las variables dependientes son las que se miden.


Ejemplo

Por ejemplo: ¿Como influye el SARS-Cov-2 en la tasa de mortalidad del país?

• Variable dependiente: "la tasa de mortalidad" (cambio sufrido por la variable


independiente)
• Variable independiente: “SARS-Cov2" (que es la que manipula la variable
dependiente)
Variable independiente Variable dependiente

SARS-Cov-2 tasa de mortalidad


(Cómo influye)

Lo que genera el cambio!!!! Lo que puede cambiar!!!!

Independiente de… Que depende de…


Variable Interviniente
Son aquellas características o propiedades que de una manera u otra
afectan el resultado que se espera y están vinculadas con las variables
independientes y dependientes.

Pueden ser:
Los datos cuantitativos medidos ya sea mucho o muchos de algo,
representa una cantidad o un número.

Los datos cualitativos proporcionan etiquetas o nombres,


observaciones.
De los datos cualitativos…
Variables nominales: Variables sin orden inherente o secuencia, en
otras números que se utilizan como nombres (grupo 1, grupo de
género ...), 2, etc.
Variables ordinales: Las variables con una serie ordenada, por ejemplo,
"No les gusta mucho, moderado, indiferente, desagrado."
Intervalo de variables: variables igualmente espaciados, por ejemplo,
temperatura. La diferencia entre una temperatura de 36 grados y 37
grados se considera igual a la diferencia entre 37 º y 38º.
Relación de variables: Variables espaciadas por intervalos iguales con
un verdadero punto cero, por ejemplo, edad.
De los datos Cuantitativos…
Variable discreta: El conjunto de todos los valores posibles que consiste
sólo en puntos aislados, por ejemplo, contar variables (1, 2, 3 ...)

Variables continuas: El conjunto de todos los valores que consiste en


intervalos, por ejemplo, 0-9, 10-19, 20-29 ... etcétera.
Relación de variables
• La forma de medir si existe asociación entre
variables continuas es usando el coeficiente de
correlación. Pero hay que tener siempre
presente que este coeficiente sólo se aplica a
variables continuas y sólo mide asociación
lineal.
• Es costumbre representar la variable
dependiente en el eje vertical (ordenadas) y la
independiente en el eje horizontal (abscisas).
Cuando se estudia la relación entre dos
variables, una puede considerarse causa y la
otra resultado o efecto de la primera, siendo
ésta una decisión teórica. Llamaremos variable
exógena, o variable independiente a la que
causa el efecto y variable endógena, o variable
dependiente a la que lo recibe.
Covarianza
La covarianza es una medida de la asociación lineal entre dos
variables que resume la información existente en un gráfico de
dispersión. Véase que el plano de una representación gráfica
posible puede dividirse en cuatro cuadrantes definidos por los
dos ejes.
Se denomina primer cuadrante a la zona del gráfico donde
ambas variables toman valores positivos. El segundo cuadrante
corresponde a valores negativos de la primera variable y
positivos de la segunda. El tercer cuadrante incluye los valores
negativos de ambas variables y el cuarto es donde la primera
variable toma valores positivos y la segunda valores negativos.
Para construir una medida de la asociación lineal a partir de
estas propiedades, no sólo debemos atender la proporción de
puntos en cada cuadrante, sino también la distancia en que
esos puntos se alejan o no de su origen.
La covarianza será positiva cuando los puntos se encuentran en los
cuadrantes impares Esto significa que ambas variables varían ene el mismo
sentido.
La covarianza será negativa cuando los puntos estén en los cuadrantes
pares. Esto significa que las variables varían en sentido contrario.
Finalmente, la covarianza será próxima a cero cuando no exista relación
entre ambas variables o cuando, existiendo, la relación sea marcadamente
no lineal.
El coeficiente de correlación:
La covarianza depende de las unidades de medida de las variables y se
modificará si modificamos las unidades de medida de las variables. Esto
hace que no sea útil comparar la covarianza de grupos diferentes de
observaciones con unidades (o con escalas) de medición diferentes .
Por ejemplo, una covarianza de 1 medida en metros, se transforma en una
covarianza de 100 medida en centímetros. Por lo tanto no tiene sentido
decir que si la covarianza es grande, la relación es fuerte, ya que la
covarianza cambiará si modificamos las unidades de medida de la variable.
Una medida de relación entre dos variables que resuma la información del
gráfico de dispersión, y que no dependa de las unidades de medida, se
puede construir dividiendo la covarianza por las desviaciones estándar de
ambas variables.
Una correlación nos proporciona tres datos principales:
1) la existencia o no de una relación lineal entre las variables (si da diferente de
cero)
2) la dirección de esta relación, si es que existe (por su signo positivo o negativo)
3) el grado de esta relación (por el valor absoluto del coeficiente).
Estos tres aspectos se dan, simultáneamente, con un solo valor.
La correlación, en última instancia, nos está indicando cómo varía o cambia una
característica cuando la otra característica o variable asociada cambia. Indica si dos
variables cambian o varían conjuntamente.

El coeficiente de correlación tiene las siguientes propiedades:


1) Cuando las variables están linealmente de forma exacta, el coeficiente de
correlación s será igual a uno en valor absoluto.
2) Cuando las variables no estén relacionadas ( o no lo estén linealmente) entre sí,
el coeficiente de correlación será cero.
3) El coeficiente no depende del orden en que se consideran las variables, es decir,
r(x,y)=r(y,x)

También podría gustarte