Está en la página 1de 13

DISEÑO Y PROBLEMAS DE INVESTIGACIÓN

OBJETIVOS

 Analizar los tipos de diseños metodológicos


 Diferenciar entre los problemas de cuantificación y correlación
 Analizar metodologías y alcances de la regresión multivariada

EJES TEMÁTICOS

1. Tipos de diseños metodológicos: Prospectivos, retrospectivos, longitudinales,


transversales.

2. Problema de cuantificación.

3. Problemas de correlación.

4. Regresión multivariada, uso predictivo, ponderativo, heurístico.


MARCO TEÓRICO

1. TIPOS DE DISEÑOS METODOLÓGICOS: PROSPECTIVOS, RETROSPECTIVOS,


LONGITUDINALES, TRANSVERSALES

En general, podemos decir que el diseño


metodológico es la descripción de la
VALIDEZ: Se refiere al grado en que se logra medir lo
forma en la que se realizará una que se pretende medir.
investigación. Estos diseños deberían  La validez es requisito para lograr confiabilidad
seleccionar y plantear modelos que de los datos.
maximicen la eficiencia en la utilización  Si una información es válida, también es
de la información y sean capaces de confiable.
reducir los errores en los resultados.

Pero, ¿cuándo un resultado es confiable?


Evidentemente, la confiabilidad debe
estar sustentada por la información que CONFIABILIDAD: Se refiere a la consistencia,
coherencia o estabilidad de la información
es recolectada y esta condición se hace recolectada.
verdadera cuando existe una coherencia  Los datos son confiables cuando al ser
en los resultados de una investigación medidos en diferentes momentos, por
con respecto al tiempo o a los distintos diferentes personas o por distintos
instrumentos; son iguales.
investigadores. Esto significa que
estaremos más confiados en un resultado  Un dato puede ser confiable pero no
cuando éste se repite en diferentes válido.
momentos o, cuando al ser realizado por
diferentes investigadores el resultado no varía.

Como ya hemos visto, la investigación no experimental es la que se realiza sin manipular


las variables independientes, se basa en variables que ya ocurrieron o se dieron en la
realidad sin la intervención directa del investigador. Es también conocida como
investigación post – facto (esto significa que los hechos y las variables ya ocurrieron).

Estudios retrospectivos

El principal objetivo de los estudios retrospectivos


es analizar una probable relación causa efecto. En La definición del diccionario para este
término es: “Que se considera en su
el área médica, por ejemplo, se los utiliza para desarrollo anterior”.
probar los posibles vínculos entre algún factor o y el
desarrollo de cierto padecimiento.
En estos estudios suelen revisarse situaciones de exposición a determinados factores y la
manifestación de alguna anomalía o enfermedad, siempre comparando grupos de
individuos enfermos con grupos de individuos sanos que se utilizan como control. Además
de probar alguna relación, los estudios retrospectivos suelen acudir a la estadística,
intentando verificar relaciones numéricas entre causas y efectos.
Básicamente se puede decir que este tipo de estudios busca las causas a partir de un
efecto evidente, lo que nos lleva a pensar que estamos yendo hacia atrás en el tiempo
(primero vemos el efecto y luego intentamos encontrar la causa), por eso el nombre de
retrospectiva.
Sin embargo, los estudios retrospectivos no se refieren a fenómenos que ya han ocurrido,
sino más bien a la secuencia con la que el investigador observa los diferentes fenómenos
del estudio.

Veamos algunas características de este tipo de estudios:

• Pueden desarrollarse con bajos costos.


• Son simples desde el punto de vista metodológico
• Ayuda a profundizar en el estudio de las variables
• Tienen muy amplias aplicaciones en las diferentes ciencias.

A pesar de estas ventajas, también podríamos enumerar algunas desventajas:

• Si las variables no son debidamente contrastadas pueden llevarnos a errores o


sesgos.
• La metodología implica evaluar grupos de pocas variables, lo que puede
resultar en evaluaciones incompletas.
• No tiene la capacidad de evaluar la modificación de las variables en el tiempo.

Estudios Prospectivos

En este tipo de estudios se miden los efectos que produce una determinada causa. Son
muy utilizados en estudios epidemiológicos, donde la causa es bien conocida y lo que se
evalúan son los efectos a corto, mediano o largo plazo. Es importante definir exactamente
la población en estudio y las condiciones de inclusión o exclusión, ya que las
observaciones se realizarán exclusivamente sobre la población definida inicialmente.
Imaginemos que intentamos realizar un estudio prospectivo de los efectos de la
exposición de una población determinada a un insecticida. Para ello necesitamos definir la
población sujeta al estudio (expuesto y no expuesto) y se la observa a través del tiempo.
El seguimiento se realiza mediante la aplicación de cuestionarios, exámenes clínicos
periódicos u otras metodologías definidas previamente. La duración del seguimiento varía
de algunos meses hasta varios años, hasta que se presente el efecto postulado en
nuestra hipótesis.

¿Cuánto durará el estudio?

Siempre depende del objetivo planteado y de las hipótesis postuladas, sin embargo, es
importante evaluar situaciones referidas a:

• Recursos económicos disponibles


• Tamaño de la población estudiada
• Disponibilidad personal

Los diseños no experimentales u observacionales, como hemos indicado, tienen como


principal condición la de que el investigador no puede manipular ni controlar las variables.
Sin embargo, el investigador puede definir la variable tiempo en su estudio. De este modo,
es capaz de observar la condición que determina su propósito de investigación en un
momento dado o a lo largo de un tiempo previamente definido. En función de esto, los
diseños no experimentales pueden dividirse en:

• Diseños transversales o
transeccionales: Son los que Una Investigación es Transversal, cuando se
estudian las variables simultáneamente en un
realizan observaciones en un determinado momento. El tiempo no es importante,
momento único. Dentro de este se estudia un fenómeno en relación a como se da en
grupo, los que miden variables ese momento dado.
de manera individual e informan Por ejemplo: se miden las alteraciones
nutricionales en niños de 4 a 6 años, atendidos en
esas mediciones son llamados
el Hospital Fernández, Año 2008.
descriptivos. Sin embargo,
cuando describen relaciones entre variables son correlacionales y, si pueden
establecer procesos de causalidad entre variables son de tipo correlacionales /
causales.

• Diseños longitudinales: Son los que


Una Investigación Longitudinal estudia una o
realizan observaciones en dos o más más variables a lo largo de un periodo, que
momentos. Si estudian una población son varía según el problema investigado y las
llamados diseños de tendencia, si en características de la variable que se estudia.
cambio analizan una subpoblación o grupo El tiempo es importante puesto que las
específico, se llaman diseños evolutivos de variables serán medidas en un periodo dado
o porque es determinante en la relación
grupo. Finalmente, si estudian los mismos causa efecto.
individuos en una población en un período Por ejemplo: Desarrollo neural de niños hijos
de tiempo se llaman diseños de panel. de madres expuestas a plaguicidas.

En un estudio longitudinal el análisis del


comportamiento de la variable puede ser Por ejemplo, se puede medir las variaciones
continuo, a lo largo de un periodo o en el número de ingresantes en la carrera de
desarrollado en forma periódica. Medicina, tomando muestras cada 5 años.
Usualmente la información es tomada de
una o varias muestras, a las que se las
somete a un seguimiento a lo largo del
período de estudio.
Dentro de los estudios longitudinales se pueden describir dos clases posibles:

 Con colección retrospectiva de datos: cuando se utilizan fuentes


secundarias, como por ejemplo: historias clínicas de hospitales,
censos oficiales, informes de laboratorio, estadísticas, etc. En
síntesis, cuando la información de base ya ha sido recavada con
anterioridad.
 Con colección prospectiva de datos: cuando la información se
obtiene directamente de la fuente, en general cuando ésta se
produce. Este tipo de estudios permite recoger los datos que serán
directamente usados en la investigación utilizando las medologías
(muestreos, por ejemplo) que el investigador designe a tal efecto.

Es preciso indicar que el diseño de la investigación se encuentra condicionado por el


problema que será investigado, el contexto en el que se realiza la investigación, el tipo
de estudio y las hipótesis planteadas.

¿Cuándo se utilizan diseños no experimentales?

• Cuando no es posible la manipulación de la variable independiente.


• Cuando la manipulación no es ética o atenta contra ideales.
• Cuando existen dificultades prácticas en la manipulación o no es rentable
o viable.
• Cuando el problema que desea investigarse requiere de la preservación
del fenómeno de manera natural (esto significa, sin intervenciones).
2. PROBLEMAS DE CUANTIFICACIÓN

Consideramos ciencias experimentales aquéllas que por sus características y


particularmente, por el tipo de problemas de los que se ocupan, pueden someter sus
observaciones o enunciados al juicio de la experimentación. Visto de otra forma, la
experimentación se refiere a la manipulación controlada, en un medio controlado (como
puede ser un laboratorio) del fenómeno que se desea investigar.

En los diseños experimentales sabemos que al menos una de las variables involucradas
en el estudio es manipulada. Por este motivo, podemos definir, dentro de las
características del diseño experimental, lo siguiente:
• Manipulación: consiste en la intervención deliberada del investigador para
producir cambios en la variable dependiente.
• Aleatorización: también pueden controlarse los efectos de la manipulación.
Dentro de este punto, es posible considerar que los diseños experimentales
pueden ser:
 auténticamente experimentales: cuando no presentan problemas
de validez interna, también llamados experimentales verdaderos.
 cuasi experimentales: cuando pueden existir variables que
confunden. Por ejemplo, si un investigador determina que A es
causa de B, pero no puede asegurar que A también puede causar
C o D.

En referencia a la aleatorización de las variables podríamos mencionar, por ejemplo, la


selección de los individuos en los grupos que formarán parte del estudio.

Es fácil comprender el tema de la cuantificación de los datos en las ciencias


experimentales, pues nos imaginamos al científico “midiendo” las variables seleccionadas
con los instrumentos técnicos disponibles. Pero, cuando nos referimos, por ejemplo, a las
ciencias de la salud, que también son básicamente experimentales, vemos que el método
imperante es el inductivo, esto es, que va de lo particular a lo general y pretende extender
las conclusiones obtenidas a partir de observaciones particulares a un todo. Es normal
que las ciencias de la salud saquen conclusiones generales observando sólo una parte de
la población. Pero para poder validar tales extensiones deben utilizar métodos
estadísticos.

Los datos que proporcionan otras ciencias experimentales, como la física o la química son
diferentes a los que se obtienen en ciencias de la salud. En las primeras, la repetición de
los experimentos debe dar lugar a idénticos resultados (dejando de lado los errores de
manipulación o los errores de medición de los instrumentos). En cambio, en las ciencias
de la salud se añade la variabilidad biológica de los sujetos experimentales. De hecho, un
individuo es diferente de otro por lo menos en alguna variable, o, incluso, el mismo
individuo es diferente en diferentes momentos. Por ello, el modo de obtener resultados
científicamente válidos a partir de estos datos es utilizar términos de probabilidad. A
pesar de estas realidades, existe una creciente cuantificación en los estudios de las
ciencias biomédicas.

En toda investigación experimental el rol de la estadística suele ser crucial. Ya desde la


fase de diseño, las afirmaciones deben ser válidas para el conjunto de individuos de
interés. En la fase de obtención de datos se requiere de conocimientos acerca de las
técnicas de muestreo más apropiadas y, evidentemente, los distintos procedimientos de
análisis de los resultados necesitan de métodos estadísticos para validar las conclusiones
alcanzadas. Si pensamos en la aplicación de distintos medicamentos podremos evaluar la
importancia de la contundencia de los resultados desde una perspectiva estadística.
Frases ambiguas como “en nuestra experiencia”, o “los datos parecen evidenciar….”, etc,
no deberían ser tomados como conclusiones científicas, ya que son dudosa extrapolación
al resto de la población no estudiada.

Existe un estudio acerca de una muestra de artículos publicados en una revista científica,
donde el autor determina que el 50% de los artículos no tenían un estudio estadístico o el
mismo era totalmente inadecuado y el 72% de los mismos tenían un diseño incorrecto,
imaginen las consecuencias de aplicar estos resultados a la aprobación de un fármaco a
nivel masivo. A raíz de la creciente importancia de la aplicación estadística a las ciencias
en general, y a las ciencias biomédicas en particular, tanto los organismos de control
como el mundo científico a través de sus medios de publicación (Congresos, Simposios o
revistas especializadas) son cada vez más exigentes en el correcto tratamiento
estadístico.

Sin embargo, debemos aclarar que la estadística no va a solucionar por sí sola los
problemas de validación. En realidad, los procedimientos estadísticos son sólo
metodologías rigurosas que nos permiten analizar los resultados y contrastar nuestras
hipótesis.
3. PROBLEMAS DE CORRELACIÓN

Si revisamos nuestros apuntes de bioestadística encontraremos que generalmente


hemos analizado una variable de interés y su comportamiento, aplicando varias
técnicas de inferencia estadística, como intervalos de confianza y pruebas de
hipótesis. A través de estas operaciones hemos extraído conclusiones y hemos
realizado estimaciones. Cuando hablamos de correlación, en cambio, intentamos
medir el grado de asociación entre variables.

Así, el estudio de la correlación se presenta como un tema relevante desde lo


metodológico, consolidando la objetividad del trabajo científico.

Cuando contemplamos dos variables (continuas o discretas cuantitativas), surgen


preguntas y problemas específicos. Esencialmente, se emplearán estadísticos
descriptivos y técnicas de estimación para contestar esas preguntas, y técnicas de
contraste de hipótesis específicas para resolver dichos problemas. Si se parte de un
modelo en el cual una de las dos variables continuas es dependiente (y) y la otra es
independiente (x), surgen nuevos estadísticos para describir los datos.
La nube de puntos, o el diagrama de dispersión, resultante de la representación
gráfica de los datos está "concentrada" en la recta de regresión de mejor ajuste, como
podemos observar en la siguiente figura.

Una condición previa, en las técnicas lineales, es que la nube de puntos debe tender a
la linealidad y los coeficientes de regresión lineal, la ordenada en el origen (a) y la
pendiente de la recta (b), son estadísticos muestrales que se representan en la forma:
y = a + bx.
Con esta técnica de ajuste a la recta, podemos ver que hay puntos más cercanos a
ella y otros que se alejan, si se toma la distancia en vertical de cada punto a la recta
de regresión, obtendremos los valores de desviación estándar de cada punto. Es
posible, que estudiando una variable bidimensional, no se desee establecer ninguna
relación de subordinación de una variable con respecto a la otra. En este supuesto, se
intenta cuantificar la asociación entre las dos características. Entramos en las técnicas
de correlación lineal. Es posible definir otro estadístico muestral a partir del las dos
pendientes teóricas de las dos posibles rectas de regresión (y) sobre(x) y de (x) sobre
(y). Este estadístico es el coeficiente de correlación r. Su cuadrado r2 es el coeficiente
de determinación y da una medida entre 0 y 1 de la cantidad de información
compartida por dos características o variables continuas en los datos muestrales.

La magnitud de la asociación entre dos variables continuas está en relación con la


dispersión de la nube de puntos. Se puede establecer una relación matemática
perfecta entre la desviación estándar y el coeficiente de determinación.

El hecho de que dos variables estén correlacionadas, aunque muestren valores muy
cercanos a 1, no implica que exista una relación de causalidad entre ellas. Se pueden
producir correlaciones causales entre dos variables, por estar ambas relacionadas con
otra tercera.

¿Existen correlaciones “engañosas?

Si, de hecho se denominan correlaciones espúreas o falsas, pues llevan a


conclusiones falsas. Esto ocurre cuando dos variables, X e Y son independientes entre
sí, pero ambas dependientes de otra variable, Z.

X Y

Veamos un ejemplo:

Rosario Ruiz Baños. Departamento de


“Cierto biólogo inglés publicó un estudio en el
Biblioteconomía y Documentación. Universidad
de Granada (España) que se comprueba que en los pueblos y
ciudades con más cigüeñas en los campanarios,
X, nacen más niños, Y. Llegó a la conclusión de que a “los niños los trae la cigüeña”.
Lo cierto es que tanto el número de cigüeñas, X, como el de niños, Y, dependen de la
causa común, Z, que es el tamaño del pueblo o ciudad. En las poblaciones grandes
hay siempre más cigüeñas y más niños. Tanto cigüeñas como niños están
correlacionados con el tamaño de la población, pero no entre ellos mismos”.
4. REGRESIÓN MULTIVARIADA, USO PREDICTIVO, PONDERATIVO, HEURÍSTICO.

Las aplicaciones de la estadística multivariada están presentes en distintas áreas de la


ciencia, que incluyen desde aplicaciones en la investigación de mercados (para
identificar características de los individuos para determinar qué tipo de personas
compran determinado producto), en la agricultura (al estudiar la resistencia de
determinado tipo de cosechas a daños por plagas y sequías), en el deporte (para
conocer a partir de medidas antropométricas las posibilidades de obtener buenos
resultados en un deporte específico), en la psicología (al estudiar la relación entre el
comportamiento de adolescentes y actitudes de los padres) o en la economía (para
conocer el nivel de desarrollo de un territorio en relación con otros y realizar
inferencias a partir de variables económicas fundamentales, entre muchas otras.

Los datos multivariados surgen cuando a un mismo individuo se le mide más de una
característica de interés. Un individuo puede ser un objeto o concepto que se puede
medir. Los principales objetivos de las técnicas multivariadas son:

 Simplificación: Los métodos multivariados son un conjunto de


técnicas que permiten al investigador interpretar y visualizar conjuntos
grandes de datos (tanto en individuos como en variables), a partir de
su simplificación o reducción.
 Relación: Encontrar relaciones entre variables, entre individuos y
entre ambos. Como por ejemplo:

o Relación entre variables: Existe relación entre variables


cuando las mismas miden características comunes. Por
ejemplo, si tomamos un examen de ingreso que involucre las
materias de historia, matemática y cultura general, aunque los
temas son muy diferentes, estamos evaluando el nivel inicial
del alumno.
o Relación entre individuos: Existe relación entre individuos si
alguno de ellos son semejantes entre sí. Ejemplo: Suponga
que se evalúan diferentes tipos de yogures respecto a su nivel
de aceptación y se miden, por ejemplo, los consumos de los
mismas para diferentes grupos de edades, se podría esperar
que los yogures con frutas o con cereales tengan algún tipo de
relación, o que los tipos sean totalmente diferentes.

En los métodos multivariados, se supone que las variables están correlacionadas, pero
las observaciones sobre los individuos son independientes. Generalmente se supone
también que el conjunto de variables que intervienen en el análisis poseen una
distribución normal multivariada. Esta suposición permite que el análisis multivariado
se desarrolle paralelamente al correspondiente análisis univariado basado en una
distribución normal.

Dentro de los métodos multivariados podemos encontrar:

 Dirigidas o motivadas por las variables: se enfocan en las relaciones entre


variables. Ejemplos: matrices de correlación, análisis de componentes
principales, análisis de factores y análisis de regresión.
 Dirigidas o motivadas por los individuos: se enfocan en las relaciones entre
individuos. Ejemplos: análisis discriminante, análisis de conglomerados y
análisis multivariado de varianza.

Una de las técnicas posibles en el análisis multivariado es la regresión múltiple. La


regresión es una técnica utilizada para la investigación y modelación de las relaciones
existentes entre variables que inciden en un determinado fenómeno de la realidad. En
un sentido amplio, la regresión es un proceso que tiene como finalidad ajustar un
modelo a un conjunto de datos u observaciones. En realidad, la ecuación de regresión
es sólo una aproximación de la relación existente entre las variables.

Análisis de Componentes Principales (ACP)

El ACP es una técnica estadística propuesta por Karl Pearson como parte del análisis
de factores. El objetivo principal del ACP es la representación de las medidas
numéricas de varias variables en un espacio de pocas dimensiones donde nuestros
sentidos puedan percibir relaciones que de otra manera permanecerían ocultas en
dimensiones superiores. Dicha representación debe ser tal que al desechar
dimensiones superiores la pérdida de información sea mínima. El ACP permite reducir
la dimensionalidad de los datos, transformando el conjunto de p variables originales en
otro conjunto de q variables incorrelacionadas, llamadas componentes principales. Las
p variables son medidas sobre cada uno de los n individuos, obteniéndose una matriz
de datos de orden np (p < n). En el ACP existe la opción de usar la matriz de
correlaciones o bien, la matriz de covarianzas. En la primera opción se le está dando
la misma importancia a todas y a cada una de las variables; esto puede ser
conveniente cuando el investigador considera que todas las variables son igualmente
relevantes. La segunda opción se puede utilizar cuando todas las variables tengan las
mismas unidades de medida y además, cuando el investigador juzga conveniente
destacar cada una de las variables en función de su grado de variabilidad. Las q
nuevas variables (componentes principales) son obtenidas como combinaciones
lineales de las variables originales. Los componentes se ordenan en función del
porcentaje de varianza explicada. En este sentido, el primer componente será el más
importante por ser el que explica mayor porcentaje de la varianza de los datos. Queda
a criterio del investigador decidir cuántos componentes se elegirán en el estudio. El
ACP tiene la ventaja de no exigir supuestos tales como la normalidad.

Análisis Discriminantes

Es una herramienta estadística que permite predecir el comportamiento nominal de


una variable dependiente a través de una combinación lineal de las variables
independientes, también llamadas variables predictivas, características o parámetros,
que hagan que los puntajes promedios de las categorías de las variables dependientes
en ésta combinación lineal se diferencien en forma máxima. Es una técnica muy
utilizada en investigaciones de mercado, por ejemplo, para predecir el valor potencial
de un producto en función de su aceptación, o en instituciones financieras, donde a
ciertas cuentas "problemáticas" se les calculan parámetros como tasas de crédito,
números de veces en mora, razones de deuda a capital, existencia de demandas.
Bertranou E. “Manual de Metodología de la Investigación Clínica”. Ed. Akadia. Bs.As.
1995.
Bunge, M. “La ciencia, su método y su filosofía”. Ed. Siglo XX. Buenos Aires, 1980.
Castiglia V. “Principios de Investigación Biomédica”. Bs.As. 1997.
Kimosky, G. “Las desventuras del conocimiento cient{ifico”. A. Z. Editora. Buenos Aires,
1997.

También podría gustarte