Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Seminario de Titulación l
Marlon Cahuasquí
03 de junio de 2019
En este documento, se presenta un resumen analítico del libro de Metodología de la
Investigación de Hernández, Fernández y Baptista (2014), desde la siguiente
perspectiva:
Cabe señalar que en algunos casos y estudios, el paso de la idea al enfoque del problema
a veces puede ser inmediato, mientras que en otros puede llevar mucho tiempo; Todo
depende del nivel de conocimiento que el investigador tiene con el tema en cuestión, la
complejidad de la idea en sí, la existencia de estudios de antecedentes, el desempeño del
investigador y las habilidades personales. Para ello, se debe considerar que la selección
de un tema o una idea no coloca al investigador en una posición inmediata para
considerar qué información recopilará, con qué métodos y cómo analizará los datos
derivados del proceso. Como anteriormente, se requiere formular el problema específico
en términos concretos y explícitos y de manera tal que sean susceptibles de ser
investigados a través de procedimientos científicos.
De esta manera y continuando con los requisitos para el desarrollo del problema de
investigación, los elementos contenidos en este epígrafe contienen, que se estima que
son:
Es necesario mencionar, que no hay una forma tácita de plantear estos problemas, ya
que cada uno requiere un análisis particular. Pero debe tenerse en cuenta que las
preguntas generales deben aclararse y delimitarse para delinear el área y el problema y
sugerir el conjunto de actividades relevantes para el desarrollo de la investigación,
evitando plantear las preguntas generales que no conducen a una investigación
específica. Y eso desvía la esencia del estudio. Por ejemplo, ¿por qué algunos
matrimonios duran más que otros? ¿Por qué hay personas que están más satisfechas con
su trabajo que otras? ¿En qué programas de televisión hay muchas escenas de sexo?
¿Las personas que tienen relaciones sexuales cambian con el tiempo? ¿Van a la
psicoterapia? ¿Usan los gerentes "más camisas de empresa" que los trabajadores?
¿Cómo se relacionan los medios con la votación? Estas preguntas son ideas iniciales
que deben ser refinadas y precisas para guiar el inicio de un estudio. De la misma
manera, es necesario evitar hacer preguntas que sean propicias para responder solo si
no, porque deberían alentar el desarrollo de la investigación.
En cuanto a esto, también debe tenerse en cuenta que las preguntas no deben plantearse
en términos ambiguos o abstractos, ya que, como puede verse en la última pregunta,
¿cómo se relacionan los medios con la votación? Por ejemplo, hablamos de "medios de
comunicación colectiva", un término que puede incluir radio, televisión, periódicos,
publicaciones, cine, publicidad exterior y otros. Asimismo, se menciona "voto", sin
especificar el tipo o contexto y sistema social (si se trata de un voto político a nivel
nacional o local, sindical, religioso, para elegir al representante de una cámara industrial
u otro funcionario, etc.).
De hecho, a medida que se formula la pregunta, surgen muchas dudas, tales como: ¿Se
investigarán los efectos de la propagación de la propaganda por estos medios en la
conducta de los votantes? ¿Se analizará el papel de estos medios como agentes de
socialización política respecto a la votación? ¿Se investigará en qué medida aumenta el
número de mensajes políticos en los medios de comunicación durante los tiempos
electorales? ; ¿Se estudiará cómo los resultados de una votación afectan lo que piensan
las personas que manejan dichos medios?, es decir, no está claro lo que realmente se va
a hacer.
Por supuesto, es muy difícil para una investigación brindar una solución y respuestas
positivas a todos estos enfoques; a veces, incluso, solo puede cumplir con un criterio,
que es suficiente para desarrollar una investigación. Por lo tanto, finalmente deben
tenerse en cuenta las consecuencias de la investigación, que, aunque no con fines
científicos, es necesario que el investigador cuestione las consecuencias de su estudio,
por aspectos éticos. Desde el punto de vista de los autores, también es un aspecto del
enfoque del problema que debe hacerse explícito y la responsabilidad es algo que vale la
pena tener en cuenta cada vez que se va a realizar un estudio.
A modo de resumen, este capítulo define que toda investigación se inicia por medio de
ideas. De la misma manera, se enumeran las diversas fuentes que inspiran estas ideas de
investigación, y se discuten las formas de desarrollarlas para formular propuestas de
investigación. Las ideas deben refinarse mediante una investigación previa de los temas
relacionados con estas ideas, a fin de estructurar un mejor enfoque del problema. Del
mismo modo, los criterios fundamentales se revisan en este proceso, como definir el
problema, la relación entre las variables, formular las preguntas, tratar un problema
medible u observable; y se presentan los principales elementos de la declaración del
problema: objetivos, preguntas de investigación, justificación del estudio, viabilidad del
estudio, evaluación de las deficiencias en el conocimiento del problema.
Cuando se debe plantear una teoría sólida que explique el enfoque de interés, se ha de
presentar un nuevo enfoque al estudio: a partir de lo que ya se ha demostrado, se
plantean otras preguntas de investigación, obviamente aquellos que no han podido
resolver la teoría o, para profundizar y ampliar elementos de la teoría y visualizar
nuevos horizontes. También se puede encontrar una buena teoría, pero aún no se ha
probado ni aplicado a ningún contexto. Si es así, es interesante someterlo a pruebas
empíricas bajo otras condiciones. Por ejemplo, una teoría de las causas de la
satisfacción laboral desarrollada en Japón que desea probar en Argentina o Brasil; o una
teoría de los efectos de la exposición al contenido sexual en la televisión que solo se ha
investigado en adultos, pero no en adolescentes.
En este mismo orden de puntos, la función más importante de una teoría es explicar: por
qué, cómo y cuándo ocurre un fenómeno. Otra función de la teoría es sistematizar o dar
orden al conocimiento sobre un fenómeno o realidad. Además, una función de la teoría,
muy asociada con la explicación, es la predicción; es decir, hacer inferencias al futuro
sobre cómo se manifestará u ocurrirá un fenómeno en determinadas condiciones.
Los pasos que sustentan la investigación deben cumplir o seguir los criterios para
evaluar una teoría, tales como: capacidad de descripción, explicación y predicción,
consistencia lógica, perspectiva, fructificación y parsimonia. Basado en estos criterios,
cuando hay una teoría capaz de describir, explicar y predecir el fenómeno de una
manera lógica y coherente, y cuando cumple con los otros criterios de evaluación
mencionados anteriormente, la mejor estrategia para estructurar y construir el marco
teórico es tomar esa teoría.
Por lo tanto, al revisar la literatura, se descubren varias teorías aplicables al problema de
investigación, podemos elegir una y construirla para construir el marco teórico
(desglosar la teoría o cronológicamente) o tomar parte de algunas o todas las teorías,
solo lo que está relacionado con el problema de estudio que se tomaría de las teorías. En
la primera situación, al elegir la teoría que recibe una evaluación positiva y que se aplica
más al problema de investigación. En la segunda situación, las teorías, se toman solo lo
que está relacionado con el problema de estudio.
Del mismo modo, cuando existen teorías o generalizaciones empíricas sobre un tema, es
conveniente agregar las siguientes preguntas:
1. ¿Quiénes o quiénes son los autores más importantes dentro del campo de
estudio?
2. ¿Hay algún investigador que haya estudiado el problema en un contexto similar
al nuestro?
Por lo tanto, una vez que se haya extraído y recopilado la información de interés sobre
las referencias pertinentes para el problema de investigación, se iniciará la elaboración
del marco teórico, que se basará en la integración de la información recopilada. Un paso
previo consiste en ordenar la información compilada de acuerdo con uno o varios
criterios lógicos y apropiados para el sujeto de la investigación y, en algunos casos, se
ordena cronológicamente; otros, por subtemas o por teorías.
En cualquier caso, la elaboración del marco teórico se lleva a cabo para sustentar
teóricamente el estudio, lo que implica analizar y exponer aquellas teorías, enfoques
teóricos, investigaciones y antecedentes generales que se consideran válidos para el
correcto encuadre del estudio. El marco teórico cumple varias funciones dentro de una
investigación, entre las que se destacan las siguientes seis:
En el caso de las fuentes secundarias y terciarias, se basa en el hecho de que una fuente
secundaria resume las fuentes de primera mano, y la fuente terciaria reúne fuentes de
segunda mano, con respecto a cómo comenzó la revisión de la literatura; por lo que, es
aconsejable comenzar a revisar la literatura consultando a uno o varios expertos en el
tema y dirigiéndose a fuentes secundarias o terciarias.
Sobre la base de poder identificar la literatura de interés, que servirá para elaborar el
marco teórico, podemos ir a:
Teniendo en cuenta los aspectos antes mencionados, una vez que se identifican las
fuentes primarias, deben ubicarse físicamente en bibliotecas, bibliotecas de películas,
archivos de periódicos, bibliotecas de video o donde se encuentren. Posteriormente, son
consultados, seleccionando aquellos que serán útiles, descartando aquellos que no son
útiles. Para esto, procedemos a seleccionar las fuentes primarias que serán útiles,
planteando las siguientes preguntas: ¿Está la referencia relacionada con mi problema de
investigación? ¿Cómo? ¿Qué aspectos aborda? ¿Desde qué perspectiva aborda el tema?
¿Psicológico, antropológico, sociológico, comunico-lógico, administrativo? La
respuesta a esta última pregunta es muy importante.
Luego, una vez que se han seleccionado las referencias o fuentes primarias útiles para el
problema de investigación, se revisan cuidadosamente y se extrae la información
necesaria para luego integrarla y desarrollar el marco teórico. En este sentido, es
recomendable anotar todos los datos de identificación completos de la referencia. De
manera similar, hay diferentes maneras de recopilar la información que se extrae de las
referencias, de hecho, cada persona puede diseñar su propio método de acuerdo con la
forma en que trabaja.
Algunos autores sugieren el uso de fichas (Rojas, 1981, Pardinas, 1975, Garza, 1976 y
Becker y Gustafson, 1976, citados en Hernández, Fernández y Baptista, 2014); sin
embargo, la información también se puede recopilar en hojas sueltas, cuadernos o
cuadernos; incluso hay quienes lo graban. La forma de compilar es la menos importante,
la más relevante es que se extraen los datos e ideas necesarios para la elaboración del
marco teórico. En cualquier caso, es esencial anotar la referencia completa de donde se
extrae la información según el tipo de referencia en cuestión (capítulos de libros,
artículos de revistas, videocasetes y películas, documentos presentados en seminarios,
conferencias, congresos y eventos), entrevistas con expertos, tesis y disertaciones,
documentos inéditos...).
De modo que, una vez que se obtienen las herramientas requeridas para la búsqueda de
la literatura, se procede a la construcción del marco teórico, considerando que el
objetivo principal de la revisión de la literatura se da para analizar y discernir si la teoría
existente y la anterior. La investigación sugiere una respuesta, aunque sea parcialmente,
a la pregunta o pregunta de investigación o una dirección a seguir dentro del tema de
estudio (Dankhe, 1986 citado en Hernández, Fernández y Baptista (2014); ya que la
literatura revisada puede revelar, en relación con el problema de la investigación, lo
siguiente:
En correlación con estos enfoques, la elaboración del marco teórico se lleva a cabo para
sustentar teóricamente el estudio, implica analizar y exponer esas teorías, enfoques
teóricos, investigaciones y antecedentes generales que se consideran válidos para el
correcto encuadre del estudio; escribiendo los párrafos de manera coherente y citando
las referencias de manera apropiada (con un estilo editorial aceptado como APA,
Harvard o Vancouver u otros que se requieran).
El marco teórico, debe cumplir, con diversas funciones dentro de una investigación,
entre las que destacan las siguientes:
1. Ayudar a prevenir errores que se hayan cometido en otros estudios.
2. Guía sobre cómo se realizará el estudio (teniendo en cuenta los
antecedentes existentes).
3. Amplía el horizonte del estudio y guía al investigador, evitando
desviaciones del enfoque original.
4. Conduce al establecimiento de hipótesis o afirmaciones que luego serán
probadas en la realidad.
5. Inspira nuevas líneas y áreas de investigación.
6. Proporcionar un marco para interpretar los resultados del estudio.
Para la construcción de este marco teórico puede utilizar varios métodos, factibles para
lograr un buen enfoque de tales sustentos, en este sentido, se mencionan los siguientes:
Al llegar a este punto, otro aspecto que preocupa a los investigadores, especialmente a
los principiantes, está relacionado con la cantidad de referencias que se deben usar, en
este sentido no hay una respuesta exacta. Sin embargo, algunos autores sugieren un
mínimo de 30 referencias para tesis de licenciatura o maestría y artículos para publicar
en revistas académicas.
Dentro de estos mismos puntos, podrían surgir dudas acerca de cuán extenso debería ser
el marco teórico, a lo que se recomienda que el marco teórico de las propuestas de tesis
(licenciatura y maestría) oscile entre 8 y 15 páginas estándar, en artículos para revistas
científicas, de 6 a 12; en tesis de licenciatura y maestría, de 20 a 40; y en disertaciones
doctorales, de 40 a 50. Una tendencia es que el marco teórico es breve y concreto, pero
sustancial (con referencias sobre el enfoque del problema). En función a esto, se
consideran una extensión aproximada de 10,000 palabras y desarrollan entre cuatro o
cinco secciones fundamentales. Cualquier investigador también puede dilucidar si se ha
realizado una revisión adecuada de la literatura y una buena selección de referencias
para integrarlos en el marco teórico o la perspectiva.
En este sentido, el valor presentado por este tipo de estudio se basa en el hecho de que
contribuye al reconocimiento de fenómenos desconocidos, obtiene información para
realizar una investigación más completa de un contexto particular, investiga nuevos
problemas, identifica conceptos o variables prometedores, establecer prioridades para
futuras investigaciones, o surgir afirmaciones y postulados. Estos, en pocas ocasiones
constituyen un fin en sí mismos, generalmente determinan tendencias, identifican áreas,
entornos, contextos y situaciones de estudio, relaciones potenciales entre variables; o
establecer el "tono" de investigaciones posteriores más elaboradas y rigurosas.
En este tipo de estudios, el investigador debe poder definir, o al menos visualizar, qué se
medirá (conceptos, variables, componentes, etc.) y sobre quién se recopilarán los datos
(personas, grupos, comunidades, objetos, animales, hechos, etc.). En esta dirección, la
descripción puede ser más o menos profunda, aunque en cualquier caso se basa en la
medición de uno o más atributos del fenómeno de interés.
Por lo tanto, el valor que representa se basa en el hecho de que a través de este tipo de
estudios, permiten mostrar con precisión los ángulos o dimensiones de los fenómenos,
eventos, comunidades, contextos o situaciones y sus componentes.
Avanzando en los enfoques, los estudios de alcance Correlacional, tienen como
propósito medir el grado de relación que existe entre dos o más conceptos, variables o
características entre sí; miden cada uno de ellos y luego cuantifican y analizan el enlace.
Al evaluar el grado de asociación entre dos o más variables, cada una de ellas se mide y
luego cuantifican y analizan el enlace, que puede ser positivo o negativo. Si no hay
correlación entre las variables, esto indica que fluctúan sin seguir un patrón sistemático
entre sí. Tales correlaciones, se basan en hipótesis probadas, lo que permite responder
preguntas como: ¿Los niños que dedican más tiempo a la televisión cada día tienen un
vocabulario más amplio que los niños que ven menos televisión cada día? ¿Los
agricultores que adoptan una innovación más rápidamente poseen mayor inteligencia
que los campesinos que la adoptan más tarde?
Respecto al valor de este tipo de estudio, ya que en cierta medida tienen una
importancia explicativa, aunque parcial, pues el hecho de saber cómo se comportan dos
conceptos o variables se relaciona con la información explicativa. Por lo tanto, es útil
mostrar con precisión los ángulos o dimensiones de los fenómenos, eventos,
comunidades, contextos o situaciones, lo que se consigue con este método.
Dentro de estas indicaciones, los estudios de alcance explicativo van más allá de la
descripción de conceptos o fenómenos o el establecimiento de relaciones entre
conceptos; tienen como objetivo responder a las causas de los eventos físicos o sociales,
centrándose en explicar por qué ocurre un fenómeno y bajo qué condiciones ocurre, o
por qué dos o más variables están relacionadas; buscando encontrar las razones o causas
que causan ciertos fenómenos y especifique las propiedades, características y perfiles de
personas, grupos, comunidades, procesos, objetos o cualquier otro fenómeno que esté
sujeto a un análisis. Este tipo de estudios son más estructurados que las otras clases y,
de hecho, implican sus propósitos (exploración, descripción y correlación), además de
proporcionar un sentido de comprensión del fenómeno al que se refieren.
En estos estudios correlacionales, el investigador debe poder definir, o al menos
visualizar, qué se medirá (qué conceptos, variables, componentes, etc.) y sobre quién o
quiénes se recopilarán los datos. A través de los cuales su valor, están más estructurados
que otras investigaciones (de hecho, implican los propósitos de estos), además de
proporcionar un sentido de comprensión del fenómeno al que se refieren.
Dentro de los mismos enfoques, se consideran dos factores principales que influyen
para que una investigación se inicie como exploratoria, descriptiva, correlacional o
explicativa, tales como: el conocimiento actual del tema de investigación que revela la
revisión de la literatura y la perspectiva que el investigador pretende darle a su estudio.
En cuanto a las hipótesis, son suposiciones o predicciones que se hacen sobre los
resultados de un proyecto de investigación. Se consideran guías que permiten orientar el
trabajo hacia el logro de un determinado objetivo o conclusión. Estos se derivan del
análisis del problema o fenómeno a investigar y tienen en cuenta la teoría propuesta
para la tesis. Hasta cierto punto, una hipótesis es una respuesta provisional a las
preguntas planteadas en el capítulo sobre la declaración del problema. Obviamente, el
investigador espera que la hipótesis se cumpla de acuerdo con su capacidad para la
proyección lógica de los resultados.
Lo cual, no siempre resultan ser ciertos, ya que en muchas investigaciones los datos
recolectados no permiten verificar una hipótesis de manera definitiva, incluso si los
resultados obtenidos lo niegan por completo. Por tanto, si estos casos ocurren, no hay
problemas para las investigaciones, porque son suposiciones y no hechos concretos.
Dentro de los mismos puntos, las hipótesis se clasifican en: nula, alternativas y
estadísticas. También se pueden clasificar en: correlación, diferencia de grupos y
causas; y, pueden ser multivariados o bivariados.
Para un investigador, una de las dudas que se presentan en esta fase del estudio es
cuántas hipótesis se deben formular en una investigación, ya que algunas contienen una
variedad de hipótesis porque el problema de la investigación es complejo, lo que
depende del estudio que se realice, ya que cada investigación es diferente. Del mismo
modo, en la misma investigación es posible establecer todo tipo de hipótesis, cuando el
problema de investigación lo requiere.
Otro aspecto que es importante tener en cuenta en los estudios cuantitativos que se
hipotetizan, son las pruebas de hipótesis, para determinar si son compatibles o refutadas;
estos ya están sujetos a pruebas empíricas o escrutinio. Pero, la evidencia se
proporciona a su favor o en contra de ellos; ya que cuando se prueba la hipótesis y no se
aprueba, siempre se debe verificar en la realidad.
En esta fase, también es necesario establecer la utilidad de las hipótesis, que reside en
saber qué se busca, qué intentar y establecer evidencia empírica a favor o en contra, y
afirma o niega algo sobre el fenómeno con el que está asociado o con referencia tienen
una función descriptiva y explicativa, a través de las teorías de prueba, lo permiten o si
se demuestra que construyen teorías o las bases para desarrollar este proceso y en
algunos casos pueden sugerir teorías.
De acuerdo con estos enfoques, las variables deben definirse de dos maneras:
conceptual y operacional, a saber:
En este marco, las hipótesis que puedan contrastarse directamente con hechos empíricos
(hipótesis empíricas). Este proceso deductivo se denomina: operacionalización de
variables o derivación de conclusiones empíricas; este proceso es importante ya que las
hipótesis teóricas se encuentran en el plano abstracto y no pueden someterse
directamente a la prueba empírica. Para esto, se necesitan variables, indicadores, sub-
indicadores y elementos de los conceptos teóricos que recopilan o rescatan los datos
empíricos de la realidad en estudio. Una vez verificadas las relaciones entre los
indicadores y sub-indicadores (conceptos empíricos), inician el proceso inverso
(inductivo) que permite verificar las relaciones intermedias y las relaciones entre los
conceptos teóricos de cada variable.
Finalmente, es necesario que las hipótesis y las variables propuestas para el desarrollo
de las investigaciones permitan anticipar sus resultados, ya que no solo sirve como
instrumento para los estudios, sino que se presentan como una conjetura plausible de la
realidad y una anticipación probable de la verdad, necesariamente fundada en una
observación previa. Mientras, las variables son las características que pueden asumir
diferentes valores cualitativos o cuantitativos entre los elementos de una población y,
por lo tanto, permiten establecer diferencias y similitudes entre estos elementos,
teniendo en cuenta el grado en que poseen la característica definida, estas se integran en
las hipótesis de verificación. Sin embargo, en las investigaciones que no plantean
hipótesis, las variables sí se manifiestan porque ayudan a dirigir los estudios a
desarrollar.
Para responder a las preguntas de investigación planteadas para el desarrollo del estudio
y cumplir con los objetivos establecidos, el investigador debe seleccionar un diseño de
investigación específico. Al establecer y formular hipótesis, los diseños son aquellos
que hacen factible su verificación; las cuales pueden ser experimentales o no
experimentales.
De tal manera que, una vez que se define y considera el problema, se determina el
alcance inicial de la investigación y se formulan las hipótesis (o no se establecieron
debido a la naturaleza del estudio), el investigador debe visualizar las respuestas
prácticas y específicas. Las preguntas de la investigación, y que además le permite
cubrir los objetivos preestablecidos y analizar la certeza de las hipótesis formuladas en
un contexto particular, lo que implica seleccionar o desarrollar uno o más diseños de
investigación y aplicarlos al contexto particular de su estudio.
Dentro de estos enfoques, el término experimento tiene al menos dos significados, uno
general y otro particular. El general se refiere a "elegir o realizar una acción" y luego
observar las consecuencias. Este uso del término es bastante coloquial; luego, se habla
de "experimentar" cuando se mezclan sustancias químicas y se ve la reacción que ha
provocado. Es decir, que la concepción del experimento es que requiere la manipulación
intencional de una acción para analizar sus posibles resultados.
Estos tipos de estudios se llevan a cabo sin manipular deliberadamente las variables
independientes; se basa en categorías, conceptos, variables, eventos, comunidades o
contextos que ya han ocurrido o han ocurrido sin la intervención directa del
investigador; Estos se dividen en:
Diseños transaccionales: hacer observaciones en un momento y en un tiempo,
únicos y determinados. Cuando recopilan datos en un área nueva sin ideas
previas (son exploratorias, descriptivas y correlacionales-causales).
Diseños longitudinales: generan observaciones en dos o más momentos o puntos
en el tiempo. Si estudian una población, son diseños de tendencias si analizan
una subpoblación o un grupo étnico son diseños de análisis evolutivo de grupos
(cohorte) y se estudia el diseño de paneles de los mismos participantes.
Este tipo de estudio, plantea como el primer requisito para realizar un experimento puro,
es la manipulación intencional de una o más variables independientes, que se consideran
como causas alegadas enuncian la relación entre las variables o la condición
antecedente, dentro de la cual una variable dependiente es el efecto originado por la(s)
causa(s)
Los requisitos para realizar un experimento deben considerar estos aspectos: el primer
paso es elegir la variable específica de acuerdo con algunos criterios teóricos. Es obvio
que esta variable debe estar estrechamente relacionada con las variables dependientes.
Si estuviera destinado a analizar el efecto del uso de diferentes tipos de materiales
didácticos complementarios en el rendimiento de lectura, el emparejamiento podría
basarse en la variable "agudeza visual". Los experimentos sobre métodos de enseñanza
coincidirían con los grupos en "conocimientos previos", "uso previo en un tema
relacionado con los contenidos para enseñar" o "inteligencia". Los experimentos
relacionados con las actitudes hacia los productos o el comportamiento de compra
pueden usar la variable "ingresos" para vincular grupos. En cada caso particular, se debe
pensar en la variable cuya influencia en los resultados del experimento es más necesaria
para controlar y buscar el apareamiento de los grupos en esa variable.
En relación, el segundo paso es obtener una medida de la variable elegida para que
coincida con los grupos, esta medida puede existir o hacerse antes del experimento. En
este punto, se puede suponer que el experimento fue sobre métodos de enseñanza, el
emparejamiento se basaría en la inteligencia. Si fueran adolescentes, se obtendrían
registros de inteligencia de ellos o se les daría una prueba de inteligencia.
Acerca del tercer paso, consiste en ordenar a los participantes en la variable en la que se
realizará la coincidencia. Y, finalmente, el cuarto paso se aplica para formar pares,
tercias, cuartetos, etc., de los participantes de acuerdo con la variable de apareamiento
(son individuos que tienen la misma puntuación en la variable o una puntuación similar)
e ir asignando a cada miembro de cada pareja, tercera o similar a los grupos del
experimento, busca un equilibrio entre estos. También podría intentar unir los grupos en
dos variables, pero ambas deberían estar altamente relacionadas; ya que, de lo contrario
sería muy difícil hacerlas coincidir.
Los estudios de investigación presentan, según el caso, la validez interna y/o la validez
externa. Acerca de la validez interna, se refiere al grado en que un experimento excluye
explicaciones alternativas de los resultados; es decir, en la medida en que la
manipulación de la variable independiente es responsable de los cambios en la variable
dependiente. Cualquier factor o fuente que no sea una variable independiente y que no
pueda explicar los resultados es una amenaza para la validez interna. De esta manera, la
validez interna es un mínimo básico sin el cual un experimento está abierto a múltiples
explicaciones alternativas.
Para seleccionar una muestra, lo primero que debe hacer es definir la unidad de
muestreo/análisis (casos o elementos: si se trata de individuos, organizaciones, períodos,
comunidades, situaciones, piezas producidas, eventos, etc.), una vez definido el
muestreo/ la unidad de análisis, se procede a delimitar la población de estudio.
Dentro de las muestras hay diferentes tipos, entre los cuales se mencionan:
Cuando se hace una muestra probabilística, se debe considerar: dado que una población
es de tamaño N, ¿cuál es el número más pequeño de unidades de muestra (personas,
casos, organizaciones, capítulos de telenovelas, etc.) que necesito para hacer una
muestra (n) para asegurar un cierto nivel de error estándar, digamos menos de 0.01? La
respuesta es encontrar una muestra que sea representativa del universo o población con
alguna posibilidad de error (para minimizar) y nivel de confianza (maximizar), así como
también probabilidad.
Finalmente, cabe destacar que el teorema del límite central establece que una muestra de
más de cien casos será una muestra con una distribución normal en sus características;
sin embargo, la normalidad no debe confundirse con la probabilidad. Mientras que el en
el primero, es necesario para realizar pruebas estadísticas, el segundo es un requisito
esencial para hacer inferencias correctas sobre una población.
Este capítulo 9 procede a analizar los requisitos que debe cubrir un instrumento para
recopilar adecuadamente datos cuantitativos, tales como: confiabilidad, validez y
objetividad. Además, se definen el concepto de medición y los errores que se pueden
cometer al recopilar datos. A lo largo del capítulo, se destaca el proceso para elaborar
un instrumento de medición y las principales alternativas para recopilar datos:
cuestionarios y escalas de actitud.
Dentro de estas perspectivas, se señala lo que significa medir, que significa "asignar
números a objetos y eventos según las reglas" (Hernández, Fernández y Baptista, 2014).
Sin embargo, esta definición es más apropiada para las ciencias físicas que para las
ciencias sociales, ya que varios de los fenómenos que se miden en ellas no pueden
caracterizarse como objetos o eventos, ya que son demasiado abstractos para ello. La
disonancia cognitiva, la alienación, el producto nacional bruto y la credibilidad son
conceptos tan abstractos que se consideran cosas que se pueden ver o tocar (definición
de objeto o solo como resultado, consecuencia o producto, definición de evento).
Este razonamiento sugiere que es más apropiado definir la medición como el proceso de
volver a vincular conceptos abstractos con indicadores empíricos, que se realiza a través
de un plan explícito y organizado para clasificar (y a menudo cuantificar) los datos
disponibles, los indicadores, en términos del concepto que el investigador tiene en
mente proceder a desarrllar (Carmines y Zeller citados en Hernández et al., 2014).
Por lo que, se debe tener presente que en toda investigación, se aplica un instrumento,
para medir las variables contenidas en las hipótesis (y cuando no hay hipótesis,
simplemente para medir las variables de interés). Esta medición es efectiva cuando el
instrumento de recolección de datos representa realmente las variables que se han
establecido para el estudio. Si este no es el caso, la medición es deficiente y, por lo
tanto, la investigación carece de reticencia y no tiene sentido desarrollarla. Por supuesto,
como no existe una medida perfecta, es prácticamente imposible representar fielmente
variables como la inteligencia, la motivación, el nivel socioeconómico, el liderazgo
democrático, la actitud hacia el sexo y otros; pero debe ser abordado, en la medida de lo
posible, a la representación fiel de las variables a observar, mediante el instrumento de
medición diseñado.
En referencia a los requisitos, que deben cubrir un instrumento para que sea viable para
su uso, es confiable y válido. Por lo tanto, confiabilidad se refiere al grado en que su
aplicación repetida al mismo sujeto u objeto produce los mismos resultados. Lo que está
determinado por diversas técnicas. Mientras que la validez, se refiere al grado en que un
instrumento mide realmente la variable que pretende medir.
También se tienen una serie de instrumentos para medir los datos en la investigación,
tales como: cuestionarios, escalas de actitudes, entre otros. El cuestionario consiste en
un conjunto de preguntas, con respecto a una o más variables que deben medirse, lo que
deben ser coherente con la planificación del problema y la hipótesis y pueden tener dos
tipos de preguntas cerradas o abiertas. La elección del tipo de preguntas contenidas en el
cuestionario, depende del grado en que se pueden anticipar las posibles respuestas, el
tiempo disponible para la codificación y si se desea una respuesta más precisa o se
profundiza una pregunta. Una recomendación para construir un cuestionario es analizar,
variable por variable, qué tipo de pregunta o preguntas son generalmente más confiables
y válidas para medir esa variable, de acuerdo con la situación del estudio.
En este caso, las preguntas cerradas son aquellas que contienen opciones para respuestas
previamente delimitadas. Son más fáciles de codificar y el análisis puede ser dicotómico
o incluir varias opciones de respuestas, como las escalas, como en el caso de las escalas
Likert. Respecto a las preguntas abiertas, las alternativas de respuesta no están
delimitadas y son útiles cuando no hay suficiente información sobre las posibles
respuestas de las personas.
En este segundo caso, debe asegurarse de tener un número suficiente de elementos para
medir todas las variables en cada una de sus dimensiones. Ya sea que se seleccione y
adapte un instrumento previamente desarrollado o se construya uno, constituye la
versión preliminar de la medida, que debe ser pulida y ajustada.
1. Nivel de medición nominal: en este nivel hay dos o más categorías del elemento o
variable. Las categorías no tienen orden ni jerarquía. Lo que se mide se coloca en una u
otra categoría, lo que indica solo diferencias con respecto a una o más características.
Por ejemplo, la variable sexo de la persona tiene solo dos categorías: masculina y
femenina (si la variable fuera "práctica sexual" podría haber más, pero el sexo solo tiene
dos categorías). Ninguna de las categorías tiene una jerarquía más alta que la otra, las
categorías solo reflejan diferencias en la variable. No hay orden de mayor a menor.
Precisos y elementos para cada dimensión. Los números utilizados en este nivel de
medición tienen una función puramente de clasificación y no pueden manipularse
aritméticamente. Las variables nominales pueden incluir dos categorías, deniminadas
dicotómicas o tres o más categorías (categóricas). Ejemplos de variables nominales
dicotómicas, serían el sexo y el tipo de escuela a la que asiste (público-privado); y de
los nombres categóricos tendríamos la afiliación política (Partido A, Partido B,...), la
carrera elegida, la carrera, el departamento o provincia o estado de nacimiento y el canal
de televisión preferido.
2. Nivel de medición ordinal: en este nivel hay varias categorías, pero también tienen un
orden de mayor a menor. Las etiquetas o símbolos de las categorías indican jerarquía.
Por ejemplo, el prestigio ocupacional en los Estados Unidos ha sido medido por varias
escalas que ordenan las profesiones según su prestigio, por ejemplo: valor en la escala
profesión 90 - Ingeniero químico; -80 Científico de Ciencias Naturales <excluyendo
Química> 60-Actor 50-Operador de estaciones eléctricas de potencia; 02 Fabricantes de
tabaco; lo que hace necesario hacer una lista de variables, elementos y niveles de
medición.
Una vez que se indica el nivel de medición de cada variable y elemento y se determina
su codificación, se aplica una "prueba piloto" del instrumento de medición. Es decir, se
aplica a personas con características similares a las de la muestra o población objetivo
de la investigación. En esta prueba, se analiza si se comprenden las instrucciones y si
los elementos funcionan correctamente. Los resultados se utilizan para calcular la
fiabilidad y, si es posible, la validez del instrumento de medición. La prueba piloto se
lleva a cabo con una muestra pequeña (inferior a la muestra final). Los autores advierten
que cuando la muestra es 2000 más, la prueba piloto se lleva a cabo con entre 25 y 60
personas; a menos que la investigación requiera un número mayor.
Dentro de estos enfoques, la extensión del cuestionario será de acuerdo con las variables
e indicadores que están involucrados y que miden lo que se está midiendo. Estos se
pueden aplicar autoadministrados, por teléfono e internet, entrevista personal, a través
de redes sociales.
Por otro lado, prácticamente todas las instituciones de educación superior, centros de
investigación, empresas y sindicatos tienen sistemas informáticos para archivar y
analizar datos. Este supuesto, se presenta en este capítulo, por lo que se hace hincapié en
la interpretación de los métodos de análisis cuantitativo y no en los procedimientos para
calcularlos.
Para lo cual, una vez que los datos han sido codificados y transferidos a una matriz, así
como almacenados en un archivo, el investigador puede proceder a analizarlos. Dicho
análisis se lleva a cabo en la matriz de datos mediante un programa informático; lo que
depende de tres factores:
En este sentido, cada variable tiene una forma de ser procesada; por ejemplo, los
análisis realizados en una variable nominal no son lo mismo que uno realizado a
intervalos. Generalmente, el investigador busca, primero, describir los datos y luego
realizar el análisis estadístico para relacionar las variables; es decir, realice el análisis de
estadísticas descriptivas para cada una de las variables y luego describa la relación que
existe entre ellas.
Los tipos o métodos de análisis son variados y se discutirán, pero debe tenerse en cuenta
que el análisis no es indiscriminado, cada método tiene su fundamento y un propósito
específico, no se debe hacer más análisis de lo necesario. La estadística no es un fin en
sí misma, es una herramienta para analizar datos. Los principales análisis que se pueden
realizar son:
- Fase 1: seleccione y ejecute un programa apropiado para analizar los datos (SPSS,
Stas, SAS, otros).
- Fase 2: Explorando los datos: analice descriptivamente los datos por variable y
visualice los datos por variable.
- Fase 3: evaluar la confiabilidad y validez del instrumento de medición.
- Fase 4: Analizar las hipótesis (análisis estadístico inferencial) a través de pruebas
estadísticas.
- Fase 5: Realizar análisis adicionales.
- Fase 6: Prepare los resultados para presentarlos (tablas, gráficos, figuras, tablas,
etc.).
En relación con las estadísticas descriptivas de cada variable, cuya tarea es describir los
datos, valores o puntajes obtenidos para cada variable. Esto incluye distribuciones de
frecuencia, que consiste en un conjunto de puntuaciones ordenadas, en sus respectivas
categorías y generalmente presentados como tablas. A veces, las categorías de las
distribuciones de frecuencia son tantas que es necesario resumirlas.
Por otro lado, los polígonos de frecuencia relacionan las puntuaciones con sus
respectivas frecuencias. Es bastante típico de un nivel de medición por intervalos o
relación. Los polígonos se construyen en los puntos medios de los intervalos. Los
polígonos de frecuencia representan curvas útiles para describir los datos. Indican dónde
se concentran los casos (personas, organizaciones, segmentos de contenido, mediciones
de contaminación, datos de presión arterial, etc.) en la escala de la variable.
Las principales medidas de tendencia central son tres: moda, medio y medio. El nivel de
medición de la variable determina qué medida de tendencia central es apropiada para
interpretar. La moda es la categoría o puntaje que ocurre con mayor frecuencia, es la
medida de tendencia central más utilizada y puede definirse como el promedio
aritmético de una distribución, se simboliza como: X, es la suma de todos los valores
dividida por el número de los casos, que se utiliza con cualquier nivel de medida.
Cabe destacar, que al describir los datos, con respecto a cada variable del estudio,
interpretamos las medidas de tendencia central y de la variabilidad como un todo, no de
forma aislada, se consideran todos los valores. Para interpretarlos, lo primero que se
hace es tener en cuenta el rango potencial de la escala. Suponiendo que se aplica una
escala de actitudes tipo Likert para medir la "actitud hacia el presidente" de una nación
(digamos que la escala tenía 18 ítems y sus valores se promediaron), el rango potencial
es de uno a cinco.
Existen otras estadísticas descriptivas, como la asimetría y la curtosis, en las cuales los
polígonos de frecuencia son curvas, por lo que están representados, de modo que se
pueden analizar en términos de probabilidad y visualizar su grado de dispersión. Estos
dos elementos son esenciales para analizar estas curvas o polígonos de frecuencia.
Esta asimetría es una estadística necesaria para saber cuánto se asemeja a la distribución
teórica llamada curva normal y constituye un indicador del lado de la curva donde se
agrupan las frecuencias, si es cero (asimetría = 0), la curva o distribución es simétrica.
Cuando es positivo, significa que hay más valores agrupados a la izquierda de la curva
(por debajo del promedio); cuando es negativo, significa que los valores tienden a
agruparse a la derecha de la curva (por encima de la media).
Mientras que la curtosis es un indicador de cuán plana o "aguda" es una curva, cuando
es cero (curtosis = 0), significa que puede ser una curva normal. Si es positivo, significa
que la curva, la distribución o el polígono son más "puntiagudos" o más altos. Si la
curtosis es negativa, indica que la curva es más plana; cabe señalar, que la asimetría y la
curtosis requieren al menos un nivel de medición por intervalo.
En términos de estadísticas inferenciales, el propósito de la investigación a menudo va
más allá de describir las distribuciones de las variables: tiene la intención de probar
hipótesis y generalizar los resultados obtenidos en la muestra a la población o el
universo. Los datos casi siempre se recopilan de una muestra y sus resultados
estadísticos se denominan estadísticos; la media o la desviación estándar de la
distribución de una muestra son estadísticos, estas estadísticas de población se conocen
como parámetros. Estos no se calculan, porque los datos de toda la población no se
recopilan, pero se pueden inferir de los estadísticos. Luego, la estadística inferencial se
usa fundamentalmente para dos procedimientos vinculados, como: probar hipótesis de
población y estimar parámetros.
Entre los métodos o pruebas estadísticos paramétricos más utilizados, hay varios, pero
los más utilizados son: coeficiente de correlación de Pearson y regresión lineal, prueba
t, prueba de contraste de la diferencia en proporciones, análisis de varianza
unidireccional (ANOVA en una dirección), análisis de varianza factorial (ANOVA),
análisis de covarianza (ANCOVA).
Para la regresión lineal, es un modelo estadístico para estimar el efecto de una variable
en otra, se asocia con el coeficiente r de Pearson, brinda la oportunidad de predecir los
puntajes de una variable a partir de los puntajes de la otra variable. Cuanto mayor sea la
correlación entre las variables (covariación), mayor será la capacidad de predicción.
En cuanto a la prueba t, es una prueba estadística para evaluar si dos grupos difieren
entre sí, mantienen una relación significativa, con respecto a sus medias en una variable.
Capítulo 12. El inicio del proceso cualitativo: abordaje del problema, revisión de la
literatura, aparición de la hipótesis e inmersión en el campo.
Una vez que se concibe la idea del estudio, el investigador debe familiarizarse con el
tema en cuestión, pasar a este y al método inductivo, proceder al enfoque del problema
en estudio, que incluye:
- Los objetivos.
En relación con este aspecto, algunas recomendaciones para tener un mayor y mejor
acceso al medio ambiente, así como para ser aceptadas, consisten en desarrollar
relaciones; desarrollar una historia sobre la investigación; no imite a los participantes
supuestamente para obtener empatía y planificar la entrada al entorno o contexto.
Además, para iniciar una investigación cualitativa, el propósito debe establecerse en un
párrafo separado y centrarse en un solo fenómeno, concepto, pregunta o idea que uno
quiera explorar y comprender, teniendo en cuenta que a medida que el estudio avanza,
es probable que haya relaciones. Para ser identificado y analizado, entre varios
conceptos, pero debido a la naturaleza inductiva de la investigación cualitativa, no es
posible anticipar tales vínculos al inicio del proyecto, por lo que se sugiere tener en
cuenta:
En este capítulo 14, se considera el vínculo cercano que existe entre la conformación de
la muestra, la recopilación de datos y su análisis. Asimismo, se revisa el papel del
investigador en estas tareas. En este sentido, los principales métodos para recopilar
datos cualitativos son la observación, la entrevista, los grupos focales, la recopilación de
documentos y materiales y las historias de vida.
Dado que la observación es muy útil, para recopilar datos sobre fenómenos, problemas
o situaciones delicadas o que son difíciles de discutir o describir; también cuando los
participantes no son muy elocuentes, articulados o descriptivos; cuando se trabaja con
un fenómeno o en un grupo con el que el investigador no está muy familiarizado; y
cuando sea necesario confirmar lo que se recopiló en las entrevistas con datos de primer
orden.
Por este motivo, de manera más detallada en este capítulo, como ya se mencionó varias
veces, el proceso cualitativo no es lineal ni toma una secuencia como el proceso
cuantitativo. Las etapas son más bien acciones que realizamos para cumplir con los
objetivos de la investigación y responder a las preguntas del estudio y están
yuxtapuestas, también son iterativas o recurrentes. No hay momentos en el proceso en
los que podamos decir: aquí terminó esta etapa y ahora sigue esta etapa. Al ingresar al
campo (entorno, contexto o escenario), por el simple hecho de observar lo que sucede
en él, estamos recopilando y analizando datos, y durante este trabajo, cuandoo se va a
establecer el muestreo, la recogida y el análisis son actividades casi paralelas.
Por supuesto, la muestra inicial no siempre cambia de una unidad de análisis o caso y se
analiza, al mismo tiempo se evalúa si la unidad es apropiada de acuerdo con el enfoque
del problema y la definición de la muestra inicial. Los datos se recolectan de una
segunda unidad y se analizan, se considera nuevamente si esta unidad es adecuada;
donde se obtienen y analizan datos de una tercera unidad; y así. En tales actividades, la
muestra inicial puede o no modificarse (conservar las unidades, cambiar por otros,
agregar nuevos tipos, etc.), incluso, el enfoque está sujeto a cambios, comentó la esencia
del proceso de recolección y análisis, que se hacen algunas consideraciones
fundamentales:
a) Supervisor: como una figura autoritaria que revisa lo que sucede en el contexto, es
un rol inconveniente porque la amplitud de la observación es limitada y el
potencial de rechazo es alto.
b) Líder: además de la autoridad, se agrega una dimensión de coordinación, que
mejora la observación cuando se extiende, pero no lo suficiente.
c) Amigo: el investigador no asume una autoridad específica, sino que intenta
establecer una relación positiva y cercana con los participantes, ya que la
apreciación se amplía sustancialmente.
Con la recopilación de datos del enfoque cualitativo, lo que se busca es obtener datos de
personas, seres vivos, comunidades, contextos o situaciones de profundidad. Las propias
formas de expresión de cada uno de ellos. Los datos que interesan son conceptos,
percepciones, imágenes mentales, creencias, emociones, interacciones, pensamientos,
experiencias, procesos, experiencias, manifestaciones en el lenguaje de los participantes
de forma individual, grupal o colectiva. Se recopilan para analizarlos y comprenderlos
y, por lo tanto, responder preguntas de investigación y generar conocimiento. Este
conjunto de datos es muy útil para comprender los motivos subyacentes, los
significados y las razones internas del comportamiento humano, que no se reducen a
números para analizar estadísticamente, ya que la recopilación de datos se realiza en
entornos naturales de los participantes o unidades de análisis.
Dentro de los instrumentos también se encuentran los grupos focales, que consisten en
reuniones de grupos pequeños o medianos (de 3 a 10 personas) en los que hablan sobre
uno o varios temas en un entorno apropiado, bajo la guía de un especialista en
dinámicas de grupo que fomenta la interacción en cada sesión que se realice.
Cuando el análisis cualitativo implica organizar los datos recopilados, transcribir textos
y codificarlos; en este proceso, se dan dos niveles: desde el primero, se generan
unidades de significado y categorías, y desde el segundo, surgen los temas y las
relaciones entre los conceptos; al final obtienes teorías arraigadas en los datos. También
debe considerarse que el proceso cualitativo no es lineal, ni toma una secuencia como el
proceso cuantitativo, las etapas se yuxtaponen, son interactivas o recurrentes y al
ingresar al campo, donde se recopilan y analizan los datos, y durante este trabajo, la
muestra se ajusta progresivamente.
Otros criterios, además de los criterios anteriores, se han propuesto algunos más, entre
los que podemos mencionar los siguientes:
En resumen, a lo largo del proceso de análisis debe tenerse en cuenta el enfoque original
del problema de la investigación, los métodos e instrumentos de recopilación de
información; así como las herramientas que, con el fin de no olvidar encontrar las
respuestas que se buscan, al elevar la sonda que se investiga.
a) Codificación abierta: el investigador revisa todos los segmentos del material para
analizar y genera, mediante una comparación constante, las categorías iniciales de
significado.
b) Codificación axial: de todas las categorías codificadas abiertamente, el
investigador selecciona la más importante y la posición en el centro del proceso
que está en exploración (se llama la categoría central o fenómeno clave).
Posteriormente, se relaciona con la categoría central con otras categorías. Esto
concluye en el esquema de un diagrama o modelo llamado paradigma codificado,
que muestra las relaciones entre todos los elementos (condiciones causales,
categoría clave, condiciones intermedias, entre otros).
c) Codificación sensorial: una vez que se genera el esquema, el investigador regresa a
las unidades o segmentos y los compara con su esquema emergente para establecer
la base. De esta comparación, también surgen hipótesis (propuestas teóricas) que
establecen las relaciones entre categorías o temas; de esta manera obtienes el
sentido de la comprensión.
d) Generación de teorías: al final, se escribe una historia o narración que vincula las
categorías y describe el proceso o fenómeno. Puede utilizar las herramientas
típicas de análisis cualitativo (mapas, matrices, etc.)
B) Diseños etnográficos: tiene como objetivo describir y analizar ideas, creencias,
significados, conocimientos y prácticas de grupos, culturas y comunidades. Estos
elementos son: lenguaje, social, político, económico, educativo, religioso,
estructuras, valores, creencias, deficiencias culturales: matrimonio, familias,
castigos, recompensas, remuneración, trabajo, ocio, diversión y entretenimiento, etc.
Asi mismo, la movilidad social, interacciones, patrones y estilos de comunicación,
ritos y mitos, normas y normas sociales, símbolos, vida cotidiana, procesos
productivos, sistema de salud, centro y distribución del poder, sitios donde se
congregan los miembros de las comunidades o cultura, marginación, guerras y
conflictos e injusticias.
C) Diseños narrativos: el investigador recopila datos sobre las historias de vida y las
experiencias de ciertas personas para describirlos y analizarlos. Los datos se
obtienen de autobiografías, biografías, entrevistas, documentos, artefactos y
materiales personales y testimonios (que a veces se encuentran en cartas diarias,
artículos periodísticos, grabaciones de radio y televisión, etc.). Los diseños
narrativos pueden referirse a: la historia de vida completa de un individuo o grupo;
un pasaje o tiempo de dicha historia de vida y uno o más episodios.
Hay dos esquemas principales para que el investigador cuente una historia: a)
estructura; b) Estructura tridimensional: no es una consecuencia, sin relacionar tres
dimensiones narrativas.
En cuanto a las etapas o ciclos para llevar a cabo una investigación de acción, consisten
en: detectar el problema de investigación; formular un plan o programa para resolver; el
problema o introducir el cambio; implementar un plan y evaluar los resultados y generar
retroalimentación, lo que conduce a un nuevo diagnóstico y una nueva espiral de
reflexión y acción.
Cabe señalar, que los diferentes diseños cualitativos a menudo se pueden aplicar al
mismo problema de investigación y comparten varias similitudes (por ejemplo, en todos
ellos se observa, se recopilan). Las narrativas, la codificación tienen lugar, se generan
categorías emergentes y se vinculan para producir comprensión y teoría. De hecho, la
investigación cualitativa puede incluir elementos de más de una clase de diseño. Lo que
los distingue es el marco de referencia, lo que cada tipo pretende lograr y el producto
resultante al final del estudio.
Finalmente, por supuesto, que existen otros tipos de diseños, los fundamentos se
discutieron aqui, lo que se recomienda para el desarrollo de las investigaciones, es
centrar la atención en llevar a cabo la investigación de manera sistemática y en
profundidad, así como en buscar las respuestas y las posibles soluciones a los problemas
detectados, planteados y analizados en cada investigación que se propone desarrollar.
Bibliografía
Hérnandez, R. F. (2014). Metodologia de la Investigación Mexico. Mèxico: Mc Graw
Hill-Education.