Está en la página 1de 11

CAPÍTULO III

MARCO METODOLÓGICO

1.- ENFOQUE EPISTEMOLOGICO


Según Hernández, Fernández y Baptista (2014), un enfoque se define como la
forma metódica de observar un tema objeto de estudio a través de la puesta en
marcha de procesos para generar conocimiento a través de la lógica científica
mediante la aplicación de métodos adecuados. La investigación cuantitativa “usa
la recolección de datos para probar hipótesis con base en la medición numérica y
el análisis estadístico, para establecer patrones de comportamiento y probar
teorías” (Hernández y col. 2014, pág. 4).
De igual manera, este enfoque se caracteriza por medir fenómenos utilizando la
estadística para probar hipótesis analizando la causa-efecto por medio de un
proceso secuencial, deductivo y probatorio de la realidad objetiva lo que permite
generalizar resultados, controlar los fenómenos, tener mayor precisión, poder
generar posibles predicciones y replicas de los resultados (Hernández y col.
2014). Tamayo y Tamayo (2009), definen el enfoque cuantitativo como aquel
encargado de medir de forma numérica la veracidad de las hipótesis planteadas
en la investigación. Arias (2006), lo enuncia como aquel donde la investigación
tiene carácter numérico y estadístico.
A partir de lo cual, se puede establecer que la presente investigación tiene un
enfoque de investigación de tipo cuantitativo, ya que los datos serán cuantificados
numéricamente, presentando conclusiones a partir de la generalización y manejo
estadístico y numérico de los resultados obtenidos al aplicar un instrumento de
datos y su interpretación cuantitativa para enfrentar estos con las teorías.

43
44

2.- PARADIGMA DE LA INVESTIGACION


Para Hernández y col (2014), un paradigma es la estructura guía de ideas para
desarrollar una investigación científica planteando una concepción del objeto de
estudio. El paradigma positivista es definido por estos autores como una corriente
de pensamiento basada en los métodos de observación y experimentación para
aportar datos precisos sobre hipótesis dándoles así rigor de teorías sustentadas
estadísticamente.
Este paradigma nació de los postulados de Augusto Comte y ha ido
evolucionando para llegar a ser definido por Hurtado y Toro (2011) como aquel
donde sujeto y objeto son independientes, asumiendo que la realidad está dada y
que puede ser conocida de manera absoluta por el sujeto cognoscente, por tanto
solo hay que buscar el método adecuado para conocerla, estableciéndolo como el
enfoque donde las cosas pueden conocerse de forma general sin importar tiempo
ni contexto bajo la forma de leyes causales de carácter absoluto y general.
Por su parte, Padrón (2007) define el paradigma positivista como aquel de
carácter preciso y numérico definido por la unión del realismo con el racionalismo
para crear teorías generales defendidas por datos estadísticos y comprobables
que son capaces de medirse y cuantificar para determinar su precisión y exactitud
con el objeto de tener validación de carácter numérica para afirmar hipótesis en
base a hechos matemáticamente demostrable.
En el caso, de la presente investigación el paradigma seleccionado fue el
positivista, definido hacia la creación de conocimiento tomando como base los
procesos de observación y experimentación para aportar datos precisos que serán
analizados para establecer teorías con fundamentos estadísticos, siendo una
investigación donde se plantea una concepción del objeto de estudio en su
realidad. Logrando de esta manera, formular conclusiones basadas en datos
numéricos cuantificados mediante un instrumento de recolección de datos que
mide las escalas a través de números para generar resultados descriptivos que
regirán las concepciones teóricas y lineamientos a establecer.
45

3.- TIPO DE INVESTIGACIÓN


Para Hernández y col. (2014) el tipo de investigación establece la perspectiva
del estudio y depende de los objetivos del investigador para combinar los
elementos en el estudio, definiendo las estrategias y procesos a ejecutar de
acuerdo al alcance deseado y los paradigmas establecidos como criterios bases
para el autor y la población a estudiar.
Los mismos autores presentan una investigación de tipo descriptiva como
aquella que como su definición lo dice “busca especificar propiedades,
características y perfiles de personas, grupos, comunidades, procesos, objetos o
cualquier otro fenómeno que se someta a análisis” (pág. 80).
Según Tamayo y Tamayo (2009), este tipo de investigación comprende la
descripción, registro, análisis e interpretación de la naturaleza actual y la
composición o procesos de los fenómenos, el enfoque se hace sobre conclusiones
dominantes o sobre cómo una persona, grupo o cosa funciona en el presente,
trabajando sobre realidades de hecho y presentando fundamentalmente una
interpretación correcta.
Para Arias (2006), la preocupación de la investigación descriptiva radica en
describir las características fundamentales de conjuntos homogéneos de
fenómenos, utilizando criterios sistemáticos para poner de manifiesto el
comportamiento real de los fenómenos en estudio, comparándolos con otros en
caso de ser necesario con el fin de establecer conclusiones adecuadas al tema de
estudio y la población seleccionada.
Por lo que de acuerdo a lo anteriormente expuesto y la metodología de esta
investigación, se puede determinar que es de tipo descriptiva, por cuanto pretende
medir o recoger información de manera independiente sobre las variables
estudiadas sin indicar como se relaciona. Todo esto al analizar la gerencia de
operaciones como estrategia competitiva en los procesos de producción industrial
para determinar las actividades y gestión de esta gerencia, así como las
estrategias competitivas, sus beneficios, enlazándola con el objeto de optimizar
esta área gerencial para obtener resultados competitivos que favorezcan la
productividad.
46

4.- DISEÑO DE LA INVESTIGACIÓN


El diseño de la investigación es presentado por Hernández y col. (2014), como
la actividad que conlleva la planeación estableciendo estrategias que se
desarrollan para obtener la información requerida en una investigación. En el
enfoque cuantitativo, el investigador utiliza su diseño para analizar la certeza de
las hipótesis formuladas en un contexto en particular o para aportar evidencia
respecto de los lineamientos investigativos.
La investigación cuantitativa dispone de varios diseños de investigación como lo
son el experimental, que administran experimentos o tratamientos; y no
experimental. A su vez, la primera se divide en preexperimentos, experimentos
puros y cuasiexperimentos. Mientras que, la investigación no experimental se
subdivide en diseño transversal, si recolectan datos en un momento único; y
longitudinal, que analizan cambios en el tiempo. La transversal se divide en
exploratoria, descriptiva y correlacional-causal; la longitudinal en diseño de
tendencias, análisis de grupos y paneles.
Según lo expuesto por Hernández y Col (2014, pág.149), se define como no
experimental “la investigación que se realiza sin la manipulación deliberada de
variables, en los que sólo se observan los fenómenos en su ambiente natural para
analizarlos”, tal como se hará en este trabajo. En ella las situaciones observadas
son ya existentes, no provocadas intencionalmente. De igual forma, las variables
independientes ocurren y no es posible manipularlas, no se tiene control directo ni
se puede influir sobre ellas, porque ya sucedieron, al igual que sus efectos.
Por su parte, para Arias (2006) la investigación no experimental evalúa el
fenómeno o hecho objeto de estudio pero no pretende explicar las causas por lo
que el efecto se ha originado, es decir, hace permisible medir lo que se pretende
sin condicionar los resultados. Tomando nuevamente a Hernández y Col (2010,
pág. 151) ellos definen la investigación no experimental transeccional como
“investigaciones que recopilan datos en un momento único”, es decir, en un solo
momento. Su propósito es describir variables y analizar su incidencia e
interrelación en un momento dado y es así como será este estudio.
47

Por otra parte, Tamayo y Tamayo (2009), define los tipos de diseño según el
lugar de recolección de datos, en de campo o de laboratorio. El diseño de campo,
es aquel en el cual los datos se recogen directamente en el lugar de los hechos,
por lo cual se denominan datos primarios, y su valor radica en que permite
cerciorarse de las verdaderas condiciones del problema, es decir su realidad, tal y
como este caso donde se aplicara un instrumento de recolección de datos en un
momento único y sin condicionar las respuestas.
Asimismo, Arias (2006, pág.67) define el diseño de campo como “el basado en
información o datos primarios, obtenidos directamente de la realidad”. Su
innegable valor reside en que a través de ellos el investigador puede cerciorarse
de las verdaderas condiciones en que se han conseguido los datos, lo que
garantiza un mayor nivel de confianza.
Es por esto que se puede entonces definir la investigación como no
experimental transeccional de campo. No experimental porque el estudio fue
realizado a través de la observación sin intervenir en la población objeto de
estudio; transeccional pues se aplicó el instrumento una sola vez y de campo
debido a que se fue directamente al lugar para recoger los datos, es decir, a las
industrias productoras.

5.- POBLACIÓN
Una vez definido el tipo y diseño de investigación se toma como base lo
expuesto por Hernández y Col (2014, pág.174), para definir población o universo
como “el conjunto de todos los casos que concuerdan con determinadas
especificaciones”. Mientras que, Tamayo y Tamayo (2003) definen el universo
como la totalidad de una población, y esta última como la totalidad de un
fenómeno en estudio, cuando en un estudio se toma la totalidad de la población se
dice se investiga el universo. Por su parte, para Arias (2006), la población es el
total de unidades objeto de estudio.
48

Razón por la cual, en base a esto, la presente investigación toma como


universo todas las asociaciones productoras nacionales y como población las
ubicadas en el Municipio Rosario de Perijá del Estado Zulia, cuya representación
gerencial es la Junta Directiva de la Unión de Ganaderos de la Villa del Rosario de
Perijá (UGAVI), quedando la distribución como se observa en el siguiente cuadro.

CUADRO 2
DISTRIBUCIÓN DE LA POBLACIÓN Y UNIDADES INFORMANTES

Asociación productora UGAVI


Junta directiva 10
(principales y suplentes)
Total empresas asociadas 143
Total gerentes seleccionados 10
Fuente: Unión de Ganaderos de la Villa del Rosario (UGAVI) (2017).

6.- TÉCNICA E INSTRUMENTO DE RECOLECCIÓN DE DATOS


Las técnicas de recolección de información se refieren a los procedimientos que
generan información para ser utilizada de forma científica. Para Hernández y Col.
(2014, pág. 198), es la “etapa que consiste en recolectar los datos pertinentes
sobre los atributos, conceptos o variables de las unidades de análisis o casos”.
Recolectar datos para estos autores, implica elaborar un plan detallado de
procedimientos que conducen a reunir datos con un propósito específico
nutriéndose de las variables, definiciones operacionales, muestra y recursos
disponibles.
Tamayo y Tamayo (2009), lo definen como los procedimientos realizados para
obtener información científicamente valida y confiable. Por su parte, Arias (2006)
expresa que es el conjunto de herramientas científicamente validadas por medio
de las cuales se levantan los registros necesarios para comprobar un hecho o
fenómeno de estudio.
49

El instrumento de medición que recolecta los datos a utilizar es definido por


Hernández y Col. (2014, pág. 200), es el “recurso que utiliza el investigador para
registrar información o datos sobre las variables que tiene en mente, debiendo ser
válido, confiable y objetivo”. Arias (2006) lo define como la alternativa utilizada
para obtener datos científicos basados en las variables de estudio.
El proceso de recolección de datos utilizado en la investigación fue un
cuestionario con alternativas de respuestas tipo escala Likert, donde una actitud
es “la predisposición aprendida para responder coherentemente de manera
favorable o desfavorable ante un objeto, ser vivo, actividad, concepto, persona o
símbolos” (Hernández y Col. 2014, pág. 244). Dentro de estas escalas se eligió la
de Likert por ser la más adecuada de acuerdo a los ítems, la cual se define como
un “conjunto de ítems que se presentan en forma de afirmaciones para medir la
reacción del sujeto en tres, cinco o siete categorías” (Hernández y Col, 2014,
pág.245).
El instrumento utilizado de escala tipo Likert tenía 45 ítems y la forma de
estimación de su contenido presentaba una ponderación de 1 a 5 dependiendo de
la respuesta suministrada por la población seleccionada. Esta escala utilizó cinco
(5) opciones con dirección positiva, como se muestra en el siguiente cuadro.

CUADRO 3
PONDERACIÓN DE LAS OPCIONES DE RESPUESTA
Ítems Positivos Respuestas
5 Totalmente de Acuerdo (TA)
4 De acuerdo (DA)
3 Ni De Acuerdo, Ni Desacuerdo (N)
2 En Desacuerdo (ED)
1 Totalmente en Desacuerdo (TD)
Fuente: Hernández y Col. (2014).
50

7.- VALIDEZ Y CONFIABILIDAD DEL INSTRUMENTO


La validez y confiabilidad del instrumento garantizan la veracidad de los datos y
permiten se pueda comprobar su exactitud científica, permitiendo la comparación
con la realidad de la cual se hizo la extracción de datos. Por tanto, ambas son
elementos fundamentales para ratificar una investigación y sus resultados.
Se define validez como el “grado en que un instrumento en verdad mide la
variable que se busca medir” (Hernández y Col. 2014, pág. 210). En este trabajo
se medirá la validez de contenido que según Hernández y Col. (2010, pág.210) “se
refiere al grado en que un instrumento refleja un dominio específico de contenido
de lo que se mide”. Para Chávez (2007) es la eficacia con que un instrumento
mide lo que pretende el investigador. Por su parte, Arias (2006) lo enuncia como el
grado en que una prueba mide lo que desea medir.
Para dicha validez se utilizó la técnica de juicio de expertos, que consistió en
reunir a cinco (5) especialistas en el área de responsabilidad y gestión social,
quiénes manifestaron sus comentarios respecto al objetivo general, objetivos
específicos y variable de investigación, así como la pertinencia de cada ítem con
la misma, dimensiones, indicadores, redacción y ubicación de cada ítem.
Según Hernández y Col. (2014, pág. 200 y 201) la confiabilidad es el “grado en
que un instrumento produce resultados consistentes y coherentes”. Chávez (2007)
lo define como el grado de concurrencia con la cual se realiza la medición de una
variable, determinando la exactitud de los resultados obtenidos al ser aplicados en
situaciones parecidas.
Para la confiabilidad se aplicó una prueba piloto a diez (10) sujetos con
características similares a la población objeto de estudio y para el cálculo de la
misma se utilizó la técnica de coeficiente Alpha de Cronbach, la cual según
Chávez (2007) posee la siguiente fórmula:

= 1−
−1

Donde:
: Coeficiente Alpha de Cronbach
51

: Número de ítems
: Varianza de los puntajes de cada ítem
: Varianza de los puntajes totales

En este coeficiente la escala oscila desde cero (0) que representa nula
confiabilidad hasta uno (1) que es la máxima. A continuación se presenta la escala
de Ruiz Bolívar (citado en Pelekais y otros 2005, p.75) para su interpretación.

CUADRO 4
ESCALA DE CONFIABILIDAD
RANGO MAGNITUD
0,81 a 1,00 Muy alta
0,61 a 0,80 Alta
0,41 a 0,60 Moderada
0,21 a 0,40 Baja
0,01 a 0,20 Muy baja
Fuente: Ruiz Bolívar (citado en Pelekais y otros 2005, p.75).

El valor obtenido mediante el uso de la hoja de cálculo de Excel fue de 0,813


dada la cercanía de este a 1 se considero el instrumento de medición muy
confiable para su aplicación; resultado que garantiza la confiabilidad de los datos
obtenidos al aplicar el instrumento a la población seleccionada para estudiar.

8.- TÉCNICAS DE PROCESAMIENTO Y ANÁLISIS DE DATOS


De acuerdo a Hernández y Col. (2014), la finalidad del análisis de datos es
describir las variables, explicando sus cambios a través del uso de la estadística.
Tamayo y Tamayo (2009), lo enuncia como el proceso por medio del cual se
evidencia los registros estadísticos, cualidades de la data obtenida y tabulada. Por
su parte, Arias (2006), lo describe como el procedimiento de las investigaciones
que se corresponde con las explicaciones cuanticualitativas de los resultados
obtenidos por el investigador, los cuales pueden ser favorables o no en relación a
las teorías expuestas y requieren de discusión para originar resultados.
52

La tabulación de los datos recolectados en la fase de aplicación del instrumento


se realizó mediante un procesamiento cuantitativo, lo cual brindó la automatización
necesaria para el manejo eficaz de la información obtenida. Asimismo, los datos
obtenidos debido a que es una investigación descriptiva, fueron analizados
utilizando la estadística descriptiva la cual es definida por Hernández y Col. (2014)
como aquella que describe la distribución de puntuaciones o frecuencias obtenidas
para cada variable. Para Arias (2006) son aquellas investigaciones que usan
técnicas estadísticas tales como distribución de frecuencias, medidas de tendencia
central y variabilidad.
Dicho método se aplicó para resumir la serie de datos, facilitando así su
interpretación y utilizando el programa Excel. De igual forma, para la presentación
de datos se procedió a elaborar una serie de tablas, que contienen los valores
usados para el análisis e interpretación de resultados, en base a la variable. Estos
datos estadísticos realizados bajo la ayuda analítica del programa Excel se
analizaron y discutieron para elaborar conclusiones y recomendaciones
competentes de acuerdo al área de estudio.
Todo esto a través del cálculo de frecuencias absolutas y relativas, desviación
estándar, además de la media o promedio aritmético para la categorización de la
variable, dimensiones e indicadores objetos de estudios, su análisis a través del
uso del siguiente baremo para la interpretación de resultados que toma en cuenta
el cálculo de la media producto de las frecuencias para medir tendencias
repetitivas en las opciones presentadas en el instrumento de recolección de datos
y debidamente seleccionadas según el criterio de los miembros de la población
estudiada:

CUADRO 5
BAREMO PARA LA INTERPRETACIÓN DE RESULTADOS
Categorías Puntaje
Muy Alto 4,20 a 5,00
Alto 3,40 a 4,19
Moderado 2,60 a 3,39
Bajo 1,80 a 2,59
Muy Bajo 1,00 a 1,79
Fuente: Lugo (2017).
53

9.- PROCEDIMIENTO DE LA INVESTIGACIÓN


El proceso de investigación requiere de una serie de actividades que demanda
tiempo por parte del investigador, en consecuencia, es parte esencial la
planificación de la misma, determinar su tiempo de duración y las etapas a
cumplir, por tal motivo, la realización del presente estudio involucró la realización
de los siguientes pasos:
 Selección del área de estudio, en este caso, la Gerencia Social, en su
materia de responsabilidad y gestión social.
 Visita a las bibliotecas para buscar información referida a esta área.
 Elaboración del planteamiento, formulación y sistematización del problema.
 Establecimiento del objetivo general y objetivos específicos.
 Realización de la justificación y delimitación de la investigación
 Visita a las bibliotecas para buscar antecedentes y bases teóricas
relacionadas con la materia.
 Selección y establecimiento de los antecedentes y bases teóricas.
 Definición de variable de estudio.
 Establecimiento de la metodología de investigación, es decir, tipo y diseño
de investigación, así como selección de la población.
 Elaboración de un instrumento de recolección de datos.
 Validación del instrumento.
 Aplicar prueba piloto para determinar la confiabilidad del instrumento.
 Aplicación del instrumento a la población objeto de estudio.
 Definir los procedimientos de análisis de datos.
 Analizar e interpretar la información recabada.
 Realizar conclusiones y recomendaciones pertinentes con los datos
obtenidos.
 Elaboración y presentación del trabajo a las autoridades universitarias para
su aprobación final.

También podría gustarte