Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Puerta Researc L
Consulte los debates, estadísticas y perfiles de los autores de esta publicación en: h ttos://www.researchgate.net/pu blication/371181480
LEA
0 2
VER PR 0 F1 L E
MUST Business School, University ofsclences and Technolo (MUST), Islamabad, Pal:istan
''School of Management, Unlversitl Salns Malaysia, Penang, Malasia
'Department ofInformati'oii Technolagy U Management, Daffodil International University, Bangladesh
'Narmlch BusinessSchool, Unlversi'ty ofEast Anglia, No ,Uiii'ted Ki!iigdom
'Faculty ofHospitallty and 1 "ourlsm Management, UCSI University, Sarawak, Malaysia
'School ofBuslness Management, Unlverslti Utara Malaysia, Kedah, Malaysia
'UCSI Graduate business School, UCSI University, Kuala Lumpur, Malaysia
RESUMEN
INTRODUCCIÓN
Han pasado seis años desde que lanzamos el Journal of" Applied Structural Equation Modeling
(JASEM). Hasta la fecha se han publicado siete volúmenes y doce números, lo que nos ha dado la
oportunidad de (re)aprender y (re)considerar muchas cosas de todos los envíos. Además, hemos
editado conjuntamente números especiales para un buen número de reputadas revistas del ámbito de
las ciencias sociales, como European Business Re'-iew, International Journal of Manpower, Journal of
Strategic Marketing y Journal of Hospitality and Tourism Technology. Al revisar cada artículo
presentado, con
Memon, Ramayah, Cheah, King, Chuah y Cham. CO2
con la ayuda de "revisores en un proceso de revisión doble ciego, también podemos evaluar la calidad
general de" las propuestas e identificar los puntos fuertes y las deficiencias comunes.
Hemos observado varias deficiencias recurrentes en los manuscritos presentados a JASEM y a
nuestros números especiales, sobre todo en las secciones de metodología. Estas secciones
carecen a menudo del esfuerzo o rigor necesarios, omitiéndose con frecuencia la información
metodológica requerida. En ocasiones, nos vemos obligados a rechazar manuscritos incluso
después de dos rondas de revisión, debido a que los autores no abordan ni justifican
sistemáticamente los problemas relacionados con el método. Entre las deficiencias encontradas
cabe citar la falta de información sobre el contexto (país, industria, población), la ausencia o
insuficiencia de detalles sobre los criterios de inclusión y exclusión de los encuestados, la
operacionalización inadecuada de constructos clave (como las incoherencias entre las escalas
utilizadas y las definiciones adoptadas) y la falta de explicaciones exhaustivas sobre la validación
de los instrumentos, las pruebas preliminares y los estudios piloto.
Según Jordan y Troth (2020), "un método riguroso es una parte importante de las evaluaciones
de los editores y rex iewers de un manuscrito para su publicación, principalmente para garantizar
unos resultados más fiables" (p. 4). Aunque tal rigor no siempre es fácil de conseguir,
consideramos esencial que cada presentación ofrezca una descripción exhaustiva de los métodos
de investigación, desde el planteamiento inicial hasta la recopilación final de datos. No basta con
afirmar, por ejemplo, que "los datos se recogieron entre los empleados de TOO" o que "los
cuestionarios fueron validados por expertos". Animamos a los autores a ser reflexivos al redactar
esta sección, no sólo para demostrar sus esfuerzos en la realización de actividades de
investigación, sino también para garantizar a los editores y revisores el rigor metodológico de su
trabajo. Cabe señalar que, en numerosas ocasiones, los autores no han justificado el tamaño de
sus muestras, e incluso cuando lo hacen, a menudo se basan en reglas empíricas que son
incompatibles con los métodos de muestreo elegidos.
El objetivo de este editorial es ofrecer directrices claras y fundamentales para que los
investigadores cuantitativos informen eficazmente de los aspectos metodológicos de sus
manuscritos. Presentamos varias listas de comprobación que pueden utilizar los investigadores,
tanto académicos experimentados como estudiantes, a la hora de redactar las secciones,
subsecciones o capítulos sobre métodos de sus proyectos de investigación, tesis o disertaciones.
Estas listas de comprobación autoexplicativas abarcan temas como la operacionalización, la
validación de instrumentos, el muestreo y la administración de cuestionarios y los sesgos
habituales de los métodos (véanse los cuadros 1-4). Además, el editorial también recomienda
bibliografía pertinente y buenas prácticas que los investigadores deberían tener en cuenta para
garantizar el rigor metodológico en sus proyectos.
Operacionalización
Validación de instrumentos
Los autores deben proporcionar información detallada sobre la validación de los instrumentos. La
ausencia de un procedimiento riguroso de validación de los instrumentos comprometerá con mucha
frecuencia la validez y la fiabilidad, sobre todo en la fase de análisis de los datos. Además, no llevar a
cabo la validación de los instrumentos supondrá a la larga una pérdida de tiempo y de recursos
económicos, ya que las medidas inexactas o poco fiables pueden conducir a resultados inexactos y,
por tanto, a un debate y unas conclusiones engañosos. Como regla general, se espera que los autores
lleven a cabo e informen de tres procedimientos esenciales: validez aparente, validez de contenido y
ensayo previo. Estos procedimientos deben completarse antes de la recogida de datos. Las dos
primeras validaciones, la validez aparente y la x alidez de contenido, deben ser confirmadas por
múltiples expertos en la materia. Determinar la experiencia de una persona y el número de expertos es
una cuestión subjetiva, ya que sus decisiones dependen de los tipos y la complejidad de" la
investigación. Para una investigación básica que investigue empíricamente comportamientos y utilice
una sola fuente de datos, normalmente se requeriría un mínimo de' tres o lix e expertos. Los expertos,
a su vez, son quienes poseen los conocimientos del dominio. Suelen seleccionarse en función de sus
publicaciones en revistas de prestigio. No obstante, también puede tenerse en cuenta su cargo (por
tanto, sus funciones) y/o su experiencia industrial por su relevancia para la investigación. Es
importante señalar que corresponde a los autores o investigadores identificar a los expertos adecuados
para proporcionar la validación requerida.
Estos expertos se encargan de validar el cuestionario basándose en dos criterios principales: En primer
lugar, evalúan la validez aparente examinando la claridad, adecuación, conexiones lógicas e idoneidad
de los ítems del cuestionario. Durante este proceso, examinan la claridad (es decir, se aseguran de que
la redacción y el enunciado de las preguntas sean claros, concisos y fácilmente comprensibles), la
adecuación (es decir, verifican la idoneidad de los ítems para la población objetivo y la ausencia de
contenido ofensivo, sesgado o sensible) y las conexiones lógicas (es decir, se aseguran de que la
relación entre las preguntas y el constructo sea evidente y fácilmente comprensible, incluso para
quienes no estén muy familiarizados con el tema). Además, los expertos evalúan la estructura general
del cuestionario, incluidas las opciones de respuesta (por ejemplo, las escalas de Likert), y se aseguran
de que el formato sea fácil de usar (es decir, con un tamaño de letra, estilo, longitud y legibilidad
adecuados) y de seguir (es decir, con instrucciones detalladas) para la población destinataria.
En segundo lugar, los expertos evalúan la validez de contenido centrándose en varios aspectos
clave relacionados específicamente con la relevancia, representatividad y exhaustividad de los
ítems del cuestionario del constructo. Al evaluar la validez de contenido, los expertos deben
considerar el fundamento teórico, asegurándose de que los ítems del cuestionario se basan en las
teorías pertinentes y en la bibliografía existente. También deben examinar la cobertura del
constructo para verificar que el cuestionario aborda exhaustivamente todas las dimensiones o
facetas pertinentes del constructo. Además, deben evaluar la pertinencia de los ítems para
confirmar que cada uno de ellos está directamente relacionado con el constructo que se mide y
capta sus características esenciales. Además, deben comprobar la redundancia de los ítems para
eliminar cualquier solapamiento que pudiera afectar a la fiabilidad y validez del instrumento. Por
lo tanto, se aconseja a los autores que presenten un paquete completo para la evaluación por expertos,
que incluya el cuestionario, el marco conceptual/teórico o" el estudio, los objetivos del estudio,
las definiciones operativas y las explicaciones de los ítems adaptados con justificaciones de
cualquier cambio realizado antes de la validación por expertos. Aunque la interacción cara a cara
con los expertos es muy recomendable para la validación, la obtención de comentarios por correo
electrónico es beneficiosa para futuras referencias como prueba, siempre que no se haga al azar.
Saunders ct al. (2O28, Capítulo l l), Kumar ct al. (2018, Capítulo 7) son lecturas recomendadas
para conocer pautas básicas relacionadas con la validación de instrumentos. Para la presentación
de informes, de Oliveira ct al., (2019) puede ser ret'erred ya que han demostrado
meticulosamente el proceso de x alidación de instrumentos.
Por último, los autores deben realizar e informar de la prueba previa del cuestionario. La
c 202:i Journal o1 Applied Structural Kc[uation Modeling IV
Memon, Ramayah, Cheah, king, Chuah y Cham. EO2!s
recopilación de datos sin pruebas previas con una muestra local (miembros reales de la población)
puede dar lugar a imprecisiones en los resultados de la encuesta (Colbert ct al., 2019). Todos los
ítems, ya sean adoptados o adaptados, deben ser pre
se comprueba si los encuestados han entendido claramente todas las preguntas o afirmaciones (Kumar
et al., 201fl). Hulland et a1. (2O1S) afirman: "A pesar de la abundancia de" orientaciones para los
investigadores sobre la formulación de preguntas y la construcción de cuestionarios, a menudo es un
reto incluso para los expertos prever todos los problemas potenciales que pueden surgir durante la
administración sur'-ey" (p. O). Por lo tanto, es imperativo que las encuestas se sometan a pruebas
previas exhaustivas antes de la recogida de datos principales.
Existen varios métodos para realizar pruebas preliminares de los cuestionarios de las encuestas, como las
pruebas preliminares informales con u n a pequeña muestra de encuestados, las entrevistas cognitivas y el
debriefing (Memon et a1. 2017, Willirnack et al., 2O2fl). Independientemente del método elegido, los
encuestados deben proceder de la población objetivo. Por ejemplo, si el estudio pretende explorar el
impacto de la sobrecarga de trabajo en el compromiso organizativo de las enfermeras, la muestra de prueba
previa debe estar formada por enfermeras.
Aunque existen varias reglas empíricas para determinar el tamaño de la muestra de las pruebas
preliminares, normalmente se consideran suficientes entre 3 y 5 encuestados de la población objetivo.
De hecho, algunos podrían incluso llevar a cabo varias rondas (2-8 veces) de pruebas preliminares
para garantizar que la validación llega a un consenso, especialmente cuando los investigadores
intentan llevar a cabo un diseño de estudio complejo (por ejemplo, experimental o longitudinal). Los
investigadores deben identificar a los participantes que estén dispuestos a leer cada pregunta y a
ofrecer una respuesta completa. No obstante, animamos a todos los investigadores a que consideren la
posibilidad de utilizar pretests antes de llevar a cabo sus estudios principales, tanto si utilizan escalas
previamente establecidas como si desarrollan escalas nuevas.
Tabla 2: Recomendaciones para informar sobre la validación de instrumentos
Al informar sobre las pruebas preliminares, los investigadores deben describir el proceso,
especificar los encuestados y su número, detallar los comentarios recibidos y, lo que es más
importante, describir los cambios realizados en función de los comentarios de los encuestados.
Recuerde que las pruebas preliminares no requieren ningún análisis estadístico y sólo garantizan
que los encuestados comprendan claramente los ítems. A diferencia de las pruebas preliminares,
l o s estudios piloto utilizan análisis estadísticos (por ejemplo, análisis de fiabilidad y/o validez).
A menudo observamos que los investigadores utilizan indistintamente la prueba preliminar y el
estudio piloto, lo cual es incorrecto. Ambos tienen procesos, métodos, objetivos y resultados
diferentes.
Para una mejor comprensión de las pruebas preliminares, recomendamos a los investigadores que
consulten nuestro trabajo anterior Memon et al. (2O17) y el trabajo reciente de Wardropper et al.
(2021), en el que se analizan en profundidad las pruebas preliminares y el estudio piloto, incluidos los
criterios de muestreo y diversos métodos de aplicación. Asimismo, se anima a los investigadores a
consultar Colbert et al. (2O19) y Buschle et a1. (2022) para una mejor comprensión y para saber más
sobre los nuevos enfoques relacionados con la prueba preliminar (por ejemplo, la entrevista
cualitativa previa a la prueba). En el cuadro 2 se resumen las recomendaciones para informar sobre el
proceso de validación de instrumentos y sus diversas actividades.
Se espera que los investigadores discutan explícitamente la estrategia y las técnicas de muestreo
empleadas, así como que proporcionen explicaciones sobre la administración del cuestionario. La
utilización de una estrategia y una técnica de muestreo inadecuadas puede dar lugar a una menor
eficiencia en cuanto a costes y tiempo durante la recogida de datos, a una menor precisión de las
estimaciones debido a una menor variabilidad de los datos y, hasta cierto punto, a una
generalización limitada de los resultados a la población (dependiendo de la estrategia de
muestreo) con un mayor grado de confianza. Además, si no se administra correctamente el
cuestionario, aumentarán las posibilidades de que se produzcan numerosos errores (es decir,
errores específicos de la población, error del marco muestral, error de selección, error de falta de
respuesta y errores de muestreo) o incoherencias en la recogida de datos. Por lo tanto, los autores
(o investigadores) deben proporcionar información sobre el proceso de administración, incluido
el modo de' administración, el número y el tipo de contactos.
En primer lugar, debe justificarse la técnica de muestreo elegida, ya sea probabilística o no
probabilística. Mencione el tipo específico de la técnica de muestreo probabilístico (por ejemplo,
aleatorio simple, aleatorio estratificado, aleatorio sistemático, etc.) o no probabilístico (por
ejemplo, bola de nieve, cuota, conveniencia, intencional, etc.) que se utilizó. Como expresamos
en nuestro trabajo anterior (véase Menion et al., 2017), mantenemos la opinión de que, en
ausencia de un marco de muestreo completo (una lista completa de individuos, objetos o
unidades de una población de la que se seleccionará una muestra), una técnica de muestreo no
probabilístico cuidadosamente implementada puede resultar superior a un enfoque basado en
probabilidades, arrojando tasas de respuesta más altas y recopilando conjuntos de datos más
relevantes. Aunque no desaconsejamos ni promovemos el uso de ninguna técnica de muestreo
específica, esperamos que los autores aporten una justificación sólida de su adopción. Afirmar
simplemente que "se empleó un muestreo de conveniencia" no se fomenta ni se considera una
forma adecuada de informar. Debe proporcionarse información detallada para responder a varias
preguntas, entre ellas: ¿Qué técnica de muestreo se empleó y por qué? ¿Cómo se aplicó? ¿Se
recogieron los datos en un solo intento o hubo varias fases? Si hubo varias fases, ¿cuántas
muestras se recogieron en cada una? ¿La recogida de datos se realizó cara a cara o en línea y, en
caso afirmativo, en qué proporción? ¿Cómo se contactó con los encuestados? ¿Cómo se
garantizó el anonimato? ¿Cuál fue la duración total de la recogida de datos y cuándo tuvo lugar
(mes/año)?
c 202:i Journal o1 Applied Structural Kc[uation Modeling VII
I
Memon, Ramayah, Cheah, king, Chuah y Cham. EO2!s
Además, los autores deben aclarar los criterios de inclusión y exclusión de los encuestados. Si los
datos se recogieron de una industria, un sector o un grupo de encuestados en particular, los
autores deben justificar su selección y exponer la relevancia de las variables del estudio para la
industria, el sector o los encuestados elegidos. Por ejemplo, si los autores están "investigando el
impacto de" los rasgos de personalidad en la supervisión abusiva en el sector de las telecomunicaciones",
deben inicialmente
establecer que los empleados del sector de las telecomunicaciones experimentan efectivamente una
supervisión abusiva. Seleccionar un contexto o escenario para el estudio sin la debida consideración
también dificulta la elaboración de" recomendaciones prácticas. En el cuadro S se resumen las
recomendaciones sobre el proceso de muestreo y administración del cuestionario y los aspectos
metodológicos conexos. Recomendamos varias ret "erencias, como Rowley (2O l4), Memon et a1. (20
l7), Hulland et al., (2018), y Berndt (2o2o) para una mejor comprensión del uso de técnicas de
muestreo tanto probabilísticas como no probabilísticas y sus pros y contras. Recomendamos los
artículos de Memon et al. (2o2o) y Sim et a1. (2022) que pueden utilizarse como material de muestra
para informar sobre distintos aspectos del muestreo y la recogida de datos.
Tabla S: Recomendaciones para informar sobre el muestreo y la administración del cuestionario
El sesgo de método común (CMB) se está convirtiendo cada vez más en una preocupación
importante para los investigadores cuantitativos, ya que compromete el rigor de la investigación.
Jordan y Troth (2o2o) explicaron que el CMB se produce cuando los datos de todas las variables
(independientes, dependientes, moderadoras y mediadoras) se recogen utilizando el mismo
método. En otras palabras, las relaciones entre dos o más constructos están sesgadas porque se
miden con el mismo método (Podsakoff y Organ, 1986). Investigaciones anteriores (Cote y
Buckley, 1986; Cooper et al. 2O2O) han indicado que la incidencia de la varianza del método
común es mayor en los estudios que examinan constructos subjetivos, como las actitudes
laborales (41%), mientras que los estudios que se centran en medidas más tangibles y
conductuales, como el rendimiento laboral, es menor (23%).
La existencia de CMB conduce a menudo a conclusiones ambiguas, lo que puede tener graves
repercusiones en el desarrollo teórico y en las implicaciones prácticas. En particular, puede
causar una sobreestimación o subestimación de las relaciones entre v ariables, que a su vez,
influyen erróneamente en la validez y la contribución de los hallazgos del estudio (MacKenzie y
Podsakoff, 2012). En algunos casos, el CMB también puede afectar a la fiabilidad de las
medidas, dando lugar a resultados inexactos o incoherentes, lo que puede socavar la credibilidad
del estudio (MacKenzie y Podsakoff, 2012). Aunque la cuestión del CMB y sus graves efectos
siguen siendo discutibles (véase Spector, 2006; Antonakis ct al., 2010; Antonakis ct al., 2014;
Bozionelos & Simmering, 2022; Cruz, 2022; Simha, 2023), instamos a los autores a que justifiquen
científicamente los procedimientos que han empleado.
El uso de datos de una sola fuente y una sola onda es una preocupación importante en las revistas
de comportamiento organizacional, así como en otros campos relacionados, como el marketing,
la gestión de recursos humanos, la psicología social, los sistemas de información, la publicidad,
el comportamiento vocacional y la psicología organizacional (véase Malhotra, Schaller y Patil,
2017; Schwarz et al., 2017; Wingate ct al., 2018; Cooper ct al., 2022; Simha, 2o23). Por lo tanto,
los investigadores de estas disciplinas emplean diversas estrategias para abordar este problema,
incluidos métodos posteriores a la recopilación de datos -realizando diversas evaluaciones
estadísticas (por ejemplo, Factor Único de Harman, Variable Marcadora, etc.)- y remedios
procedimentales previos a la recopilación de datos.
Mientras que algunos editores hacen hincapié en el uso de la evaluación estadística, como el
enfoque de la variable marcadora, como un estándar de oro para la presentación, animamos a los
autores a centrarse más en los remedios de procedimiento previos a la recogida de datos.
Creemos que las evaluaciones estadísticas posteriores a la recogida de datos tienen beneficios
limitados, incluso si podemos identificar los conjuntos de datos afectados por el CMB. La cuestión
Se pueden emplear varias estrategias de procedimiento a priori, previas a la recogida de datos, para
minimizar el CMB. Basándose en estudios anteriores (por ejemplo, Podsakoff et al., 2OO3, Reio,
2O1O; PodsakotT et al., 2O12; Johnson et al., 2O11, Schwarz et al., 2017) y estudios recientes (por
ejemplo, Cooper et a1., 2020; Jordan & Troth, 2O20) se sugieren varias estrategias, tales como aclarar
el propósito de la investigación y las instrucciones, asegurar la claridad de los ítems, minimizar las
propiedades comunes de las escalas, incluyendo ítems codificados invertidos, y separar la recogida de
datos. Sugieren que proporcionar portadas informativas, instrucciones claras y hacer hincapié en los
beneficios de la participación puede reducir la probabilidad de CMB. Las encuestas concisas con una
redundancia mínima mejoran aún más la precisión. Además, la elaboración de preguntas claras y
concisas, sin dobles sentidos, mejora la precisión de las respuestas y minimiza el CMB.
Reducir las similitudes de las "propiedades de escala" entre las variables independientes y
dependientes también ayuda a disminuir el CMB. Emplear más de una escala tipo Likert (p. ej.,
utilizar tanto escalas de 7 puntos como de ñ puntos) y ajustar los anclajes (p. ej., de "nunca" a
"siempre" o de "extremadamente improbable" a "extremadamente probable") al tiempo que se
mantiene la validez de contenido del cuestionario pueden ser estrategias de procedimiento útiles.
Equilibrar los ítems positivos y negativos sin comprometer la validez de contenido o el
significado conceptual de la escala también ayuda a mitigar el CMB (Jordan & Troth, 2020).
Aunque la inclusión de ítems con código invertido es discutible (véase Dalal y Carter, 2014;
Dueber ct al., 2021, Schwarz ct al., 2017), los ítems redactados negativamente actúan como
"rompedores de velocidad" que interrumpen los patrones de CMB y animan a los participantes a
centrarse más en los ítems del cuestionario. Por último, los investigadores pueden separar los
ítems de las variables independiente y dependiente mediante la separación temporal (retrasos de
tiempo entre las medidas), la separación proximal (intercalando medidas con rellenos) y la
separación psicológica (historias de portada o instrucciones) (Jordan y Troth, 2020).
A pesar de la popularidad de las estrategias de separación, en particular la separación temporal,
no siempre se recomiendan para estudios con encuestados humanos (clientes, empleados,
directivos, pacientes, directores generales, etc.). La dificultad de reunir y emparejar varias veces
al mismo encuestado puede poner en peligro la confidencialidad y el anonimato. Además,
localizar a los mismos encuestados y conseguir que acepten participar varias veces es difícil, lo
que afecta a los índices generales de respuesta. En consecuencia, los investigadores pueden tener
que basarse en conjuntos de datos más pequeños, lo que limita la generalizabilidad de sus
conclusiones. De ahí que Reio (2o1o) señalara sabiamente que el tiempo es como el dinero. Pedir
a una empresa que sus empleados dejen de trabajar para que puedan participar en un estudio con
varias sesiones de autoinforme puede no ser posible. Es razonable que una empresa restrinja la
recogida de datos a una sola sesión. Sin embargo, esta situación no significa que la investigación
sea automáticamente poco fiable debido a un posible CMB. Por el contrario, significa que
debemos comprobar cuidadosamente cualquier indicio de CMB. Del mismo modo, Spector
(2019) señala que "las comparaciones de las correlaciones transversales correspondientes frente a
las correlaciones longitudinales en los metaanálisis no encuentran uniformemente correlaciones
más grandes de los diseños transversales (por ejemplo, Nixon et al., 201 1; Pindek & Spector,
2016), e incluso cuando las correlaciones transversales son más grandes, no se debe
necesariamente a la varianza del método común" (p. 126).
Teniendo en cuenta los graves desafíos asociados con los enfoques de estudios longitudinales o con
desfase temporal, como la mayor complejidad del diseño de la investigación, el desgaste de los
encuestados y la dificultad para determinar la demora adecuada entre dos o más puntos temporales
(Jordan y Troth, 2020), no recomendamos ni desalentamos a los investigadores a implementar
estrategias de separación temporal. Sin embargo, recomendamos encarecidamente que los autores
empleen procedimientos como los métodos de separación proximal y psicológica para minimizar el
CMB e informen de ellos detalladamente en sus manuscritos. Además, esperamos que cualesquiera
que sean las estrategias empleadas por los autores estén lógicamente justificadas y apoyadas por
pruebas convincentes. De acuerdo con Spector (2019), también creemos que ni los diseños
transversales son débiles ni los diseños longitudinales son siempre tan valiosos como comúnmente se
c 202:i Journal o1 Applied Structural Kc[uation Modeling 1X
Memon, Ramayah, Cheah, king, Chuah y Cham. EO2!s
supone. Spector (2019) concluyó que "cada uno tiene su lugar en nuestro arsenal de herramientas de
diseño de investigación, siendo el diseño transversal una herramienta eficaz e invaluable para
investigar fenómenos organizacionales importantes (p. 136). Por lo tanto, damos la bienvenida a las
presentaciones que emplean cualquiera de los dos diseños con rigor y alta transparencia en la
presentación de informes."
Además, aunque la recogida de datos de múltiples fuentes (por ejemplo, empleados y sus
supervisores) para las variables dependientes e independientes se sugiere a menudo para mitigar
el CMB, puede plantear retos importantes para los investigadores en los campos de la empresa, la
gestión y las ciencias sociales. Obtener datos incluso de una sola fuente puede ser difícil, por lo
que las fuentes múltiples resultan especialmente complicadas para los estudiantes y los
investigadores noveles. Por lo tanto, los investigadores deben abordar estos diseños de
investigación con cautela, teniendo en cuenta el tiempo adicional, los recursos, el acceso a
diversas partes interesadas y, lo que es más importante, la experiencia necesaria para diseñar y
ejecutar estrategias de recopilación y análisis de datos de múltiples fuentes. Independientemente
del diseño elegido, cada estrategia o aspecto debe justificarse, teniendo muy en cuenta el "por
qué" de la decisión, e indicarse explícitamente en los manuscritos. En la tabla 4 se ofrece un
amplio resumen de las recomendaciones sobre la comunicación de estrategias estadísticas y de
procedimiento para abordar el CMB.
Recomendamos a los investigadores que consulten estudios anteriores (por ejemplo, Podsakoff et al.,
2OO3, Reio, 2010; Johnson et a1., 2011; Schwarz et al., 2017) y algunos trabajos recientes (por
ejemplo, Spector, 2019; Jordan & Troth, 2O2O; Cooper et al., 2O2O, Bozionelos & Simmering, 2022;
Cruz, 2022; Simha, 2023) para comprender mejor el debate sobre el sesgo común de los métodos y las
estrategias relacionadas para minimizarlo. Para la elaboración de informes, los trabajos de Woosnam
et al. (2022) y Su et al. (2022) pueden ser buenos puntos de referencia, ya que han aplicado estrategias
tanto procedimentales como estadísticas para abordar el CMB. Para los investigadores interesados en
utilizar análisis estadísticos post-hoc, como la variable marcadora techni'Jue, recomendamos consultar
Miller y Simmering (2022), que han desarrollado una nueva variable marcadora, "actitud hacia el
color azul", junto con su escala correspondiente, para detectar la varianza del método común.
Cuadro 4: Recomendaciones para informar sobre el sesgo común de los métodos
Nota final
como la prueba t o el análisis de regresión, pueden ser muy beneficiosas, sobre todo para quienes
están menos familiarizados con estos conceptos. Es imperativo mantener la integridad
académica y respetar las normas éticas en todas las etapas del proceso académico.
3. En el proceso de" elaboración de este editorial, nos emocionó enterarnos del lanzamiento del
Modelado de Ecuaciones Estructurales Basado en la Covarianza (CB-SEM) en SmartPLS 4.0
(Ringle et a1., 2O22). Este sorprendente desarrollo ha superado nuestras expectativas.
SmartPLS ya ha obtenido el reconocimiento como la opción preferida entre los
investigadores de ciencias empresariales y sociales, debido a su interfaz fácil de usar, su
facilidad de uso y sus características innovadoras (Memon et al., 2O21). El software también
ofrece varias opciones analíticas avanzadas, como el análisis de condición necesaria (NCA),
el análisis multigrupo (MGA) y PROCESS para la mediación moderada, la moderación
mediada y el moderador moderado, lo que lo convierte en una herramienta distintiva para el
análisis de datos. La inclusión de CB-SEM no sólo eleva las capacidades del software, sino
que también permite a los investigadores realizar análisis sólidos y disfrutar de sus tareas
analíticas. Anticipamos progresos similares y avances continuos en el campo de los métodos
cuantitativos y las técnicas avanzadas de análisis de datos por parte de otros desarrolladores.
Esperamos sinceramente ser testigos de una evolución constante en estos ámbitos, que permita a
los investigadores profundizar en sus análisis y descubrir nuevas perspectivas.
Referencias
Antonakis I, Bendahan S, Jacquart P, et al. (2010) On making causal claims: Una revisión y
recomendaciones. The Leadership quarterly, 2 1: 1086-1120.
Antonakis I, Bendahan S, Jacquart P, et a1. (20 14) Causalidad y endogeneidad: Problemas y soluciones.
En: Day DV (ed.) Ohr Oxford Handbook ofL.eadershlp and Organizations. Oxford: Oxford
Library of Psychology, pp. 98-117
Berndt, A. E. (2020). Métodos de muestreo. Journal ofHuman lactation, '3 6(2), 224-226.
Bozionelos, N., & Simmering, M. J. (2022). ¿Amenaza metodológica o mito? Evaluating the current
state of evidence on common method variance in human resource management research. Human
Resource Management Journal, '32( 1), I 94-2 I h.
Buschle, C., Reiter, H. y Bethmann, A. (2022). La entrevista cualitativa previa para la elaboración
de cuestionarios: Esquema del programa y de la práctica. Quality U Quantity, 56(2),
823-842.
Cruz, K. S. (2022). ¿Le está preguntando a la persona correcta (pista: ¡a menudo no lo es!)? Deje de
preocuparse por los argumentos infundados del sesgo del método común y empiece a
utilizar mi guía para tomar mejores decisiones sobre cuándo utilizar informes propios y
ajenos. Group N Organization Management, 47(5), 920-927.
Cooper, B., Eva, N., Fazlelahi, F. Z., Newman, A., Lee, A., & Obschonka, M. (2020). Addressing
common method variance and endogeneity in vocational behax ior research: A review of the
literature and suggestions for future research. Journal of Vocational Behavior, 121, 10:i472.
Cooper, B., Eva, N., Fazlelahi, F. Z., Newman, A., Lee, A., & Obschonka, M. (2020). Addressing
common method variance and endogeneity in vocational behavior research: A review of the
literature and suggestions for future research. Journal of Vocational Behavior, 121,
Colbert, C. Y., French, J. C., Arroliga, A. C., & Bierer, S. B. (2019). Mejor práctica versus práctica
real: una auditoría de las prácticas de pruebas preliminares de encuestas informadas en
una muestra de" revistas de educación médica. Educación médica en línea, 24( 1), 161369G.
Coltman, T., Devinney, T. M., Midgley, D. F., & Venaik, S. (2008). Formative versus reflective
measurement models: Two applications ot' lormatix e measurement. Journal o/ Business
Research, 6 l ( 1 2), l 250- 1262.
Cote, J. A., & Buckley, M. R. ( 1987). Estimación de la varianza de rasgo, método y error:
Dalal, D. K. y Carter, N. T. (2014). Negatively worded items negatively impact survey research. En
More statÎStlcal aTId methodologllcal mythe and urban légende (pp. 112-132). Routledge.
de Oliveira, C. A., Carneiro, J., & Esteves, F. (2019). Conceptualización y medición de la "estrategia
constructo "ejecución". Journal ofBuslness Research, 105, 333-311.
Dueber, D. M., Toland, M. D., Lingat, J. E., Love, A. M. A., Qiu, C., Wu, R., & Brown, A. V.
(2021). To Reverse Item Orientation or Not to Re'-erse Item Orientation, That is the
Question. Assessment. https://doi.org/ 1O. 1177/ 1075191121 IO17CSS
Howard, M. C., & Crayne, M. P. (2019). Persistencia: Definición del constructo multidimensional.
y creación de una medida. Personality and Indivldual D@rrrnrrà, 1ö 9, 77-89.
Holland, J., Baumgartner, H., & Smith, K. M. (2018). Marketing sur' ey research best practices:
évidence and recommendations from a review of" JAMS articles. Journal o/ hr Academy
ofMarketing Science, 4G. 92- I OS.
Hunsu, N. J., Kehinde, O. J., Oje, A. V., & Yli-Piipari, S. (2022). Single versus multiple resilience
factors: an investigation of the dimensionality of'the academic resilience scale. Journal o/
Psychoeducational Assessment, 40(ö), 346-ô ô9.
Johnson, R. E., Rosen, C. C., y Djurdjevic E. (2011) Evaluación del impacto de la varianza del
método común en constructos multidimensionales de orden superior. Journal ofApplied
Psychology. 96: 744-761.
Jordan, P. J., & Troth, A. C. (2O2O). Sesgo de método común en entornos aplicados: El dilema de
la investigación en las organizaciones. Australlan Journal ofManagement, 4h( 1), 3-14.
Kahn, W.A. ( 1990), "Psychological conditions of personal engagement and disengagement at
work", Academy ofManagement Journal, ö'3, pp. 692-724.
Kumar, M., Talib, S. A., & Ramayah, T. (201:i). Business Research Methods. Selangor, Malayisa:
Oxford University Press
Malhotra, N. K., Schaller, T. K., & Patil, A. (2017). Varianza de métodos comunes en la publicidad.
investigación: Cuándo preocuparse y cómo controlarlo. Journal ofAdvertlsing, 46(1),
193-'2 1'2.
Memon, M. A., Ramayah, T., Cheah, J. H., Ting, H., Chuah, F., & Cham, T. H. (2021). PU-SEM
statistical programs: a review. Journal ofApplled Structural Equation Modellng, 5( l), 1-14.
Memon, M. A., Salleh, R., Mirza, M. Z., Cheah, J. H., Ting, H., Ahmad, M. S., & Tariq, A. (2O2O).
Satisfaction masters: the relationships between HRM practices, work engagement and
turnox-er intention. International Journal ofManpozrer, 42( 1), 21-50.
Memon A. M., Ting, H., Ramayah, T., Chuah, F., & Cheah, J. H. (2017). Editorial,'a review of the
methodological misconceptions and guidelines related to the application of structural
equation modelling: a Malaysian scenario'. Journal of applied structural equation modellng,
1( 1), 1- 13.
MacKenzie SB y Podsakoff PM (2012) Sesgo de método común en marketing: Causas, mecanismos y
remedios procesales. Journal ofRetailing, 88: 542-555.
Miller, B. K., y Simmering, M. J. (202c). Actitud hacia el color azul: Una variable marcadora ideal.
Organizational Research Methods, DOI: 10944281221075561.
Nixon, A. E., Mazzola, J. J., Bauer, J., Krueger, J. R., & Spector, P. E. (2011). ¿Puede enfermarte
el trabajo? A meta-analysis of the relationships between job stressors and physical
symptoms. work U Stress, 2ô 1), 1-22.
Podsakoff PM y Organ DW ( 1986) Selt-reports in organizational research: Problemas y perspectivas.
Journal ofManagement 12: SS 1-544.
Podsakoff PM, MacKenzie SB y Podsakoff NP (2012) Sources of method bias in social science
research and recommandations on how to control it. Annual Review of Psychology, 65: 589-
569
Podsakoff, P. M., MacKenzie, S. B., Lee, J. Y. (2OOS) Sesgos comunes del método en la
investigación del comportamiento: A critical review of the literature and recommended
remedies. Journal o/ Applled PsJchology 88: 879-903.